为SAC准备Rllib离线数据我有一些离线体验:(s,a,r,s')是通过启发式生成的。我想在训练SAC特工时使用这些。使用示例saving_experiences准备数据会在使用SAC时出错。这里是一个colab,其中摆锤-v0 ...2024-06-01 已阅读: n次
深度学习代理表现不佳。需要帮助优化吗我正在尝试从https://keon.io/deep-q-learning制作深度q-learning代理 我的环境如下所示: https://imgur.com/a/OnbiCtV 正如你所看到的, ...2024-06-01 已阅读: n次
用Python for G打印第三个字母所以,我在用Grok学习,我被困在“特工”的任务上。我已经找出了大部分的代码,除了我有一个随机的空间,在最后,我不能删除。我用过.rstrip(),我真的很困惑。这是我目前的代码: text = in ...2024-06-01 已阅读: n次
在Python中实现A*算法 我想实现一个A * algorithm in Python。代理最初位于坐标(6,2),并试图到达坐标(4,11)。这个代理的宇宙是一个12x12 positions的网格,其中位置的子集是不可访问 ...2024-06-01 已阅读: n次
以十为单位计算行动损失和奖励我试着计算一个RL项目的损失有3个离散的行动。我有模型的输出预测(from tf.layers.dense())(例如,3个可能的操作,批大小2): [[10, 20.2, 4.3], [5, 3, ...2024-06-01 已阅读: n次
串行通信:Pyboard和PC我想分享一些关于传感器和一些进程的数据 我想做一个A2C特工 我在我的计算机上写了一些Python代码来管理另外两个文件之间的通信。第一个是A2C算法,第二个是pyboard上的main.py脚本。第 ...2024-06-01 已阅读: n次
如何在DQN中融入人的控制我计划训练一个马里奥特工用DQN自己玩。但我也希望能够控制代理,如果它卡在管道上,例如,然后允许它自己继续播放。如何提取需要帮助的特定状态 ...2024-06-01 已阅读: n次
Qlearn没有学会玩游戏的问题我试着用Q-learn教一个特工玩蛇游戏。当我训练的时候,我看到损失越来越小,但是当我试着让经纪人在MBP上训练了8小时后再打比赛的时候,他似乎什么都不懂。你知道吗 Q学习:https://githu ...2024-06-01 已阅读: n次
通过Python-web-servi更新Hiera我现在有一个傀儡大师和两个特工。要求能够根据从restweb服务接收到的请求,在需要时在两个代理的tomcats上部署一个简单的web应用 步骤如下: 用户通过web应用路径、nexus路径等信息调 ...2024-06-01 已阅读: n次
Pandas:基于行值减去列我目前正在处理一台摄像机的数据,它可以跟踪机器人特工的位置以及周围的人类活动。我想设置人与机器人的距离,而不是相机当前使用的网格。以下是格式化数据的示例: x idx ...2024-06-01 已阅读: n次
在Python 2D中预测一个点我正在用python制作一个游戏,目前有两个“代理”,一个不移动和射击,另一个移动和被击中。不幸的是我还不能发照片。想象两个三角形的特工,红色圆圈代表子弹。我们用vector2D(我们讲师的课)来代表 ...2024-06-01 已阅读: n次
基于poisson过程的代理到达我试图根据poisson过程在模型中实现代理到达。我从数据中知道,平均每天有230名特工到达(或9.583名特工/小时或0.1597名/分钟)。在模拟中,现在我需要使用这些信息来添加代理。一个模拟时间 ...2024-06-01 已阅读: n次
python-batian 巴蒂安蟒蛇特工。 此包Python名称:python-batian 目前版本: python-batian 0.1 最后维护时间:S ...2024-06-01 已阅读: n次
Empire-Agent 帝国特工 此包Python名称:Empire-Agent 目前版本: Empire-Agent 0.0.3 最后维护时间:Jul 3 ...2024-06-01 已阅读: n次
ai-maze人工智能迷宫 这个项目是为人工智能的一个学校项目而设计的。目的是让特工穿过迷宫的左侧,直到找到入口。一旦找到,它将在迷宫中创建一个节点并开始其路径,直到找到它的出口为止。一旦找到了出口,就打印出了行进 ...2024-06-01 已阅读: n次