openai-gym相关内容

注册在jupyter笔记本电池内定义的健身房环境

我正在尝试注册一个在CoLab上运行的Jupyter笔记本的单元内定义的环境。我的问题与入口点有关。必须在冒号之前指定某个模块。但是我怎么知道底层CoLab笔记本的模块名称呢?是否有一些解决方法可以将我的自定义环境包装在一个模块中,而不将代码移动到另一个文件中?我更喜欢把所有东西都放在整个笔记本里。 try: gym.envs.register( id='myenv-v0', ..
发布时间:2022-03-15 15:11:25 Python

如何在 OpenAI 中创建新的健身房环境?

我的任务是制作一个 AI 代理,该代理将学习使用机器学习玩电子游戏.我想使用 OpenAI Gym 创建一个新环境,因为我不想使用现有环境.如何创建新的自定义环境? 另外,在没有 OpenAI Gym 的帮助下,我是否可以开始开发让 AI Agent 玩特定视频游戏的其他方法? 解决方案 查看我的 banana-健身房适用于极小的环境. 创建新环境 查看仓库主页: ..

Windows 上的 OpenAI Gym Atari

我在 Windows 10 上安装 OpenAI Gym Atari 环境时遇到问题.我已经在同一系统上成功安装并使用了 OpenAI Gym. 它在尝试运行 makefile 时总是跳闸. 我正在运行命令 pip installgym[atari] 这里是错误: 这是我目前系统上的内容...cmake 和 make 都已明确安装. 解决方案 我最终在 Window ..
发布时间:2021-09-25 19:41:59 Python

OpenAI健身房breakout-ram-v4无法学习

我正在使用 Q learning 并且程序应该能够在一些尝试后玩游戏,但即使 epsilon 值为 0.1,它也无法学习. 我尝试将批量大小更改为内存大小.如果玩家死亡,我已更改代码以提供 -1 奖励. 导入健身房将 numpy 导入为 np随机导入将张量流导入为 tf将 numpy 导入为 np从时间导入时间进口键盘导入系统导入时间env =gym.make("Breakout-ram- ..

Pygame 和 Open AI 实现

我和我的同学决定尝试将 AI 代理实现到我们自己的游戏中.我的朋友根据以前的项目完成了大部分代码,我想知道 PyGame 和 OpenAI 将如何协同工作.曾尝试进行一些研究,但无法真正找到有关此特定主题的任何有用信息.有人说这很难实施,但有人说它有效.无论哪种方式,我都希望您对这个项目提出意见,以及如果是您,您会如何处理. 游戏非常基础(只有一个输入)和线性难度.基本上,您只是尝试躲避随着 ..
发布时间:2021-07-07 18:56:38 Python

如何检查 OpenAI 健身房环境中可用的动作?

使用OpenAIgym时,用importgy导入库后,可以用env.action_space查看动作空间.但这仅给出了动作空间的大小.我想知道动作空间的每个元素对应什么样的动作.有没有简单的方法来做到这一点? 解决方案 如果你的动作空间是离散的和一维的,env.action_space 会给你一个 Discrete 对象.您可以像这样访问可用操作的数量(它只是一个整数): env =gy ..
发布时间:2021-07-07 18:56:35 其他开发

运行 Tensorflow 时 GPU 利用率低

我一直在使用 Tensorflow 和 OpenAI 健身房进行深度强化学习.我的问题是 GPU 利用率低.谷歌搜索这个问题,我明白在训练小型网络(例如训练 mnist)时期望大量 GPU 利用率是错误的.但是我的神经网络并不小,我想.该架构类似于原始 deepmind 论文中给出的(或多或少).我的网络架构总结如下 卷积层 1(filters=32,kernel_size=8x8,stri ..

使用 DQN 增加 Cartpole-v0 损失

嗨,我正在尝试训练 DQN 来解决健身房的 Cartpole 问题.出于某种原因,损失 看起来像这样(橙色线).你们都可以看看我的代码并帮助解决这个问题吗?我已经对超参数进行了相当多的研究,所以我认为它们不是这里的问题. class DQN(nn.Module):def __init__(self, input_dim, output_dim):super(DQN, self).__init__ ..
发布时间:2021-07-07 18:56:29 Python

使用多个股票代码的数据集进行强化学习?

这是一个一般性问题,也许有人可以为我指明正确的方向. 我正在使用 Python 3.6/Tensorflow 进行强化学习,并且我发现/调整了我自己的模型来训练特定股票的历史数据.我的问题是,是否可以在不止一只股票的数据集上训练这个模型?我读过的关于时间序列预测和 RL 的每篇机器学习文章都使用一个数据集进行训练和测试,但我的目标是在一堆价格不同的股票代码上训练模型,希望该模型能够识别相似的 ..

是否可以修改 OpenAI 环境?

我想在 OpenAI 环境中修改一些内容.如果我们使用 Cartpole 示例,那么我们可以编辑类 init 函数中的内容,但对于使用 Box2D 的环境,它似乎并不那么简单. 例如,考虑 BipedalWalker 环境. 在这种情况下,我将如何编辑 SPEED_HIP 或 SPEED_KNEE 变量之类的内容? 解决方案 是的,您可以在 Gym 中修改或创建新环境.最简单( ..
发布时间:2021-07-07 18:56:23 其他开发

如何在 OpenAI 的健身房中注册自定义环境?

我根据 OpenAI Gym 框架创建了一个自定义环境;包含 step、reset、action 和 reward 函数.我的目标是在这个自定义环境上运行 OpenAI 基线.但在此之前,环境必须在 OpenAI 健身房注册.我想知道如何在 OpenAI 健身房注册自定义环境?另外,我是否应该修改 OpenAI 基线代码以包含此内容? 解决方案 你不需要修改baselines repo. ..
发布时间:2021-07-07 18:56:05 其他开发

如何在运行时动态设置对象的方法(当对象是 Gym 环境的实例时)?

我想覆盖一个实例的方法.让我们称这个实例/对象为 env.实例方法有一个带有 f(self, other_parameter) 签名的方法,它实际上是不可公开访问的(不知道为什么,但你会在下面看到它没有列在类和对象:你能告诉我为什么吗?).但是,我得到了 new_f(other_parameter) 形式的函数,即没有 self 参数,我需要将其绑定到实例/对象,根据 元组:返回 [], self ..

openAi-gym NameError

我正在尝试在 WSL 上使用 OpenAI 著名的“Gym"模块,并在 python 3.5.2 上执行代码. 当我尝试运行环境如此处所述时,使用代码: 导入健身房env =gym.make('CartPole-v0')对于范围(20)中的 i_episode:观察 = env.reset()对于范围内的 t(100):环境渲染()打印(观察)动作 = env.action_space.sam ..

python OpenAI Gym Monitor在记录目录中创建json文件

我正在健身房 CartPole-v0 环境上实现价值迭代,并希望将代理人行为的视频记录在视频文件中.我一直在尝试使用Monitor包装器实现此功能,但是它会在记录目录中生成json文件而不是视频文件.这是我的代码: env =gym.make('FrozenLake-v0')env = gym.wrappers.Monitor(env,'recording',force = True)种子(0) ..

在Google合作实验室上运行Gym-凉亭

我正在尝试在Google合作实验室上运行Gym-凉亭. 在Colab上运行凉亭服务器(没有gui的凉亭)时出现问题. 显示屏上显示警告:无法创建X窗口.渲染将被禁用,但我想我已经解决了. 也有关于声卡的警告.不确定是否与无法打开音频设备相关, 还有关于转换的警告不支持传感器类型[深度]的转换 这是一个示例 你能帮忙吗? 解决方案 要以无头模式运行凉亭,您需要运行 gserver ..