openai-gym相关内容
我正在尝试注册一个在CoLab上运行的Jupyter笔记本的单元内定义的环境。我的问题与入口点有关。必须在冒号之前指定某个模块。但是我怎么知道底层CoLab笔记本的模块名称呢?是否有一些解决方法可以将我的自定义环境包装在一个模块中,而不将代码移动到另一个文件中?我更喜欢把所有东西都放在整个笔记本里。 try: gym.envs.register( id='myenv-v0',
..
我想在笔记本中玩 OpenAI 健身房,并在线渲染健身房. 这是一个基本示例: 将 matplotlib.pyplot 导入为 plt进口健身房从 IPython 导入显示%matplotlib 内联env =gym.make('CartPole-v0')环境重置()对于范围内的 i (25):plt.imshow(env.render(mode='rgb_array'))display.
..
我的任务是制作一个 AI 代理,该代理将学习使用机器学习玩电子游戏.我想使用 OpenAI Gym 创建一个新环境,因为我不想使用现有环境.如何创建新的自定义环境? 另外,在没有 OpenAI Gym 的帮助下,我是否可以开始开发让 AI Agent 玩特定视频游戏的其他方法? 解决方案 查看我的 banana-健身房适用于极小的环境. 创建新环境 查看仓库主页:
..
我在 Windows 10 上安装 OpenAI Gym Atari 环境时遇到问题.我已经在同一系统上成功安装并使用了 OpenAI Gym. 它在尝试运行 makefile 时总是跳闸. 我正在运行命令 pip installgym[atari] 这里是错误: 这是我目前系统上的内容...cmake 和 make 都已明确安装. 解决方案 我最终在 Window
..
我正在使用 Q learning 并且程序应该能够在一些尝试后玩游戏,但即使 epsilon 值为 0.1,它也无法学习. 我尝试将批量大小更改为内存大小.如果玩家死亡,我已更改代码以提供 -1 奖励. 导入健身房将 numpy 导入为 np随机导入将张量流导入为 tf将 numpy 导入为 np从时间导入时间进口键盘导入系统导入时间env =gym.make("Breakout-ram-
..
我目前正在阅读 Sudharsan Ravichandiran 的 Hands-On Reinforcement Learning with Python 以及我遇到这个 AttributeError 的第一个例子: AttributeError 'TimeLimit' 对象没有属性 'P' 由以下行引发: for next_sr in env.P[state][action]:
..
我和我的同学决定尝试将 AI 代理实现到我们自己的游戏中.我的朋友根据以前的项目完成了大部分代码,我想知道 PyGame 和 OpenAI 将如何协同工作.曾尝试进行一些研究,但无法真正找到有关此特定主题的任何有用信息.有人说这很难实施,但有人说它有效.无论哪种方式,我都希望您对这个项目提出意见,以及如果是您,您会如何处理. 游戏非常基础(只有一个输入)和线性难度.基本上,您只是尝试躲避随着
..
使用OpenAIgym时,用importgy导入库后,可以用env.action_space查看动作空间.但这仅给出了动作空间的大小.我想知道动作空间的每个元素对应什么样的动作.有没有简单的方法来做到这一点? 解决方案 如果你的动作空间是离散的和一维的,env.action_space 会给你一个 Discrete 对象.您可以像这样访问可用操作的数量(它只是一个整数): env =gy
..
我一直在使用 Tensorflow 和 OpenAI 健身房进行深度强化学习.我的问题是 GPU 利用率低.谷歌搜索这个问题,我明白在训练小型网络(例如训练 mnist)时期望大量 GPU 利用率是错误的.但是我的神经网络并不小,我想.该架构类似于原始 deepmind 论文中给出的(或多或少).我的网络架构总结如下 卷积层 1(filters=32,kernel_size=8x8,stri
..
嗨,我正在尝试训练 DQN 来解决健身房的 Cartpole 问题.出于某种原因,损失 看起来像这样(橙色线).你们都可以看看我的代码并帮助解决这个问题吗?我已经对超参数进行了相当多的研究,所以我认为它们不是这里的问题. class DQN(nn.Module):def __init__(self, input_dim, output_dim):super(DQN, self).__init__
..
这是一个一般性问题,也许有人可以为我指明正确的方向. 我正在使用 Python 3.6/Tensorflow 进行强化学习,并且我发现/调整了我自己的模型来训练特定股票的历史数据.我的问题是,是否可以在不止一只股票的数据集上训练这个模型?我读过的关于时间序列预测和 RL 的每篇机器学习文章都使用一个数据集进行训练和测试,但我的目标是在一堆价格不同的股票代码上训练模型,希望该模型能够识别相似的
..
我想在 OpenAI 环境中修改一些内容.如果我们使用 Cartpole 示例,那么我们可以编辑类 init 函数中的内容,但对于使用 Box2D 的环境,它似乎并不那么简单. 例如,考虑 BipedalWalker 环境. 在这种情况下,我将如何编辑 SPEED_HIP 或 SPEED_KNEE 变量之类的内容? 解决方案 是的,您可以在 Gym 中修改或创建新环境.最简单(
..
我想在 OpenAI CarRacing-v0 环境中设置一个 RL 代理,但在此之前我想了解动作空间.在 github 上的代码第 119 行中说: self.action_space =spaces.Box( np.array([-1,0,0]), np.array([+1,+1,+1])) # 转向,加油,刹车 我如何阅读这一行?虽然我的问题是具体的 wrt CarRacing-v0 我
..
我根据 OpenAI Gym 框架创建了一个自定义环境;包含 step、reset、action 和 reward 函数.我的目标是在这个自定义环境上运行 OpenAI 基线.但在此之前,环境必须在 OpenAI 健身房注册.我想知道如何在 OpenAI 健身房注册自定义环境?另外,我是否应该修改 OpenAI 基线代码以包含此内容? 解决方案 你不需要修改baselines repo.
..
我创建了一个非常简单的 OpenAI 健身房(banana-gym) 并想知道我是否应该/如何实现 env.seed(0). 参见 https://github.com/openai/gym/issues/250例如#issuecomment-234126816. 解决方案 在最近的merge,OpenAI Gym 的开发人员更改了 env.seed() 的行为,不再调用方法 env
..
我正在 tensorflow 中实现的健身房环境 (BipedalWalker-v2) 中运行强化学习程序.我手动设置了环境的随机种子,tensorflow 和 numpy 如下 os.environ['PYTHONHASHSEED']=str(42)随机种子(42)np.random.seed(42)tf.set_random_seed(42)env =gym.make('BipedalWal
..
我想覆盖一个实例的方法.让我们称这个实例/对象为 env.实例方法有一个带有 f(self, other_parameter) 签名的方法,它实际上是不可公开访问的(不知道为什么,但你会在下面看到它没有列在类和对象:你能告诉我为什么吗?).但是,我得到了 new_f(other_parameter) 形式的函数,即没有 self 参数,我需要将其绑定到实例/对象,根据 元组:返回 [], self
..
我正在尝试在 WSL 上使用 OpenAI 著名的“Gym"模块,并在 python 3.5.2 上执行代码. 当我尝试运行环境如此处所述时,使用代码: 导入健身房env =gym.make('CartPole-v0')对于范围(20)中的 i_episode:观察 = env.reset()对于范围内的 t(100):环境渲染()打印(观察)动作 = env.action_space.sam
..
我正在健身房 CartPole-v0 环境上实现价值迭代,并希望将代理人行为的视频记录在视频文件中.我一直在尝试使用Monitor包装器实现此功能,但是它会在记录目录中生成json文件而不是视频文件.这是我的代码: env =gym.make('FrozenLake-v0')env = gym.wrappers.Monitor(env,'recording',force = True)种子(0)
..
我正在尝试在Google合作实验室上运行Gym-凉亭. 在Colab上运行凉亭服务器(没有gui的凉亭)时出现问题. 显示屏上显示警告:无法创建X窗口.渲染将被禁用,但我想我已经解决了. 也有关于声卡的警告.不确定是否与无法打开音频设备相关, 还有关于转换的警告不支持传感器类型[深度]的转换 这是一个示例 你能帮忙吗? 解决方案 要以无头模式运行凉亭,您需要运行 gserver
..