tensor相关内容

理解火炬中的雅可比张量梯度

我正在学习official pytorch tut,其中对张量梯度和雅可比乘积的解释如下: 不是计算雅可比矩阵本身,而是允许计算给定输入向量v=(v1…)的雅可比乘积Vm)。这是通过使用v作为参数回调来实现的: inp = torch.eye(5, requires_grad=True) out = (inp+1).pow(2) out.backward(torch.ones_like ..
发布时间:2022-04-12 14:15:09 Python

R高效绘制在椭球体中变形的数千个球体,在3D中具有透明度

我需要真正加速一小段代码,它根据3x3张量列表在3x3张量列表中变形约3000个球体,将它们转换为椭球体。此外,我需要透明的颜色(&Quot;Alpha;Argument<;1)。然后我想要快速而有效地绘制它们。我希望拥有与ball 3d()相同的性能,但当然不是这样的……(运行下面的代码)。下面是我的代码,其中包含一个完全可重现的示例所需的函数。你能帮我做这件事吗?在此之前,我非常感谢您。 ..
发布时间:2022-04-02 20:18:01 其他开发

使用argmax从张量获取值

我有一个Tensor形状(60, 128, 30000)。我想获取30000维度(axis=2)的argmax的值。 以下代码是一个示例: tensor = tf.random.uniform((60, 128, 30000)) # shape (60, 128, 30000) argmax = tf.argmax(tensor, axis=2) # shape (60, 128) --> ..
发布时间:2022-04-01 22:05:32 Python

在 Pytorch 中连接两个张量

RuntimeError:无效参数 0:张量的大小必须匹配,但维度 2 除外.在/pytorch/aten/src/THC/generic/THCTensorMath.cu:87 的维度 0 中得到 32 和 71 我有一个形状为 [71 32 1] 的张量. 我想通过填充零向量使其成为 [100 32 1] 形状. 我尝试连接形状为零的填充向量 [29 32 1].我收到上述错误. ..
发布时间:2022-01-06 19:58:04 AI人工智能

如何将自定义函数应用于 PyTorch 矩阵中的特定列

我有一个大小为 [150, 182, 91] 的张量,第一部分只是批量大小,而我感兴趣的矩阵是 182x91 的. 我需要在 182x91 矩阵上为 50 个维度中的每个维度分别运行一个函数. 我需要得到一个 182x91 矩阵的对角矩阵条纹,我使用的函数如下(基于我之前的问题:在 numpy 或 pytorch 中自动获取对角矩阵条纹): def stripe(a):i, j = ..
发布时间:2022-01-06 19:57:39 Python

带有注意力的 LSTM

我正在尝试为堆叠的 LSTM 实现添加注意力机制 https://github.com/salesforce/awd-lstm-lm 所有在线示例都使用编码器-解码器架构,我不想使用它(我是否必须使用注意力机制?). 基本上,我用过 https://webcache.googleusercontent.com/search?q=cache:81Q7u36DRPIJ:https://gi ..

Pytorch 重塑张量维度

例如,我有一个维度为 (5) 的一维向量.我想将其重塑为二维矩阵 (1,5). 这是我如何使用 numpy >>>将 numpy 导入为 np>>>a = np.array([1,2,3,4,5])>>>一个形状(5,)>>>a = np.reshape(a, (1,5))>>>一个形状(1, 5)>>>一个数组([[1, 2, 3, 4, 5]])>>> 但是我怎么能用 Pytor ..
发布时间:2022-01-06 19:34:13 Python

在 PyTorch 中使用 None 索引张量

我见过这种在 PyTorch 中索引张量的语法,不知道是什么意思: v = torch.div(t, n[:, None]) 其中 v、t 和 n 是张量. “None"的作用是什么?这里?我似乎无法在文档中找到它. 解决方案 与 NumPy 类似,您可以通过使用 None 索引此维度来插入单个维度(“unsqueeze" 维度).反过来,n[:, None] 将具有在 dim= ..
发布时间:2022-01-06 19:30:20 其他开发

调整 PyTorch 张量

我目前正在使用 tensor.resize() 函数将张量调整为新形状 t = t.resize(1, 2, 3). 这给了我一个弃用警告: 不推荐使用非就地调整大小 因此,我想切换到 tensor.resize_() 函数,这似乎是适当的就地替换.然而,这给我留下了 无法调整需要 grad 的变量的大小 错误.我可以退回到 from torch.autograd. ..
发布时间:2022-01-06 19:25:47 Python

pytorch:“不支持多目标";错误信息

所以我想对一些 (3, 50, 50) 图片进行分类.首先,我从没有数据加载器或批处理的文件中加载了数据集,它起作用了.现在,在添加了这两件事之后,我得到了那个错误: RuntimeError: multi-target not supported at/pytorch/aten/src/THCUNN/generic/ClassNLLCriterion.cu:15 我在互联网上找到了很多答案, ..
发布时间:2022-01-06 19:18:53 AI人工智能

了解 PyTorch LSTM 的输入形状

这似乎是 PyTorch 中 LSTM 最常见的问题之一,但我仍然无法弄清楚 PyTorch LSTM 的输入形状应该是什么. 即使关注了几个帖子(1,2、3) 并尝试解决方案,它似乎不起作用. 背景:我已经编码了一批大小为 12 的文本序列(可变长度),并且使用 pad_packed_sequence 功能填充和打包序列.每个序列的 MAX_LEN 为 384,序列中的每个标记(或单 ..
发布时间:2022-01-06 19:13:55 Python

如何将 Pytorch autograd.Variable 转换为 Numpy?

标题说明了一切.我想将 PyTorch autograd.Variable 转换为其等效的 numpy 数组.在他们的官方文档中,他们提倡使用a.numpy() 获取等效的 numpy 数组(用于 PyTorch 张量).但这给了我以下错误: 回溯(最近一次调用最后一次):文件“stdin",第 1 行,在模块中文件"/home/bishwajit/anaconda3/lib/python3 ..
发布时间:2022-01-06 19:05:24 Python

Pytorch 复制张量的首选方式

在 Pytorch 中似乎有几种方法可以创建张量的副本,包括 y = tensor.new_tensor(x) #ay = x.clone().detach() #by = torch.empty_like(x).copy_(x) #cy = torch.tensor(x) #d 根据用户警告, b 明显优于 a 和 d,如果我执行 a或 d.为什么是首选?表现?我认为它的可读性较差. ..
发布时间:2022-01-06 18:59:18 其他开发

.data 在 pytorch 中仍然有用吗?

我是 pytorch 的新手.我阅读了大量使用张量的 .data 成员的 pytorch 代码.但是我在官方文档和谷歌搜索.data,发现很少.我猜 .data 包含张量中的数据,但我不知道我们什么时候需要它,什么时候不需要? 解决方案 .data 是 Variable 的一个属性(代表 Tensor 的对象,带有历史跟踪,例如自动更新),而不是 Tensor.实际上,.data 允许访问 ..
发布时间:2022-01-06 18:58:44 Python