tensor相关内容
对于张量: x = torch.tensor([ [ [[0.4495, 0.2356], [0.4069, 0.2361], [0.4224, 0.2362]], [[0.4357, 0.6762], [0.4370, 0.6779],
..
我正在学习official pytorch tut,其中对张量梯度和雅可比乘积的解释如下: 不是计算雅可比矩阵本身,而是允许计算给定输入向量v=(v1…)的雅可比乘积Vm)。这是通过使用v作为参数回调来实现的: inp = torch.eye(5, requires_grad=True) out = (inp+1).pow(2) out.backward(torch.ones_like
..
我需要真正加速一小段代码,它根据3x3张量列表在3x3张量列表中变形约3000个球体,将它们转换为椭球体。此外,我需要透明的颜色(&Quot;Alpha;Argument<;1)。然后我想要快速而有效地绘制它们。我希望拥有与ball 3d()相同的性能,但当然不是这样的……(运行下面的代码)。下面是我的代码,其中包含一个完全可重现的示例所需的函数。你能帮我做这件事吗?在此之前,我非常感谢您。
..
我有一个Tensor形状(60, 128, 30000)。我想获取30000维度(axis=2)的argmax的值。 以下代码是一个示例: tensor = tf.random.uniform((60, 128, 30000)) # shape (60, 128, 30000) argmax = tf.argmax(tensor, axis=2) # shape (60, 128) -->
..
我正在尝试在启用GPU的Google Colab上初始化张量。 device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') t = torch.tensor([1,2], device=device) 但是我收到这个奇怪的错误。 RuntimeError: CUDA error: device-side
..
..
nn.Module.cuda() 将所有模型参数和缓冲区移动到 GPU. 但为什么不是模型成员张量? class ToyModule(torch.nn.Module):def __init__(self) ->没有任何:super(ToyModule, self).__init__()self.layer = torch.nn.Linear(2, 2)self.expected_moved
..
RuntimeError:无效参数 0:张量的大小必须匹配,但维度 2 除外.在/pytorch/aten/src/THC/generic/THCTensorMath.cu:87 的维度 0 中得到 32 和 71 我有一个形状为 [71 32 1] 的张量. 我想通过填充零向量使其成为 [100 32 1] 形状. 我尝试连接形状为零的填充向量 [29 32 1].我收到上述错误.
..
我有一个大小为 [150, 182, 91] 的张量,第一部分只是批量大小,而我感兴趣的矩阵是 182x91 的. 我需要在 182x91 矩阵上为 50 个维度中的每个维度分别运行一个函数. 我需要得到一个 182x91 矩阵的对角矩阵条纹,我使用的函数如下(基于我之前的问题:在 numpy 或 pytorch 中自动获取对角矩阵条纹): def stripe(a):i, j =
..
我在第三种方式中失败了.t3 仍在 CPU 上.不知道为什么. a = np.random.randn(1, 1, 2, 3)t1 = torch.tensor(a)t1 = t3.to(torch.device('cuda'))t2 = torch.tensor(a)t2 = t2.cuda()t3 = torch.tensor(a, device=torch.device('cuda'))
..
我正在尝试为堆叠的 LSTM 实现添加注意力机制 https://github.com/salesforce/awd-lstm-lm 所有在线示例都使用编码器-解码器架构,我不想使用它(我是否必须使用注意力机制?). 基本上,我用过 https://webcache.googleusercontent.com/search?q=cache:81Q7u36DRPIJ:https://gi
..
例如,我有一个维度为 (5) 的一维向量.我想将其重塑为二维矩阵 (1,5). 这是我如何使用 numpy >>>将 numpy 导入为 np>>>a = np.array([1,2,3,4,5])>>>一个形状(5,)>>>a = np.reshape(a, (1,5))>>>一个形状(1, 5)>>>一个数组([[1, 2, 3, 4, 5]])>>> 但是我怎么能用 Pytor
..
我见过这种在 PyTorch 中索引张量的语法,不知道是什么意思: v = torch.div(t, n[:, None]) 其中 v、t 和 n 是张量. “None"的作用是什么?这里?我似乎无法在文档中找到它. 解决方案 与 NumPy 类似,您可以通过使用 None 索引此维度来插入单个维度(“unsqueeze" 维度).反过来,n[:, None] 将具有在 dim=
..
我目前正在使用 tensor.resize() 函数将张量调整为新形状 t = t.resize(1, 2, 3). 这给了我一个弃用警告: 不推荐使用非就地调整大小 因此,我想切换到 tensor.resize_() 函数,这似乎是适当的就地替换.然而,这给我留下了 无法调整需要 grad 的变量的大小 错误.我可以退回到 from torch.autograd.
..
所以我想对一些 (3, 50, 50) 图片进行分类.首先,我从没有数据加载器或批处理的文件中加载了数据集,它起作用了.现在,在添加了这两件事之后,我得到了那个错误: RuntimeError: multi-target not supported at/pytorch/aten/src/THCUNN/generic/ClassNLLCriterion.cu:15 我在互联网上找到了很多答案,
..
这似乎是 PyTorch 中 LSTM 最常见的问题之一,但我仍然无法弄清楚 PyTorch LSTM 的输入形状应该是什么. 即使关注了几个帖子(1,2、3) 并尝试解决方案,它似乎不起作用. 背景:我已经编码了一批大小为 12 的文本序列(可变长度),并且使用 pad_packed_sequence 功能填充和打包序列.每个序列的 MAX_LEN 为 384,序列中的每个标记(或单
..
标题说明了一切.我想将 PyTorch autograd.Variable 转换为其等效的 numpy 数组.在他们的官方文档中,他们提倡使用a.numpy() 获取等效的 numpy 数组(用于 PyTorch 张量).但这给了我以下错误: 回溯(最近一次调用最后一次):文件“stdin",第 1 行,在模块中文件"/home/bishwajit/anaconda3/lib/python3
..
我对以下代码片段中的方法 view() 感到困惑. class Net(nn.Module):def __init__(self):super(Net, self).__init__()self.conv1 = nn.Conv2d(3, 6, 5)self.pool = nn.MaxPool2d(2,2)self.conv2 = nn.Conv2d(6, 16, 5)self.fc1 = nn.
..
在 Pytorch 中似乎有几种方法可以创建张量的副本,包括 y = tensor.new_tensor(x) #ay = x.clone().detach() #by = torch.empty_like(x).copy_(x) #cy = torch.tensor(x) #d 根据用户警告, b 明显优于 a 和 d,如果我执行 a或 d.为什么是首选?表现?我认为它的可读性较差.
..
我是 pytorch 的新手.我阅读了大量使用张量的 .data 成员的 pytorch 代码.但是我在官方文档和谷歌搜索.data,发现很少.我猜 .data 包含张量中的数据,但我不知道我们什么时候需要它,什么时候不需要? 解决方案 .data 是 Variable 的一个属性(代表 Tensor 的对象,带有历史跟踪,例如自动更新),而不是 Tensor.实际上,.data 允许访问
..