theano相关内容
背景 我有一个要在x,y坐标(P)处采样的图像. 在Numpy中,我可以通过以下方式使用高级索引: n_points = n_image[ [n_pos[:,1],n_pos[:,0]] ] 这将返回从图像采样的P个像素的向量. 问题 如何在Theano中进行高级索引编制? 我尝试过的 我已经在theano中尝试了相应的代码: t_points
..
拜托,我这里需要一盏灯.我想在Windows上使用良好的BLAS/LAPACK lib 安装numpy,但绝对没有页面能够很好地解释该过程.看来OpenBLAS是个不错而又快速的选择. 目标是将"theano"与"keras"一起使用,并且"theano"要求库是“动态的",而不是静态的. (不确定我是否明白这是什么意思,但这会导致速度缓慢和内存问题) 请把我当作一个完整的新手.给我一个循
..
我正在使用PyMC3来计算一些我不会涉及的内容,但是您可以从"2-lambdas"情况基本上是一个开关函数,需要将其编译为Theano函数以避免dtype错误,并且看起来像这样: import theano from theano.tensor import lscalar, dscalar, lvector, dvector, argsort @theano.compile.ops.as
..
我有一个通过转换共享变量创建的theano张量变量.如何提取原始值或强制转换值? (我需要这样做,因此不必携带原始的shared/numpy值.) >>> x = theano.shared(numpy.asarray([1, 2, 3], dtype='float')) >>> y = theano.tensor.cast(x, 'int32') >>> y.get_value(borro
..
有人可以帮我重写这个函数(doTheMath函数)在GPU上进行计算吗?我现在花了好几天试图设法解决这个问题,但是没有结果.我想知道也许有人会以您认为适合日志的任何方式帮助我重写此函数,因为最后我给出的结果相同.我尝试从numba使用@jit,但是由于某些原因,它实际上比正常运行代码要慢得多.样本量巨大,目标是大幅减少执行时间,因此自然而然地相信GPU是最快的执行方法. 我会解释一些实际发生
..
我想知道是否有 theano.function(inputs=[x,y], # list of input variables outputs=..., # what values to be returned updates=..., # “state” values to be modified givens=..., # substitutions to the graph)
..
TL.DR.是否有 theano.tensor.nnet.neighbours.images2neibs的3维友好实现? ? 我想使用神经网络对体积(NxNxN)进行体素分类,该神经网络接收nxnxn图像,其中N> n.要对体积中的每个体素进行分类,我必须遍历每个体素.对于每次迭代,我都会获取邻域体素并将其传递给神经网络,作为输入.这只是一个滑动窗口操作,该操作就是神经网络. 虽然我的
..
我最近才了解np.einsum,很快就迷上了它.但是theano似乎没有等效的功能,因此我需要以某种方式将numpy代码转换为theano.如何在theano中编写以下计算? IX=np.einsum('ijk,lj->ilk',p1,KX) 解决方案 您只需要重新排列轴即可使其工作: >>> import numpy as np >>> a = np.random.rand(3
..
在theano中编译函数时,可以通过指定updates=[(X, new_value)]来更新共享变量(例如X). 现在,我仅尝试更新共享变量的子集: from theano import tensor as T from theano import function import numpy X = T.shared(numpy.array([0,1,2,3,4])) Y = T.vec
..
我想使用张量点来计算两个张量的特定暗点的点积.喜欢: A是张量,其形状为(3,4,5) B是张量,其形状为(3,5) 我想用A的第三个暗点和B的第二个暗点做一个点,并得到暗值为(3,4)的输出 像下面这样: for i in range(3): C[i] = dot(A[i], B[i]) 如何通过张量点做到这一点? 解决方案 好吧,您是否要在numpy
..
我是Theano的新手,只是学习而已.我在Theano中实现了python中的ANN作为学习过程.我正在使用Spyder. Theano抛出错误:TypeError:未知参数类型:class'numpy.ndarray' 我不确定错误在哪里.是在成本函数中还是在梯度下降中?造成这种情况的典型原因是什么? 这是我的代码: X = T.dmatrix() y = T.dmatr
..
我正在计算一个张量,它是一个复数,但随后取其大小并将其转换为float32: x = theano.tensor.abs_(cum).astype(theano.config.floatX) 当我尝试计算成本函数时,出现以下错误: TypeError: Elemwise{abs_,no_inplace}.grad (Input index 0, dtype complex128)
..
我对它们一无所知,我从 http://阅读deeplearning.net/software/theano/tutorial/conditions.html .我想它们的功能就像我们的ifelse,但无法理解如何使用它们.请对此提供一些指导.谢谢 解决方案 我认为它只是对三个符号变量起作用的另一个运算符,如果第一个为true,则返回第二个,否则返回第三个. 但是对于许多运算符(例如-
..
我是theano和千层面的用户. 我在处理输入矩阵的可变长度时遇到问题. 即) x1 = [0, 1, 3] x2 = [1, 2] matrix_embedding = [ [ 0.1, 0.2, 0.3], [ 0.4, 0.5, 0.6], [ 0.2, 0.3, 0.5],
..
如何在Theano中更新部分共享变量? 例如而不是: gradient_W = T.grad(cost,W) updates.append((W, W-learning_rate*gradient_W)) train = th.function(inputs=[index], outputs=[cost], updates=updates,
..
我有64位Windows 8.1,并在这里推荐使用 http://deeplearning.net /software/theano/install_windows.html#installing-theano python win-python发行版(python 3.4).我遍历了教程的每个步骤(不包括CUDA内容和GPU配置),卸载了所有内容并再次进行了操作,但问题仍然存在.我正在尝试使用千
..
我热衷于利用最近发表的论文"通过反向传播进行的无监督域自适应"在Lasagne/Theano框架中. 与本文不同的是,它包含一个“梯度反转层",可以在反向传播过程中反转梯度: (图像底部的箭头是反向传播,其梯度反转了.) 在论文中,作者声称该方法“可以使用任何深度学习包来实现",并且确实提供了在Caffe中制作的版本. 但是,出于各种原因,我正在使用Lasagne/Thea
..
我正在尝试使用CIFAR10数据集为我的大学的一次研讨会训练用于图像检测的CNN,但是出现以下错误: AssertionError:AbstractConv2d Theano优化失败:没有 可用的实现支持所请求的选项.你是否 从优化程序中同时排除"conv_dnn"和"conv_gemm"?如果在GPU上, cuDNN是否可用,GPU是否支持它?如果在CPU上,您有 安装了Theano的BL
..
我想设计一个深层网络,在其顶部具有一个(或多个)卷积层(CNN)和一个或多个完全连接的隐藏层. 对于具有完全连接层的深度网络,theano中提供了无监督预训练的方法,例如,使用去噪自动编码器或 RBM . 我的问题是:我如何在卷积层中实现无人值守的预训练阶段(在theano中)? 我不希望得到完整的实施方案,但是希望获得指向优秀教程或可靠参考的链接. 解决方案 本文描述了一种
..
不同的团队使用不同的库来训练和运行神经网络(caffe,火炬,theano ...).这使共享变得困难:每个库都有其自己的格式来存储网络,并且每次要测试其他团队的工作时都必须安装一个新库. 我正在寻找解决方案,以减少繁琐的工作: -是否存在首选的(共享的)格式来存储神经网络? -是否有服务或库可以帮助处理不同类型的网络/或将一种类型转换为另一种类型? 谢谢! 解决方案 是否
..