deep-learning相关内容
我有一个名为xTain的数组,大小为nDatax1 我将其初始化为 xTrain = torch.linspace(-1,1,nData) 要访问数组,作者使用xTrain[{{i}}] 您能解释一下这个符号吗?为什么不简单地xTrain[i]? 请在此处21页上参阅作者的代码- https://www.cs.ox.ac.uk/people/nando.defreita
..
我已经执行了 neuralnetwork_tutorial.lua .现在有了模型,我想用一些自己的手写图像对其进行测试.但是我尝试了多种方法来存储权重,现在通过使用但是现在我尝试使用model:forward(testImageTensor) 来预测自己的手写图像(转换为28X28 DoubleTensor) ...ches/torch/install/share/lua/5.1/dp/mo
..
设置深度学习框架[Lua,Torch]: 我需要使用火炬设置 Lua 在 Windows 10 和 ZeroBrane IDE 上,安装软件的可能性有限,并且下载权限受到限制. 我花了很长时间,所以我想我可以和你们分享一个食谱.如果能帮到您,我会很高兴. 解决方案 设置 (管理员)下载/安装tdm64/gcc/5.1.0-2.exe编译器 (管理员)下载/安装Zer
..
这是我的代码 for _ in range(5): K.clear_session() model = Sequential() model.add(LSTM(256, input_shape=(None, 1))) model.add(Dropout(0.2)) model.add(Dense(256)) model.add(Dropou
..
我正在使用tensorflow seq2seq.rnn_decoder进行标题自动生成项目. 我的训练集是大量的标题,每个标题彼此独立并且不相关. 我尝试了两种数据格式进行训练: F1. Use the fixed seq length in batch, and replace ‘\n’ to ‘’, and ‘’ index is 1, which tra
..
关于@Shai在用于Caffe的LSTM模块中提供的答案,其中caffe.NetSpec()用于及时显式展开LSTM单元进行训练. 使用此代码实现,为什么"DummyData"层或用作输入X的任何数据层为何出现在prototxt文件中t0时间步骤的末尾,恰好在"t1/lstm/Mx"之前?我不明白... 因此需要一种操作(剪切/粘贴). 解决方案 Shai 的NetSpec L
..
我想扩展一下何时重置状态的问题. 状态LSTM:何时重置状态? 假设我像这样训练一个有状态模型: for i in range(epochs): model.fit(X_train, y_train, epochs=1, batch_size=1, shuffle=False) model.reset_states() 我的训练和测试集来自一个时间序列数据集,
..
这是对CNTK脑脚本的尊重.我经过[1]来找出是否有一个选项可以指定随机种子值,尽管我找不到任何选项(是的,有一个选项可以通过 ParameterTensor()设置“随机种子"参数. 函数,但是如果我采用这种方法,则可能必须显式地分别初始化所有LSTM权重(为输入层门,忘记层门等定义单独的权重),而不是使用下面的模型序列.是否有其他选项可用于设置随机种子值,并保留以下RNN分层序列. nn
..
我正在尝试用keras实现一个lstm模型.问题是我有不同形状的数据.我的数据如下: col1 col2 col3 col4 col5 [1,2,3] [2,3,4] [3,4,5] [5,6,7] [4,5,9] [0,2] [1,5] [1,24] [11,7] [-1,4] [0,2,4,5] [1,5,7,8] [1,24,-7,6] [11,7,4,5] [-1,
..
我用Tensorflow编码了一个小型RNN网络,以在给定某些参数的情况下返回总能耗.我的代码似乎有问题.当我使用大于1的批次大小(即使只有4个样本!)时,它也不会过拟合训练数据.在下面的代码中,当我将BatchSize设置为1时,损耗值达到0.但是,通过将BatchSize设置为2,网络将无法过度拟合,损耗值将达到12.500000并永远卡在那里. 我怀疑这与LSTM状态有关.如果不每次迭
..
我想使用Tensorflow中的LSTM分类不同长度的序列.对于分类,我只需要每个序列的最后一个时间步的LSTM输出. max_length = 10 n_dims = 2 layer_units = 5 input = tf.placeholder(tf.float32, [None, max_length, n_dims]) lengths = tf.placeholder(tf.in
..
我正在尝试在数据集上运行编码器-解码器模型.下面是示例代码: self._input_data = tf.placeholder(tf.int32, [batch_size, num_steps]) self._targets = tf.placeholder(tf.int32, [batch_size, num_steps]) enc_inputs.append(self._input_d
..
我在理解TensorFlow中的LSTM模型时遇到了一些麻烦. 我将 tflearn 用作包装器,因为它会自动执行所有初始化和其他更高级别的工作.为简单起见,让我们考虑此示例程序.直到第42行,net = tflearn.input_data([None, 200]),很明显会发生什么.您将数据集加载到变量中并使其具有标准长度(在这种情况下为200).在这种情况下,输入变量和2类都将转换为一
..
我正在尝试使用Tensorflow学习用于情感分析的LSTM模型,我经历了以下代码(create_sentiment_featuresets.py)从 5000个肯定句和5000个否定句子生成词典. import nltk from nltk.tokenize import word_tokenize import numpy as np import random from collect
..
我想使用递归神经网络(RNN)预测日间功耗.但是,我发现RNN所需的数据格式(样本,时间步长,功能)令人困惑.让我用一个例子解释一下: 我在保管箱上有 power_dataset.csv 包含从6月5日到6月18日的耗电量,每分钟10分钟(每天144次观察).现在,使用 rnn 包装,请按照以下步骤操作 使用6月5日至16日的数据为6月17日使用的火车模型M 使用M预测6月18日的使
..
我将VGG 16层Caffe模型用于图像标题,每个图像有多个标题.现在,我想根据这些标题(单词)生成一个句子. 我在LSTM上的一篇论文中读到,我应该从训练网络中删除SoftMax层,并将4096个特征向量从fc7层直接提供给LSTM. 我是LSTM和RNN的新手. 我应该从哪里开始?有没有教程显示如何通过序列标记生成句子? 解决方案 AFAIK BVLC/caffe的主分支尚不支持
..
我有28天从机器(m1, m2, so on)记录的信号. (请注意:每天的每个信号的长度为360长). machine_num, day1, day2, ..., day28 m1, [12, 10, 5, 6, ...], [78, 85, 32, 12, ...], ..., [12, 12, 12, 12, ...] m2, [2, 0, 5, 6, ...], [8, 5, 32,
..
我使用递归神经网络(RNN)进行预测,但出于某些奇怪的原因,它总是输出1.这里我用一个玩具示例对此进行解释: 示例 考虑一个尺寸为(360,5)的矩阵M和一个包含M行总和的向量Y.现在,我想使用RNN从M预测Y.使用rnn R软件包,我将模型训练为 library(rnn) M
..
我正在使用张量流和python开发深度学习模型: 首先,使用CNN图层获取要素. 第二,重塑功能图,我想使用LSTM层. 但是,尺寸不匹配的错误... ConcatOp:输入的尺寸应匹配:shape[0] = [71,48]与shape[1] = [1200,24] W_conv1 = weight_variable([1,conv_size,1,12]) b_conv1
..
每次运行火车操作时,用tf.nn.ctc_loss训练模型都会产生错误: tensorflow/core/util/ctc/ctc_loss_calculator.cc:144] No valid path found. 与先前有关此功能的问题不同,这不是由于差异.我的学习率很低,甚至在第一次火车操作中都会发生错误. 该模型是CNN-> LSTM-> CTC.这是模型创建代码:
..