deep-learning相关内容
当输入为批处理而非时间为主时,RNN是否学习不同的依赖关系模式? 解决方案 (编辑:对不起,我最初的论点是为什么它合理,但我意识到它没有 >,所以这有点过时.) 我还没有找到背后的TF-group推理,但是是 没有在运算上是有意义的,因为ops是用C ++编写的. 直观地讲,我们希望在同一时间步上将同一序列中的不同特征融合(相乘/相加等).批处理/序列可以并行执行,因此不能同时
..
TL; DR,我想知道如何在Android应用程序中使用bi-lstm-ctc张量流模型. 我已经成功地训练了bi-lstm-ctc张量流模型,现在我想将其用于笔迹识别android应用程序.这是定义我使用的图形的代码部分: self.inputs = tf.placeholder(tf.float32, [None, None, network_config.num_features
..
我想构建一个具有3层的LSTM网络.这是代码: num_layers=3 time_steps=10 num_units=128 n_input=1 learning_rate=0.001 n_classes=1 ... x=tf.placeholder("float",[None,time_steps,n_input],name="x") y=tf.placeholder("float"
..
我正在尝试为二进制分类0或1建立RNN/LSTM模型 我的数据集样本(患者数,以毫秒/秒为单位的时间,X Y和Z的归一化,峰度,偏度,俯仰,横摇和偏航,标签). 1,15,-0.248010047716,0.00378335508419,-0.0152548459993,-86.3738760481,0.872322164158,-3.51314800063,0 1,31,-0.24
..
我有一个时间序列数据集,可用作LSTM-RNN的动作预期输入.该时间序列包含30 fps的5秒时间(即150个数据点),该数据代表了面部特征的位置/运动. 我从我的数据集中采样了其他长度较小的子序列,以便在数据集中增加冗余并减少过度拟合.在这种情况下,我知道了子序列的开始和结束帧. 为了批量训练模型,所有时间序列都必须具有相同的长度,并且根据文献中的许多论文,填充不应影响网络的性能.
..
我正在尝试在TensorFlow中实现暹罗神经网络,但是我在Internet上找不到任何有效的示例(请参阅 我要构建的体系结构将由两个共享权重的LSTM组成,并且仅在网络末端连接. 我的问题是:如何在TensorFlow中建立两个不同的神经网络,以共享它们的权重(并列权重),以及如何在最后连接它们? 谢谢:) 编辑:我实现了一个简单而有效的暹罗网络示例,解决方案 使用tf.la
..
我正在github上查看LSTM语言模型的示例contiguous()的作用,这在代码中多次发生. 例如,在代码输入的第74/75行中,创建了LSTM的目标序列. 数据(存储在ids中)为二维,其中第一维为批处理大小. for i in range(0, ids.size(1) - seq_length, seq_length): # Get batch inputs and
..
在LSTM网络(了解LSTM )中,为什么输入门和输出门使用tanh?这背后的直觉是什么? 这只是一个非线性变换? 如果是,我可以同时将其更改为另一个激活功能(例如ReLU)吗? 解决方案 Sigmoid专门用作LSTM中3个门(进,出,忘记)的门控功能,因为它输出的值介于0和1,它要么使整个闸门不流通,要么使信息流通不畅.另一方面,要克服消失的梯度问题,我们需要一个函数,该函数的二阶导数
..
这是代码: X = tf.placeholder(tf.float32, [batch_size, seq_len_1, 1], name='X') labels = tf.placeholder(tf.float32, [None, alpha_size], name='labels') rnn_cell = tf.contrib.rnn.BasicLSTMCell(512) m_rnn
..
tf.nn.rnn_cell.LSTMCell的Tensorflow r0.12文档将其描述为init: tf.nn.rnn_cell.LSTMCell.__call__(inputs, state, scope=None) 其中state如下: 状态:如果state_is_tuple为False,则必须为状态Tensor,二维,批处理x state_size.如果state_is
..
我在理解PyTorch的LSTM模块(以及类似的RNN和GRU)的文档时遇到了麻烦.关于输出,它说: 输出:输出(h_n,c_n) 输出(seq_len,batch,hidden_size * num_directions):张量,包含每个t的RNN的最后一层的输出特征(h_t).如果已给定torch.nn.utils.rnn.PackedSequence作为输入,则输出也将是打包
..
有人知道对于Caffe是否存在一个不错的LSTM模块?我从russel91的github帐户中找到了一个帐户,但显然包含示例和说明的网页消失了(以前 http://apollo.deepmatter. io/->现在仅重定向到 github页面,其中没有示例或说明不再). 解决方案 我知道 Jeff Donahue 使用以下方法在LSTM模型上工作咖啡.在CVPR 2015期间,他还提供了
..
考虑示例代码 我想知道如何在RNN上的这个网络上应用梯度剪切,而梯度可能会爆炸. tf.clip_by_value(t, clip_value_min, clip_value_max, name=None) 这是一个可以使用的示例,但是我在哪里介绍呢? 按照RNN的定义 lstm_cell = rnn_cell.BasicLSTMCell(n_hidden, forg
..
对于一项作业,我必须同时实现铰链损耗及其偏导数计算功能.我得到了铰链损失函数本身,但是我很难理解如何计算其偏导数w.r.t.预测输入.我尝试了不同的方法,但是没有一个起作用. 任何帮助,提示和建议将不胜感激! 这里是铰链损失函数本身的解析表达式: 这是我的Hinge损失函数的实现: def hinge_forward(target_pred, target_true):
..
我正在尝试为我的深度学习模型创建自定义损失函数,但遇到错误. 我将在此处给出一个代码示例,该代码不是我想要使用的代码,但是如果我了解如何使这个小损失函数起作用,那么我认为我将能够使我的长损失函数起作用.因此,我几乎在寻求帮助以使下一个功能正常工作. model.compile(optimizer='rmsprop',loss=try_loss(pic_try), metrics
..
我想使用神经网络来预测标量值,该标量值是输入值和随机值(我假设是高斯分布)的函数之和,方差也取决于输入值.现在,我想拥有一个具有两个输出的神经网络-第一个输出应近似确定部分-函数,第二个输出应近似随机部分的方差,具体取决于输入值.训练这样的网络需要什么损失功能? (如果有一个Tensorflow的Python示例会很好,但是我也对通用答案感兴趣.我也不太清楚如何用Python代码编写类似的东
..
我想训练一个只能从外部计算损失函数的模型.因此,我获取了最后一层的输出,在外部计算了一些值,并希望使用它来更新我的网络.我可以在tensorflow中实现这样的设置吗? 解决方案 是的,您必须在图中定义最小化的损失,例如: loss = Network.loss(input_tensor) loss_2 = out_function(loss) 然后只需指定: train_
..
我的特征向量大小为1x4098.每个特征向量都对应一个浮点数(温度).在训练中,我有10.000个样本.因此,我的训练集大小为10000x4098,标签为10000x1.我想使用线性回归模型从训练数据中预测温度.我正在使用MSE丢失的3个隐藏层(512、128、32).但是,使用Tensorflow只能获得80%的精度.您能建议我其他损失函数以获得更好的性能吗? 解决方案 让我对损失函数的
..
我一直在跟踪有关使用Logistic回归进行情感分析的示例,其中预测结果仅给出1或0分别给出正面或负面的情绪. 我的挑战是我想将给定的用户输入分类为四个类别(非常好,好,平均,差)之一,但是我的预测结果每次都是1或0. 下面是到目前为止我的代码示例 from sklearn.feature_extraction.text import CountVectorizer from v
..
在了解Caffe函数 SigmoidCrossEntropyLossLayer 时,我需要帮助,这是逻辑激活的交叉熵错误. 基本上,具有N个独立目标的单个示例的交叉熵误差表示为: - sum-over-N( t[i] * log(x[i]) + (1 - t[i]) * log(1 - x[i] ) 其中,t是目标,为0或1,而x为输出,由i索引. x当然需要进行物流激活.
..