deep-learning相关内容
我尝试在培训期间获取输出图层.我正在尝试对模型进行实时3D可视化并使其具有交互性.我正在将tensorflow 2.0和python 3用于google colab. 这是我的代码: 进口 from __future__ import absolute_import, division, print_function, unicode_literals try: #
..
我正在训练一个模型,以便从我的简历中提取所有必要的字段,为此我使用遮罩rcnn来检测图像中的字段.我已经训练了我的遮罩RCNN模型以提取49个字段的1000个训练样本.我无法提高准确性.如何改进模型?是否有任何预训练的权重可能会有所帮助? 难以阅读以下文字- 解决方案 就像您要进行文本分类/处理一样,您需要从文本中提取细节,但是您正在应用对象检测算法.我相信您需要使用OCR提取文本(
..
我的代码如下: model.fit_generator(generator=(train_image_list, train_mask_list),epochs=1000,shuffle=True) train_image_list和train_mask_list都包含图像列表.当尝试在Google Colab中运行上述代码时,出现以下错误: When passing input
..
计算机视觉和深度学习文献通常说,对于二元(两类)问题,应使用binary_crossentropy;对于两类以上的问题,应使用categorical_crossentropy.现在我想知道:是否有理由不将后者用于两类问题? 解决方案 categorical_crossentropy: 每个样本仅接受一个正确的类别 将“仅"获取真实的神经元,并与该神经元进行交叉熵计算 binary
..
我在Keras中使用以下顺序模型. model = Sequential() model.add(LSTM(150, input_shape=(29,3))) model.add(Dense(100)) model.add(Dropout(0.2)) model.add(Dense(1, activation='sigmoid')) model.compile(loss='binary_cr
..
我正在尝试通过vgg16使用转移学习.我的主要概念是训练vgg16的前几层,并添加我自己的层,后言添加vgg16中的其余层,并在末尾添加我自己的输出层.为此,我遵循以下顺序:(1)加载图层和freez图层,(2)添加我的图层,(3)加载其余的图层(输出图层除外)[这是我遇到以下错误的地方]和freez该层,(4)添加输出层.我的方法可以吗?如果没有,那么我在哪里做错了?这是错误: Value
..
续前:我正在复制如下图所示的感知样式转换模型: 我终于对COCO2014数据集中的1000张图像进行了模型学习.但是后来我尝试运行整个数据集的2个时期,每个时期20695个批次(根据研究论文).它开始很快学习,但是经过大约3700个步骤后,它神秘地失败了. (每100批次保存1张生成的图像,最新的保存在左侧) 我对保存的检查点所做的预测显示了相似的结果: 看起来像是在故障点附近的损失,
..
我有一个定制的Keras层,我想从特定的输入返回特定的输出.我不希望它是可训练的. 该图层应执行以下操作 if input = [1,0] then output = 1 if input = [0,1] then output = 0 相反,它总是输出-1,如果有问题,我将设置该值. 我认为行不如预期的是: if(test_mask_1_result_count ==
..
我的学习模型如下(使用Keras). model = Sequential() model.add(Dense(100, activation='relu', input_shape = (X_train.shape[0],))) model.add(Dense(500, activation='relu')) model.add(Dense(2, activation='softmax')
..
我正在尝试在R中编写一个可训练的权重的自定义Keras层, 获取输入向量x并返回值exp(A * X*A),其中$ A $是对角线且可训练.. 其中 exp 是矩阵指数图. 解决方案 请注意,了解批次大小在哪里非常重要,并且图层不能具有基于批次大小的权重(除非您定义了用batch_shape或batch_input_shape而不是shape输入-这将迫使您在模型中使用固定的批
..
我正在尝试运行并行路径CNN,该路径与密集层连接在一起.我已将第一条路径命名为model1,将第二部分命名为model2,并将包含并行拍子的串联模型命名为model.我已经编译了模型,并且模型摘要也正在起作用.现在我必须训练模型.为此,我将CNN模型的输入作为model.fit.generator给出.我正在使用keras 2.1.6版本. base_model1 = model.f
..
我正在尝试使用CNN进行深度估计(这是我的最终目标),但是发现的问题是:我只是使用CNN对图像进行了分类,例如使用"CIFAR-10","MNIST", “猫与狗"等.要进行深度估计,我需要输出一个新图像(NYUv2数据集具有标记的图像).因此,我将输入一个256x256x3之类的图像,并需要输出另一个具有228x228x3之类的图像. 我需要做什么?我可以暂时进行卷积,然后减少特征图并增加
..
我尝试使用keras设计LSTM网络,但精度为0.00,而损失值为0.05,我编写的代码如下. model = tf.keras.models.Sequential() model.add(tf.keras.layers.Flatten()) model.add(tf.keras.layers.Dense(128, activation = tf.nn.relu)) model.add(tf
..
我想将预先训练的ResNet50模型从keras.application转换为顺序模型,但是会出现input_shape错误. 输入0与图层res2a_branch1不兼容:输入形状的预期轴-1的值为64,但形状为(无,25、25、256) 我阅读了此 https://github.com/keras-team/keras/Issues/9721 ,据我了解,错误的原因是skip_co
..
我正在使用以下代码来训练HAN Network. 代码链接 我已经成功地训练了模型,但是当我尝试使用keras load_model加载模型时,出现以下错误- 未知层:AttentionWithContext 解决方案 在AttentionWithContext.py文件中添加以下功能: def create_custom_objects(): instance_hol
..
我正在尝试使用下面的代码使用tensorflow来连接层,但是遇到了意外错误.我是tensorflow的新手 inp = Input(shape=(1050,1050,3)) x1= layers.Conv2D(16 ,(3,3), activation='relu')(inp) x1= layers.Conv2D(32,(3,3), activation='relu')(x1) x1= l
..
由于我以前的预处理问题,我决定有一种预处理数据集的新方法: import os.path import os import tqdm import glob from imutils import paths from sklearn.preprocessing import LabelEncoder def getListOfFiles(dirName): listOfFile
..
基本上,我正在实现一个模型,该模型使用感知损失来执行单幅图像超分辨率.我构建了完整的模型,这样输入将首先通过主模型,然后馈入经过预训练的VGG16,并将来自VGG16的layer [5]的输出作为完整模型的最终输出. 我试图将经过预训练的VGG16模型传递给我的数据生成器,以准备用于计算飞行中感知损失的地面真相图像.但是,在使用fit_generator进行训练期间,我遇到了价值问题. 我尝
..
我正在实现一个暹罗网络,该网络中我知道如何通过将输入分为三个部分(这是一个手工制作的特征向量)来选择正锚和负锚来计算三重态损失,然后在训练时进行计算. anchor_output = ... # shape [None, 128] positive_output = ... # shape [None, 128] negative_output = ... # shape [None,
..
我是Keras和深度学习的新手,在完成了关于stackoverflow的一些教程和答案之后,我仍然不清楚进入网络后如何操纵输入. 我正在使用keras的功能API来开发复杂的模型,所以我的第一层始终是输入层. 像这样: Input() LSTM() Dense() 现在让我们说我有2个训练数据集A和B.每个数据集都是10,000 x 6,000相同的矩阵,其中有200
..