conv-neural-network相关内容
我想了解以下差异背后的建筑直觉: tf.keras.layers.Conv2D(64,(3,3),activation ='relu',input_shape =(28,28,1)) 和 tf.keras.layers.Conv2D(32,(7,7),activation ='relu',input_shape =(28,28,1)) 假设 随着内核大小的增加,可以在
..
我正在Colab上运行以下代码.这是一个回归问题,我想从每个大小为224 x 224的图像生成5个浮点值.据我的理解,要解决此问题,我应该在最后一层中使用具有5个节点的完全连接的网络.但是在keras上这样做会给我以下所述的错误. 导入os的keras将numpy导入为np从tensorflow.keras.models导入模型从tensorflow.keras.optimizers导入Adam
..
我训练了GAN来再现CIFAR10图像.最初,我注意到由生成器生成的一批中的所有图像看起来总是相同的,如下图所示: "> https://machinelearningmastery.com/how-to-develop-a-generative-adversarial-network-for-a-cifar-10-small-object-photographs-from-scratch/),
..
在评估期间,我想存储被错误地预测会进行更多处理的唯一ID.这是一个多类预测问题 以下是评估过程中的代码: 输出=模型(imgs)损失=标准(输出,目标)#预测误差val_loss + = loss.item()预测= torch.argmax(输出,暗= 1)t_predicted + = predicted.cpu().tolist()总数+ = targets.size(0)good_
..
我已经尝试过自己,但无法达到最终目的,这就是为什么在此处发布内容,请指导我. 我正在从事多标签图像分类,并且略有不同的情况.其实我很困惑,我们如何将标签及其属性与Id等映射,所以我们可以将其用于培训和测试. 这是我正在使用的代码 import os将numpy导入为np将熊猫作为pd导入从keras.utils导入to_categorical从馆藏进口柜台从keras.callba
..
我正在尝试使用卷积神经网络对猫和狗进行分类.X包含特征,Y包含标签.图像数据集来自Microsoft网站.我不明白为什么会出现形状错误. Image_Size = 65进口泡菜将numpy导入为npX = np.asarray(pickle.load(open("X.pickle","rb")))Y = np.asarray(pickle.load(open("X.pickle","rb"))
..
我的模型是否过拟合?如果验证损失大量增加,而训练损失减少,我将确定它是否适合.但是,验证损失几乎是稳定的,因此我不确定.你能帮忙吗?
..
所以...我已经检查了一些有关此问题的帖子(应该检查的帖子很多,但我认为现在就某个问题寻求帮助是合理的),但是我没有找到任何解决方案可能适合我的情况. 此OOM错误消息总是出现在任意折叠训练循环的第二轮中(无任何例外),并且在第一次运行后再次重新运行训练代码时.因此,这可能是与此帖子相关的问题:有关OOM的以前的stackoverflow问题已链接使用tf.nn.embedding_look
..
在训练我的keras模型之前,我对图像执行了以下操作: os.listdir(path)中img的 :#转换为数组img_array = cv2.imread(os.path.join(path,img),cv2.IMREAD_GRAYSCALE)#调整大小以规范化数据大小new_array = cv2.resize(img_array,(IMG_SIZE,IMG_SIZE))#将此添加到我们
..
我想制作Class激活图,所以我已经写了代码 来自keras.datasets的 导入mnist从keras.layers导入Conv2D,Dense,GlobalAveragePooling2D从keras.models导入模型,输入从keras.utils导入to_categorical(x_train,y_train),(x_test,y_test)= mnist.load_data()
..
我想使用张量流从卷积神经网络的完全连接层中提取 CNN激活.在以下帖子中,一个用户问了这个问题: 如何使用Tensorflow从CNN层提取激活?/a> 答案是这样的: sess = tf.InteractiveSesssion()full_connected = ....value_of_fully_connected = sess.run(fully_connected,fee
..
我正在尝试使用Keras将数据“流"入神经网络.我正在使用.flow_from_directory方法,该过程适合我.我正在使用keras文档中的基本示例(我正在使用tensorflow): ROWS = 64COLS = 64频道= 3从keras.preprocessing.image导入ImageDataGeneratortrain_datagen = ImageDataGenerato
..
我想制作一个可以将灰度图像作为输入并输出彩色图像的CNN或FCN.对我来说非常重要的是图像的大小可以变化.我听说只有在制作FCN并以一个尺寸的图像进行批处理而另一个以另一尺寸的图像进行批处理时才可以执行此操作.但是我不知道如何在Tensorflow Keras(Python版本)中提出这个概念,我想知道您是否可以提供一些示例代码或伪代码?我很感激.谢谢! 解决方案 我知道您想将它们全部保留
..
我正在尝试使用ImageDataGenerator.flow_from_directory执行10个测试的时间增加.基本函数中的参数执行随机扩充,而不是固定的扩充. 因此,我研究了使用ImageDataGenerator中的apply_transform方法.但是,它需要x和转换参数.如何将它与flow_from_directory连接? 解决方案 使用 apply_transfor
..
我正在尝试了解YOLOv2的.cfg文件.我不明白 steps = -1,100,80000,100000 scales = .1,10,.1,.1 有人可以给我解释一下吗 解决方案 步骤是将应用比例的检查点(迭代次数). scales 是在此检查点乘以 learning_rate 的系数.确定在训练期间不断增加迭代次数时,如何更改 learning_rate .
..
我一直在尝试实施 DCGan ,这是该手册的纸,并被下面两个阻止问题几乎持续了2个星期.任何建议,将不胜感激.谢谢. 问题1: DCGAN论文建议生成器和鉴别器都使用BN(批量归一化).但是,使用BN不能获得比没有BN更好的结果. 我复制了我使用的DCGAN模型,该模型与DCGAN纸完全相同.我不认为这是由于过度拟合造成的.因为(1)它始终显示与初始噪声图像相同的噪声,并且似乎从
..
我有以下型号 def get_model():时代= 100learning_rate = 0.1衰减率=学习率/历元inp = keras.Input(shape =(64,101,1),name ="inputs")x =layers.Conv2D(128,kernel_size =(3,3),步幅=(3,3),padding =“相同")(inp).x =层数.Conv2D(256,ke
..
我正在开发应预测10秒音频文件中有趣时刻的应用程序.我将音频分割为50ms的块并提取了音符,因此每个示例都有200个音符.当我添加卷积层时,它将返回错误: ValueError:conv1d_1层的输入0与该层不兼容:预期ndim = 3,找到的ndim = 2.收到的完整图形:[无,200] 这是我的代码: def get_dataset(file_path):数据集= tf.d
..
我正在研究实现CNN以便将图像分类为“好"或“坏"的可能性,但是我目前的体系结构没有运气. 表示“不良"图像的特征: 曝光过度 过饱和 白平衡不正确 模糊 实现神经网络基于这些特征对图像进行分类是否可行,还是最好让传统算法简单地查看整个图像的亮度/对比度变化并以此方式分类? 我曾尝试使用VGGNet架构来训练CNN,但是无论时长或步数如何,我似乎总是有偏见且不可靠.
..
我目前正在处理一个项目,该项目处理来自 neuro images 的 .nii 个文件.我将该文件转换为80个 .png 文件.现在,我需要再次将这80个 .png 合并到 .nii 文件中. 请帮助. 谢谢. 解决方案 严格的答案是不,您不能这样做.因为png文件不包含NIfTI文件所需的那些信息. 但是,如果您不在乎坐标和左右信息是否正确,则可以生成伪造的nii文件.
..