conv-neural-network相关内容
据我了解,我了解到在更快的RCNN和SSD中使用的方法涉及生成一组锚定框.我们首先使用CNN对训练图像进行降采样,然后对降采样后的特征图中的每个像素(将形成锚框的中心)将其投影回训练图像上.然后,我们使用预定的比例和比率绘制以该像素为中心的锚点框.我不明白的是,为什么我们不以适当的步幅直接假设训练图像上的锚框中心,而使用CNN仅输出分类和回归值.通过使用CNN确定锚框的中心,最终将它们均匀分布在训
..
在 AlexNet 中,图像数据为3 * 224 * 224 . 第一个卷积层使用96个大小为 11 * 11 * 3 的内核对图像进行过滤,步幅为4个像素. 我对第一层的输出神经元数量感到怀疑. 我认为输入为 224 * 224 * 3 = 150528 ,那么输出应为 55 * 55 * 96 = 290400 但是在论文中,他们描述的输出是 253440 如何计
..
我想知道如何使用numpy实现简单的最大/平均池.我正在阅读numpy ,但不幸的是,它假定步幅与内核大小相同.有numpythonic的方法来做到这一点吗?如果此方法适用于任何维度,但当然不是必需的,那也很好. 解决方案 这是使用 https://cs231n.github.io/convolutional-networks/
..
我正在尝试在CNN模型上应用转移学习,但出现以下错误. model = model1(权重="model1_weights",include_top = False) - TypeError:__call __()恰好接受2个参数(给定1个) 谢谢 解决方案 如果您尝试通过自定义模型使用转移学习,答案取决于保存模型体系结构(描述)和权重的方式. 1.如果您将模型的描述
..
我正在使用CNN处理图像分类问题.我有一个包含重复图像的图像数据集.当我使用此数据训练CNN时,它已经过拟合.因此,我需要删除那些重复项. 解决方案 对于算法而言,我们很难将其称为重复项.您的重复项可以是: 精确重复 几乎完全相同的副本.(图像的少量修改等) 感知重复(内容相同,但视图,相机等不同) 1号&2比较容易解决.No. 3是非常主观的,仍然是一个研究主题.我可以提
..
这是我的卷积神经网络: def convolutional_neural_network(frame):wts = {'conv1':tf.random_normal([5,5,3,32]),'conv2':tf.random_normal([5,5,32,64]),'fc':tf.random_normal([158 * 117 * 64 + 4,128]),'出':tf.random_no
..
我正在尝试为1D卷积创建模型,但似乎无法正确输入形状.这是我所拥有的: #this实际上是形状(6826,9000),但我正在缩短它train_dataset_x = np.array([[0,1,5,1,1,10],[0,2,4,1,3]])#这实际上是形状(6826,1)train_dataset_y = np.array([[0],[1]])model.add(Conv1D(32,11,
..
我试图建立一个卷积神经网络,以便对狗和猫进行分类.我在标题中提到了错误. 根据我的搜索,一些人说该错误属于tensorflow和keras库的不同版本,其他人则说这是语法错误.我将把代码留在这里,告诉我我在哪里出错. #IMPORTING LIBRRIES将tensorflow导入为tf将熊猫作为pd导入进口喀拉拉邦从keras.preprocessing.image导入ImageDat
..
我试图了解Darknet的工作原理,并且正在查看 yolov3-tiny 配置文件,特别是 我使用了公式 output_size =((input_size – kernel_size + 2 * padding)/stride)+ 1 ,然后签出.(13-1 + 2 * 1)/1 + 1 = 15 有人知道我想念什么吗? 谢谢. 解决方案 我知道了. 我误解了
..
我有一个用于图像分类的标准CNN,使用以下生成器来获取数据集: generator = validate_image_generator.flow_from_directory(batch_size = BATCH_SIZE,directory = val_dir,shuffle = False,target_size =(100,100),class_mode ='categorical')
..
我已经训练了一个网络,并以mynetwork.model的形式保存了该网络.我想使用我自己的模型而不是VGG16或ResNet等来应用gradcam. apply_gradcam.py #导入必要的软件包从Grad_CAM.gradcam导入GradCAM从tensorflow.keras.applications导入ResNet50从tensorflow.keras.applicatio
..
def save_checkpoint(状态,is_best,文件名='checkpoint.pth.tar'):torch.save(状态,文件名)如果is_best:shutil.copyfile(文件名,'model_best.pth.tar')save_checkpoint({'epoch':epoch + 1,'arch':args.arch,'state_dict':model.st
..
在此处检查所有关于Stackoverflow的答案后: TypeError:无法腌制_thread.lock对象,我还没有找到为什么这种方法不起作用或我的问题是什么. 我正在使用Python3.这是我的模型构建函数: def upsample_and_concat(x1,x2,output_channels,in_channels,layer):pool_size = 2deconv_f
..
我想实现一个ResNet网络(或更确切地说,是剩余块),但是我真的希望它采用顺序网络形式. 依序网络形式的含义如下: ## mdl5,来自cifar10教程mdl5 = nn.Sequential(OrderedDict([('pool1',nn.MaxPool2d(2,2)),('relu1',nn.ReLU()),('conv1',nn.Conv2d(3,6,5)),('pool1'
..
这是我的代码,我在培训中大约有5000张图像,在测试数据中大约有532张图像.我的Val_accuracy显示95%,但是当我创建混淆矩阵和分类报告时,在532张图像中,它预测314正确(TP)时,在验证/测试集上给出的结果非常差.我认为问题出在设置batch_size和其他超参数.请帮助,这是给我的研究论文.请帮忙,我卡得很厉害! import os将numpy导入为np导入matplotl
..
我想在Pytorch中将经过预训练的CNN(例如VGG-16)转换为完全卷积的网络.我该怎么办? 解决方案 您可以按照以下步骤进行操作(有关说明,请参见注释): 导入火炬将torch.nn导入为nn从torchvision导入模型#1.加载预交易的VGG16模型= models.vgg16(pretrained = True)#2.获取转换层功能= model.features#3.获取
..
据我了解,所有CNN都非常相似.它们都有卷积层,然后是池化层和relu层.有些具有专门的层,例如FlowNet和Segnet.我的疑问是我们应该如何决定要使用多少层,以及如何为网络中的每一层设置内核大小.我已经搜索了该问题的答案,但找不到具体答案.网络是使用反复试验设计的,还是我不知道的某些特定规则?如果您能澄清一下,我将非常感谢您. 解决方案 简短的回答:如果有设计规则,我们还没有发现它
..
我正在参加一个研讨会,我们需要在其中自动装配角色.也许,我们将使用深度学习方法.任务是识别身体部位.我的问题:是否可以通过3D软件连接tensorflow和keras或其他神经网络? 解决方案 对于搅拌机,您可以按照本教程进行操作 https://www.youtube.com/watch?v=J7Iu1rfwbds 我通过导入 pytorch,opencv,sklearn 等
..
我是深度学习的新手,并且有一个项目.我想创建一个简单的CNN,以对(皮肤癌)恶性和良性肿瘤进行二分类.我每个班有两个文件夹. 在机器学习分类中,一个经典问题具有特征的X_table和带有标签的Y数组.在我的CNN项目中,我没有每个图像的特征和标签,而我只有两个文件夹,它们具有单独的类. 那么我该如何提供我的数据进行训练,显示标签呢? 我用Keras编写代码,仅需要这部分的代码. 这是尝试:
..
我正在建立这个模型: inputs = model.inputs[:2] layer_output = model.get_layer('Encoder-12-FeedForward-Norm').output input_layer= keras.layers.Input(shape=(SEQ_LEN,768))(layer_output) conv_layer= keras.lay
..