tensorflow相关内容
我的机器中有 3 个 GTX Titan GPU.我使用 cifar10_train.py 运行 Cifar10 中提供的示例并得到以下输出: I tensorflow/core/common_runtime/gpu/gpu_init.cc:60] 无法启用从设备序号 0 到设备序号 1 的对等访问我 tensorflow/core/common_runtime/gpu/gpu_init.cc:
..
我指的是 Google 的 Tensor-Flow 对象检测 API.我已经成功地训练和测试了这些对象.我的问题是在测试后我得到输出图像,在对象周围绘制了框,我如何获得这些框的 csv 坐标?测试代码可以在 (https://github.com/tensorflow/models/blob/master/research/object_detection/object_detection_tut
..
我正在关注 this 学习 TensorFlow Slim 的教程,但是在为 Inception 运行以下代码时: 将 numpy 导入为 np导入操作系统将张量流导入为 tf导入 urllib2从数据集导入 imagenet从网络导入开始从预处理导入 inception_preprocessing苗条 = tf.contrib.slim批量大小 = 3image_size = inceptio
..
我正在使用 Google 的 TensorFlow 开发深度学习模型.该模型应该用于分割和标记场景. 我正在使用具有 33 语义的 SiftFlow 数据集类和256x256像素的图像. 因此,在使用卷积和反卷积的最后一层,我得到了以下张量(数组)[256, 256, 33]. 接下来我想应用 Softmax 并将结果与大小的语义标签进行比较[256, 256]. 问题:我应该
..
我正在尝试训练 Tensorflow 卷积神经网络,但无论我运行程序的环境如何,我总是遇到一个神秘的错误. 在 Jupyter Notebook 中,内核会死掉. 在终端中,我收到“Illegal Instruction: 4"且没有回溯. 在 Pycharm 中,我得到:“进程已完成,退出代码为 132(被信号 4:SIGILL 中断)". 我查看了整个 Internet
..
我只想在自定义层内做一些数值验证. 假设我们有一个非常简单的自定义层: class test_layer(keras.layers.Layer):def __init__(self, **kwargs):super(test_layer, self).__init__(**kwargs)定义构建(自我,输入形状):self.w = K.variable(1.)self._trainable
..
我在 PyCharm 中创建了一个纯 Python 项目并导入了 numpy、tensorflow 和 opencv 以便测试一个小程序. 所有包都更新到最新版本.我的 Python 版本是 3.6.4,我在 Windows x64 上运行.我浏览了有关建议更新 NVIDIA 驱动程序的所有解决方案,但我有一个 Intel 驱动程序. 我是 Python、Tensorflow 和 Py
..
我试图在我的 pycharm 上安装 tensorflow-gpu(pip install tensorflow-gpu),但不幸的是我收到了一条错误消息.如何在我的 pycharm 上安装这个包?这里有什么问题?我应该直接用cmd安装吗?如何使用 pycharm 安装它们?但是,我能够毫无问题地安装 tenserflow 2.5.0 版.只有我无法安装的 Tenserflow gpu.我使用 p
..
我已经安装了 TensorFlow 版本 r0.11. 在我的文件名 cartpole.py 我已经导入了 tensorflow: 将张量流导入为 tf 并使用它: tf.reset_default_graph() 尝试在 PyCharm 中运行我的项目时出现此错误: 在tf.reset_default_graph()AttributeError:模块“tens
..
我在决定如何为我的 DNN 模型的分类特征创建嵌入时遇到了一些麻烦.该功能由一组非固定的标签组成. 功能如下: column = [['冒险','动画','喜剧'],['冒险','喜剧'],['冒险'、'儿童'、'喜剧'] 我想用 tensorflow 做到这一点,所以我知道 tf.feature_column 模块应该可以工作,我只是不知道该使用哪个版本. 谢谢! 解决方案
..
我正在尝试将以下 Keras 模型代码转换为 pytorch,但在处理 padding='same' 时遇到问题. 模型 = Sequential()model.add(Conv2D(64, (3, 3), input_shape=img_size))model.add(BatchNormalization(axis=1))模型.添加(激活('relu'))模型.添加(辍学(0.3))mode
..
我已经使用 GPU 一段时间了,但我没有质疑它,但现在我很好奇. 为什么GPU做矩阵乘法的速度比CPU快得多?是因为并行处理吗?但是我没有写任何并行处理代码.它自己会自动完成吗? 任何直觉/高级解释将不胜感激! 解决方案 你如何并行化计算? GPU 能够进行大量并行计算.比 CPU 能做的要多得多.看看这个向量相加的例子,假设有 1M 个元素. 使用 CPU 假设您
..
我有一个满足我需要的损失函数,但只在 PyTorch 中.我需要将它实现到我的 TensorFlow 代码中,但虽然其中的大部分内容都可以轻松地“翻译"我被一条特定的线路卡住了: y_hat[:, torch.arange(N), torch.arange(N)] = torch.finfo(y_hat.dtype).max # 为“1";在 sigmoid 之后 您可以在下面看到整个代码,除
..
我目前正在使用交叉熵损失函数,但对于不平衡数据集,性能并不好. 有没有更好的丢失函数? 解决方案 这是一个非常广泛的主题,但恕我直言,你应该尝试 focal loss:由 Tsung-Yi Lin 介绍,Priya Goyal、Ross Girshick、Kaiming He 和 Piotr Dollar 处理对象检测中的不平衡预测.自引入以来,它也被用于分段的上下文中. 焦点损失
..
我想在 Numpy 中实现 Tensorflow 或 PyTorch 的分散和收集操作.我一直在挠头一段时间.任何指针都非常感谢! PyTorch 散射 PyTorch 聚会 解决方案 结果证明 scatter 方法比我预期的要多得多.我没有在 NumPy 中找到任何现成的函数.我在这里分享它是为了任何可能需要用 NumPy 实现它的人的利益.(ps self 是方法的目标或输
..
我试图实现tensorflow-federated simple fedavg 与 cifar10 数据集和 resnet18.这也是 pytorch 实施.就像可训练的一样,我将批量标准化的不可训练参数汇总到服务器并对其进行平均.我使用了 5 个客户端,数据集随机分为 5 个,每个客户端有 50k/5=10k 个训练样本,所以没有严重的偏态分布.训练后,我用完整的测试数据集、10k 样本测试了每
..
我正在从事一个 Python 项目,该项目可检测叶子上的疾病并在叶子上喷洒肥料. 在对其他错误进行了数小时的故障排除后,我归结为以下最终错误,该错误总是发生并且我似乎无法修复. 以下是我迄今为止用于依赖项的版本: keras = 2.4.3 cv2 = 4.5.1 numpy = 1.20.1 张量流 = 2.4.0 h5py = 3.2.1 熊猫 = 1.2.3
..
在此处已部分询问此问题和 这里 没有跟进,所以也许这里不是问这个问题,但我想出了更多的信息,希望能得到这些问题的答案. 我一直在尝试在我自己的大约 1k 张照片库上训练 object_detection.我一直在使用提供的管道配置文件“ssd_inception_v2_pets.config".我相信我已经正确设置了训练数据.该程序似乎开始训练就好了.当它无法读取数据时,它会发出错误警报,我
..
我已经构建了一个编码器-解码器的 Seq2Seq 模型.我想给它添加一个注意力层.我尝试添加注意层通过这个 但它没有帮助. 这是我没有注意的初始代码 # 编码器编码器输入=输入(形状=(无,))enc_emb = 嵌入(num_encoder_tokens,latent_dim,mask_zero = True)(encoder_inputs)编码器_lstm = LSTM(latent_
..
我有一个输出 Softmax 的模型,我想开发一个自定义损失函数.所需的行为是: 1) Softmax 到 one-hot(通常我做 numpy.argmax(softmax_vector) 并在空向量中将该索引设置为 1,但这在损失函数中是不允许的). 2) 将得到的 one-hot 向量乘以我的嵌入矩阵以获得嵌入向量(在我的上下文中:与给定词相关联的词向量,其中词已被标记化并分配给
..