google-cloud-ml相关内容
我已经在Google Cloud ML Engine上部署了一个模型,但是当我尝试执行预测(我正在使用curl)时,这是我获得的结果: {"error": "Prediction failed: Error during model execution: AbortionError(code=StatusCode.INVALID_ARGUMENT, details=\"You must fe
..
我需要了解如何在Google Cloud ML上部署模型.我的第一个任务是在服务上部署一个非常简单的文本分类器.我可以按照以下步骤进行操作(也许可以缩短为更少的步骤,如果可以的话,请随时告诉我): 使用Keras定义模型并导出到YAML 加载YAML并导出为Tensorflow SavedModel 将模型上传到Google Cloud Storage 将模型从存储部署到Google
..
为了获得更好的环境,我已经在Cloud ml上上传了预先训练的模型.这是一个从keras转换为Tensorflow中可接受格式的InceptionV3模型. from keras.applications.inception_v3 import InceptionV3 model = InceptionV3(weights='imagenet') from keras.models imp
..
用于导出模型的完整代码:(我已经对其进行了训练,现在可以从权重文件中进行加载) def cnn_layers(inputs): conv_base= keras.applications.mobilenetv2.MobileNetV2(input_shape=(224,224,3), input_tensor=inputs, include_top=False, weights='ima
..
我很难导出经过Keras培训的自定义VGG-Net(并非完全来自Keras),因此可以将其用于Google Cloud Predict API.我正在用Keras加载模型. sess = tf.Session() K.set_session(sess) model = load_model(model.h5) 我要分类的图像被编码为base64字符串.因此,为了进行预测任务,我必须使用
..
我想在gcloud存储上训练约2TB图像数据的模型.我将图像数据另存为单独的tfrecords,并尝试使用此示例中的tensorflow数据api https://medium.com/@moritzkrger /speeding-up-keras-with-tfrecord-datasets-5464f9836c36 但是看来keras的model.fit(...)不支持基于的tfr
..
我正在使用Keras预测图像类别.它可以在Google Cloud ML(GCML)中运行,但是为了提高效率,需要对其进行更改以传递base64字符串而不是json数组. 相关文档 我可以轻松地运行python代码以将base64字符串解码为json数组,但是当使用GCML时,我没有机会运行预处理步骤(除非也许在Keras中使用Lambda层,但我不认为这是正确的方法. 另一个答案建议
..
我正在使用预先构建的AI平台Jupyter Notebook实例通过一张Tesla K80卡训练模型.问题是我不认为该模型实际上是在GPU上训练的. nvidia-smi在训练过程中返回以下内容: 未找到正在运行的进程 不是“找不到正在运行的进程",而是“可变GPU使用率"是100%.似乎有些奇怪... ...而且训练太慢了. 几天前,每次笔记本运行后,我都无法释放G
..
我有一个训练有素的模型,需要输入一些大的输入.我通常将其作为形状为(1,473,473,3)的numpy数组来执行.当我将其放入JSON时,我最终得到了9.2MB的文件.即使我将其转换为JSON文件的base64编码,输入也仍然很大. ml-engine Forecast发送带有以下错误的JSON文件时会拒绝我的请求: (gcloud.ml-engine.predict) HTTP r
..
我正在研究Google Cloud ML,并且希望获得有关jpeg图像的预测.为此,我想使用: gcloud beta ml预测--instances = INSTANCES --model = MODEL [--version = VERSION] ( https://cloud.google.com/ml/reference/commandline/预测) Instances
..
data_dir = arguments ['data_dir'] data = pd.read_csv(data_dir +“/train.csv”) 我正在使用这些数据在Google Cloud ML上训练我的模型,我可以成功地安排这项工作,但在获取文件时得到以下IO错误: IOError:文件gs://cloud-bucket/data/train.csv
..
导入tensorflow为tf 导入scipy.misc from tensorflow.python.lib.io import file_io file = file_io.FileIO('gs://BUCKET/data/celebA/000007.jpg',mode ='r') img = scipy.misc.imread(file) 如果我在Cloud
..
这篇文章建议分布式培训有三种选择: $ b 同步更新的数据并行训练 数据 - 并行训练与异步更新。 模型并行训练 建议下面的代码在Cloud ML Engine上执行与数据并行的异步更新培训,其行为如果“在10个工作节点中分发10,000批次,每个节点的工作量大约为1,000批”。 然而,并不清楚代码的哪一部分实际指定了这是使用异步更新的数据并行训练。如果你使用自定义的tf.es
..
我尝试使用以下示例代码在Google Cloud ML上训练模型: 从keras中导入keras 导入优化器从keras导入损失 从keras导入损失 导入指标 从keras.models导入模型,顺序 从keras.layers导入密集,Lambda,RepeatVector,TimeDistributed import numpy as np $ b $ def test():
..
我有一个.txt文件,每行包含不同的标签。我使用这个文件创建一个标签索引查找文件,例如: label_index = tf.contrib.lookup.index_table_from_file(vocabulary_file ='labels.txt' 我想知道如何将词汇表文件与我的云打包ml-引擎?包装建议在如何使用设置.py文件,但我不完全确定我应该在哪里放置相关的
..
我想在google cloud ml中运行tensorflow培训脚本。来自外部项目的一个桶。我已经创建了云ml引擎服务帐户,并将其作为用户添加到此外部项目中。 之后,在gcloud初始化项目中执行了以下命令: gcloud auth activate-service-account --my-service-acc-key.json gcloud ml-
..
我已成功培训,导出并将我的'retrained_graph.pb'上传到ML引擎。我的导出脚本如下: 从tensorflow.python.saved_model导入tensorflow作为tf 导入signature_constants 从tensorflow.python.saved_model导入tag_constants $ b $从tensorflow.python.saved
..
我想在我的输入函数中执行基本的预处理和标记。我的数据包含在我无法修改的谷歌云存储存储位置(gs://)中的csv中。此外,我对我的ml-engine包中的输入文本进行任何修改,以便在服务时间内复制行为。 我的输入函数遵循以下基本结构: filename_queue = tf.train.string_input_producer(文件名) reader = tf.TextLineR
..
我正在用Tensorflow自己的数据集进行神经网络预测。我做的第一个模型是在我的电脑中使用一个小数据集。在此之后,我稍微更改了一些代码,以便使用带有更大数据集的Google Cloud ML-Engine在ML-Engine中实现火车和预测。 我对熊猫数据框中的功能进行了规范化处理,但是这会导致偏差,并且我得到的预测结果很差。 我真正喜欢的是使用库 tf-transform 来规范图
..
我遵循codelab TensorFlow For Poets 进行转移学习inception_v3。它生成retrained_graph.pb和retrained_labels.txt文件,这些文件可用于在本地进行预测(运行 label_image.py )。 然后,我想将此模型部署到Cloud ML Engine,以便我可以进行在线预测。为此,我必须将retrained_graph.pb
..