google-cloud-ml相关内容
我尝试使用gcloud ml-engine jobs submit training在Google云ml-engine上运行 tensorflow-wavenet 但是当尝试读取json配置文件时,云作业崩溃了: with open(args.wavenet_params, 'r') as f: wavenet_params = json.load(f) arg.wavenet_p
..
我想预测cloud-ml中的jpeg图像. 我的训练模型是初始模型,我想将输入发送到图的第一层:'DecodeJpeg/contents:0'(必须在其中发送jpeg图像).我通过添加 retrain来将这一层设置为可能的输入.py : inputs = {'image_bytes': 'DecodeJpeg/contents:0'} tf.add_to_collection('inp
..
Google云文档(请参见预测输入中的二进制数据)状态: 您的编码字符串必须被格式化为一个JSON对象,并带有一个 名为b64的密钥.以下Python示例对原始缓冲区进行编码 使用base64库创建实例的JPEG数据: {"image_bytes":{"b64": base64.b64encode(jpeg_data)}} 在TensorFlow模型代码中,您必须为您的别名命名 输
..
因此,我一直在努力理解在Tensorflow中出于训练目的导出训练有素的模型时,serving_input_fn()的主要任务是什么.网上有一些例子可以解释它,但是我在为自己定义它时遇到了问题. 我要解决的问题是一个回归问题,其中我有29个输入和一个输出.是否有用于为此创建相应的服务输入功能的模板?如果我使用一类分类问题怎么办?我的服务输入功能是否需要更改,或者我可以使用相同的功能?
..
我正在尝试在Google Cloud ml-engine上部署初始模型的经过重新训练的版本.从 SavedModel文档收集信息参考,以及此最后一个任务实际上创建了一个版本,但输出了此错误: Create Version failed. Bad model detected with error: "Error loading the model: Unexpected error when
..
Google最近宣布了Clould ML, https://cloud.google.com/ml/这非常有用.但是,一个限制是Tensorflow程序的输入/输出应支持gs://. 如果我们使用所有tensorflow APIS读取/写入文件,则应该可以,因为这些API支持gs://. 但是,如果我们使用诸如open之类的本机文件IO API,它将无法正常工作,因为它们不了解gs:/
..
我有一个google-cloud-ml模型,可以通过传递float32的3维数组来进行预测... { 'instances' [ { 'input' : '[ [ [ 0.0 ], [ 0.5 ], [ 0.8 ] ] ... ] ]' } ] } 但是,这不是传输图像的有效格式,因此我想传递base64编码的png或jpeg. 本文档讨论了这样做,但是该怎么做?目前尚不清楚整个jso
..
有多个问题(例如: 6 等),以解决在Cloud ML Engine中为TensorFlow/Keras模型提供预测时如何处理图像数据的问题. 不幸的是,有些答案已经过时,并且没有一个能全面解决问题.这篇文章的目的是提供全面,最新的答案,以供将来参考. 解决方案 此答案将重点放在 Estimators ,这是用于编写TensorFlow代码的高级API,目前是推荐的方式.另外,Ker
..
我一直在关注 TensorFlow for Poets 2 我已经训练过的模型上的代码实验室,并用嵌入的权重创建了一个冻结的量化图.它被捕获在一个文件中-例如my_quant_graph.pb. 因为我可以使用该图与 TensorFlow Android推理库进行推理很好,我以为我可以使用Cloud ML Engine做同样的事情,但似乎只适用于SavedModel模型. 如何简单地将
..
我想从AppMaker调用Google Cloud AutoML API,但是很难弄清楚该怎么做.如何从AppMaker向Google Cloud进行REST调用? 解决方案 首先,按照说明此处生成服务帐户并下载私钥. (我还假设您已经为项目启用了API.) 然后,按照“附录:无OAuth的服务帐户授权"一节中的说明进行操作,但是您将需要实现自己的JWT编码算法,如下所示: v
..
我正在尝试在Google Cloud ML上部署培训脚本.当然,我已经将数据集(CSV文件)上传到了GCS上的存储桶中. 我以前是使用read_csv从熊猫导入数据的,但是它似乎不适用于GCS路径. 我应该如何进行(我想继续使用熊猫)? import pandas as pd data = pd.read_csv("gs://bucket/folder/file.csv")
..
我正在使用气流来调度管道,这将导致使用ai平台训练scikitlearn模型.我用这个DAG训练它 with models.DAG(JOB_NAME, schedule_interval=None, default_args=default_args) as dag: # Tasks d
..
在我要启动的模型中,我有一些必须使用特定值初始化的变量. 我目前将这些变量存储到numpy数组中,但是我不知道如何修改我的代码以使其能够在google-cloud-ml作业上正常工作. 当前,我像这样初始化变量: my_variable = variables.model_variable('my_variable', shape=None, dtype=tf.float32,
..
我一直在尝试在Google Cloud ML上使用TensorFlow教程脚本. 特别是,我在 https://上使用了cifar10 CNN教程脚本github.com/tensorflow/models/tree/master/tutorials/image/cifar10 . 当我在Google Cloud ML中运行此训练脚本时,每小时大约有0.5%的内存泄漏. 除了将脚本打包
..
当我尝试从训练模型中进行预测时,我陷入了一个问题. 场景是:我训练了一个神经网络模型,以使用Tensorflow学习图片并对其进行分类.当我在Gcloud中训练时,它返回的结果与我在本地中训练时返回的结果不同.即使使用相同的OS,库和代码,它也会返回不同的输出. 我想到了一些问题: 我正在谈论的数据是我正在训练的图片. I)考虑到您使用的是同一台机器,每列相同的数据都会有所不同?
..
我在这里关注本教程: https://codelabs.developers.google.com/codelabs/cloud-ml-engine-image-classification/index.html?index=..%2F..%2Findex#0 ,它声称它将允许我在Google云上进行图像分类.我按照说明进行操作,但是当我进入第4步时,即“启动了datalab笔记本".
..
我正在尝试对部署到GCP ML引擎的经过定制训练的TensorFlow模型进行预测.当我尝试在模型上调用预测时,它返回以下错误消息"Expected float32 got base64" 我使用了转移学习和TensorFlow的 retrain.py 脚本按照官方文档 python retrain.py --image_dir ~/training_images saved_mode
..
通过使用rhaertel80的此脚本创建保存的模型,我能够将诗人的张量流部署到云ml引擎上 import tensorflow as tf from tensorflow.python.saved_model import signature_constants from tensorflow.python.saved_model import tag_constants from te
..
我不熟悉Google Cloud培训. 在执行培训工作时,出现以下错误: (gcloud.ml-engine.jobs.submit.training) Could not copy [research/dist/object_detection-0.1.tar.gz] to [training/packages/c5292b23e57f357dc2d63baab473c04337db
..
我遵循了这篇出色的教程,并成功地训练了模型(在CloudML上).我的代码也可以离线进行预测,但是现在我正在尝试使用Cloud ML进行预测并遇到一些问题. 要部署我的模型,我遵循了本教程.现在,我有一个通过apache_beam.io.WriteToTFRecord生成TFRecords的代码,我想对这些TFRecords进行预测.为此,我正在关注本文,我的命令看起来像这样: gcl
..