google-cloud-ml相关内容
我正在尝试在AI平台上编写自定义ML预测例程,以从客户端获取文本数据,进行一些自定义预处理,将其传递到模型中,然后运行模型.我能够成功地将此代码打包并部署到Google云上.但是,每次我尝试从node.js向其发送请求时,都会返回data: { error: 'Prediction failed: unknown error.' },. 这是我相关的自定义预测例程代码.请注意,我在客户端的文
..
如果我需要在Cloud ML Engine培训工作中使用每晚的TensorFlow构建,该怎么办? 解决方案 从 https://github.com/tensorflow/tensorflow#installation . 如何选择合适的版本: 根据是否需要使用GPU进行培训,使用“仅Linux CPU"或"Linux GPU" 使用Python 2构建. 重命名.wh
..
为什么我尝试将训练有素的模型部署到Google Cloud ML时,出现以下错误: Create Version failed.Model validation failed: Model metagraph does not have inputs collection. 这是什么意思,以及如何解决? 解决方案 部署在CloudML上的Tensorflow模型没有名为"inpu
..
在线预测失败,提示“无法从提要中获取元素作为字节".这是什么意思,我该如何解决? 我正在使用以下代码生成预测: request_data = [{ 'examples' : {'pickup_longitude': -73.885262, 'pickup_latitude': 40.773008, 'dropoff_longitude': -73.9872
..
在生产服务中使用CloudML预测API的最佳方法是什么? 我看过: https://cloud.google.com/ml/docs/quickstarts/prediction 但是它依赖于gcloud工具 我正在研究不依赖于在发出请求的计算机上安装和初始化gcloud的解决方案.拥有在GCP,AWS以及可能在其他云上运行的解决方案将是很棒的. 谢谢 解决方案 我将向
..
我正在Google Cloud ML引擎中运行大型分布式Tensorflow模型.我想使用带有GPU的机器. 我的图由输入/数据读取器功能和计算部分两个主要部分组成. 我希望将变量放置在PS任务中,将输入部分放置在CPU中,将计算部分放置在GPU中. 函数tf.train.replica_device_setter自动将变量放置在PS服务器中. 这是我的代码的样子: with t
..
尝试提交针对Tensorflow对象检测任务的Google Cloud ML培训作业,我正在关注以下是我正在提交的工作: export CONFIG=trainer/cloud.yaml export TRAIN_DIR=kt-1000/training export PIPELINE_CONFIG=kt-1000/training/ssd_mobilenet_v1_pets.config
..
我有一个非常简单的教练,遵循示例目录结构: /dist __init__.py setup.py /trainer __init__.py task.py 在/dist目录下,在本地运行良好: $ gcloud ml-engine local train --package-path=trainer --module-name=trai
..
我有一个GCMLE实验,我正在尝试升级我的input_fn以使用新的tf.data功能.我已基于此def input_fn(...): dataset = tf.data.Dataset.list_files(filenames).shuffle(num_shards) # shuffle up the list of input files dataset = dataset.interleav
..
我有一个可以在分布式模式下运行4000步的模型.每隔120秒计算一次精度(如提供的示例中所述).但是,有时找不到最后一个检查点文件. 错误: 无法为检查点gs://path-on-gcs/train/model.ckpt-1485匹配文件 该位置存在检查点文件.在本地运行2000步即可完美运行. last_checkpoint = tf.train.latest_check
..
我正在使用Google的公共模板和位于此处 我在示例“住房回归" 本地中运行了代码之后,模型已成功生成. 但是,在预测中,出现了错误 错误:(gcloud.ml-engine.local.predict)输入实例不是JSON格式. 有关详细信息,请参见"gcloud ml-engine Forecast --help". 我运行的代码在local-train.sh
..
我正在尝试使用forward_features获取cloudml的实例密钥,但是我总是会收到不确定该如何解决的错误.使用tf.Transform的预处理部分是对 https://github的修改. com/GoogleCloudPlatform/cloudml-samples/tree/master/reddit_tft ,其中实例键是一个字符串,其他所有内容都是一堆浮点数. def gz
..
我是机器学习领域的新手,我已经使用ScikitLearn库构建并训练了一个ml模型.它在Jupyter笔记本电脑中工作得很好,但是当我将该模型部署到Google Cloud ML并尝试使用Python服务时脚本,它会引发错误. 这是我的模型代码中的一个片段: 已更新: from sklearn.metrics import classification_report, accur
..
我在ML Engine上启动了一个tensorflow任务,大约2分钟后,我不断收到错误消息"副本主数据0退出,其非零状态为1." (该任务在使用ml-engine local时可以正常运行.) 问题:是否可以在任何地方或日志文件中查看有关发生的情况的更多信息? 日志查看器仅提供以下内容: { insertId: "ibal72g1rxhr63" logName:
..
我正在尝试按照说明在tensorflow中使用本地预测,如ERROR: (gcloud.ml-engine.local.predict) Cannot import google.cloud.ml. Please verify "python -c 'import google.cloud.ml'" works. Please verify the installed cloudml sdk ve
..
我正在研究机器学习,我想使用Google Cloud ml服务. 此刻,我已经使用restor.py代码(Tensorflow)(gcloud beta ml predict 它总是返回相同的结果(我想预测不同的数据).怎么可能? 我的数据是从jpeg解码的图像,其文本格式为: echo "{\"image_bytes\": {\"b64\": \"`base64 imag
..
我正在研究将简历分类的多类分类问题. 我使用sklearn及其TfIdfVectorizer获得了一个大的稀疏矩阵,将其腌制后输入Tensorflow模型.在我的本地计算机上,我将其加载,将一小部分转换为密集的numpy数组,并填充feed字典.一切正常. 现在,我想在ML云上做同样的事情.我的泡菜存储在gs://my-bucket/path/to/pickle,但是当我运行培训师时,
..
我正在按照此文档进行自定义预测例程,我试图了解自定义预测例程的输入是什么样子.发送输入的代码如下: instances = [ [6.7, 3.1, 4.7, 1.5], [4.6, 3.1, 1.5, 0.2], ] service = discovery.build('ml', 'v1') name = 'projects/{}/models/{}
..
关于Google Cloud AI平台何时支持Tensorflow 2的任何消息吗? 根据列表,1.15是支持的最新版本: https://cloud.google.com/ml-engine/docs/runtime-version-list 解决方案 我们将在2月初正式支持TF 2.1,因为相应的服务发生了较大的变化.谢谢您的耐心等待!
..
我正在尝试导出本地张量流模型以在Google Cloud ML上使用它并对其进行预测. 我正在遵循使用mnist的Tensorflow服务示例数据.它们处理和使用其输入/输出向量的方式有很多差异,这不是您在网上的典型示例中所发现的. 我不确定如何设置我的签名的参数: model_exporter.init( sess.graph.as_graph_def(), i
..