google-compute-engine相关内容
我正在使用这个启动脚本运行一个容器优化的计算实例: #!/bin/bashmkdir/home/my-appcd/home/my-app导出 HOME=/home/my-appdocker-credential-gcr 配置-dockerdocker run --rm --log-driver=gcplogs --name my-app --security-opt seccomp=./conf
..
我无法通过 ssh 连接到 GCE.显示连接失败,我们无法在端口 22 上连接虚拟机. 和串行控制台输出其显示 7 月 8 日 10:09:26 实例 sshd[10103]:错误:无法加载主机密钥:/etc/ssh/ssh_host_ed25519_key 7 月 8 日 10:09:27 实例 sshd[10103]:不允许来自 0.0.0.0 的用户名,因为未在 Allow
..
我在伦敦地区创建了一个实例 由于来自客户的严格指导,我们必须确保没有任何迹象表明应用托管在欧盟以外. 即使在这里也不行: 我们长期使用 google 服务,如果我们没有找到解决方案,那么我们将别无选择,只能迁移到 AWS. 因为在 AWS 中,我们有一个位于伦敦地区的 RDS 实例,当我们进行 IP 地址查找时,它显示了预期的结果. > 有什么办法可以让它只指向欧洲地
..
在 Google Compute Engine 上,是否可以在创建机器后更改机器类型(例如,添加 cpu 内核)? 解决方案 现在可以在 Google 计算引擎中使用(可以参考 此 文档). 您只需要停止实例.然后您可以编辑实例类型并重新启动.
..
我有一个 100GB 的永久性磁盘附加到 VM 实例.但我不需要那么多空间,因此不想为此付费.它也有一些数据.我拍了一张磁盘快照,并尝试创建另一个. 在尝试创建一个新磁盘时,它不会取小于 100GB 的值并说,由于 快照也是 100GB,新磁盘应该具有最小大小100GB. 如何从快照制作更小的永久性磁盘?还是缩小现有的尺寸? 解决方案 这不可能 TMK.您需要创建另一个磁盘并复
..
实例模板对于创建托管实例组至关重要.事实上,托管实例组对于在 GCP 中创建自动缩放组至关重要. 此问题是另一个问题的答案的一部分,该问题的答案是关于构建自动缩放和负载平衡的后端. 我编写了以下答案,其中包含创建实例模板的步骤. 解决方案 实例模板是 GCP 中的全局资源,即可以使用相同的模板在 GCP 的任何区域中创建托管实例组.但是,如果在模板中指定了区域,则该模板只能在该
..
我在 Googl Compute Engine 和 Google App Engine 标准环境中创建了一个 VM 实例.我打算在 App Engine 中使用我的应用程序,在 Compute Engine 中使用我的数据库服务器.但是,我无法通过内部 IP 在两者之间进行连接.这可能吗?应用程序和数据库位于同一区域 (us-east1),但 IP 连接不起作用,只能使用外部 IP.显然,防火墙的
..
我想使用 Google Cloud Scheduler 在 Google Cloud Platform 中启动/停止一组计算引擎实例.我该怎么做? 解决方案 为了使用 Cloud Scheduler 启动和停止计算引擎,您可以按照 谷歌本教程,或其他 我不会在这里复制粘贴所需的代码,因为教程非常完整,但我会在此处继续执行要遵循的步骤. 设置您的 Compute Engine 实
..
GCP 中是否有一种方法可以明确允许仅来自 Cloud Shell 的防火墙规则.所有的 GCP 演示和视频都添加了规则 allow 22 to 0.0.0.0/0 to ssh to the instance from cloud shell. 但是,有没有一种方法可以限制我们只能从 cloud shell 访问 - 使用 cloud shell 的 IP 范围或服务帐户? 解决方案
..
Google 的机器类型页面指出: 对于n1系列机器类型,虚拟CPU实现为2.6 GHz Intel Xeon E5 (SandyBridge)、2.5 GHz Intel Xeon E5 v2 (Ivy Bridge)...等 假设 单个物理具有超线程的 CPU 内核在操作系统中表现为两个逻辑 CPU,那么如果将 n1-standard-2 机器描述为 2 个虚拟 CPU 和 7.5
..
我在托管 Django 服务器的 Google Compute Engine 上运行了多台 docker 机器(dev、staging)(这需要访问 Google Cloud SQL 访问权限).我有多个 Google Cloud SQL 实例正在运行,每个实例都由我的 Google Compute Engine 实例上的相应 docker 机器使用. 目前我正在通过将我的 Compute
..
GCP 中的 HTTP 负载平衡器有很多活动部分,例如全局转发规则、目标代理、网址映射、后端服务和实例组. 由于我发现设置 HTTP 负载平衡器很困难,因此我编写了以下答案,汇总了在 GCP 中设置 HTTP 负载平衡器的步骤. 此问题是另一个问题的答案的一部分,该问题的答案是关于构建自动缩放和负载平衡的后端. 解决方案 首先,GCP 提供两种类型的负载均衡器,即网络负载均衡器
..
我正在尝试使用以下命令将文件从我的实例复制到我的本地目录 gcloud compute scp :~/〜/文件/ 但是,它显示如下所述的错误 $USER/Documents/:是一个目录 错误:(gcloud.compute.scp) [/usr/bin/scp] 退出并返回代码 [1]. 从本地目录复制到 GCE 工作正常. 我也查看了斯坦福的教程和谷歌的文档.
..
我的开发者控制台中有两个项目.我已经拍摄了 project-1 中其中一个 VM 的“快照".我想使用在 project-1 中创建的快照在 project-2 中创建一个新的 VM.现在快照没有显示在选项中.如何将快照从一个项目导入到另一个项目? 解决方案 您可以从 Project 1 中的 snap 创建一个图像,然后使用 Project 2 从该图像创建一个实例. 我假设您在两
..
在完成 Udacity 深度学习作业时,我遇到了内存问题.我需要切换到云平台.我之前使用过 AWS EC2,但现在我想尝试 Google Cloud Platform (GCP).我至少需要 8GB 内存.我知道如何在本地使用 docker,但从未在云端尝试过. 有没有现成的解决方案可以在 GCP 上运行 Tensorflow? 如果没有,哪种服务(Compute Engine 或 Con
..
我是设置 cronjobs 的新手,我正在尝试在 google 计算引擎中的虚拟机上进行设置.经过一番研究,我发现了这个 StackOverflow 问题:在虚拟机(谷歌云平台)中使用 Cron 定期运行 Python 脚本 根据答案,我设法进入了 crontab -e 编辑模式并设置了一个测试 cronjob,如 10 8 * * */usr/bin/python/scripts/kite
..
我使用默认参数在 Google Cloud 上创建了一个随时可用的 MongoDB 服务器.他们之间一切正常(有通信,我可以添加数据库和集合).但是,我无法在任何外部机器上连接到 MongoDB.我在 GCP 中创建了防火墙规则,允许端口 27017 上的所有连接(“0.0.0.0./0"). 我正在运行命令: giuseppe@ubuntu:~$ mongo --host rs0/104
..
有没有办法从带有 GCloud 的 HTTP 负载均衡中获取用户的原始 IP?我们目前只使用网络负载平衡,虽然我们需要用户的 IP 以进行合规性和日志记录,但需要转移到跨区域平衡器. 它是否传递了标题或类似的内容? 谢谢~Z 解决方案 文档 (https://cloud.google.com/compute/docs/load-balancing/http/) 表示这是 X-F
..
自动缩放可帮助您根据负载自动添加或删除计算引擎.GCP 中自动扩缩的先决条件是实例模板和托管实例组. 此问题是另一个问题的答案的一部分,该问题的答案是关于构建自动缩放和负载平衡的后端. 我写了以下答案,其中包含在 GCP 中设置自动缩放的步骤. 解决方案 Autoscaling 是 GCP 中托管实例组的一项功能.这有助于通过扩展实例来处理非常高的流量,同时它还可以在没有流量时
..
我最近执行了到 Google Cloud Platform 的迁移,我非常喜欢它. 但是,我找不到监控 Dataproc VM 实例的内存使用情况的方法.正如您在附件中看到的,控制台提供有关 CPU、磁盘和网络的利用率信息,但不提供有关内存的信息. 在不知道使用了多少内存的情况下,如何理解是否需要额外的内存? 解决方案 通过安装 GCE 虚拟机中的 Stackdriver 代理
..