是否有可能上传到S3,只需提供一个网址? [英] Is it possible to upload to S3 by just providing a URL?

查看:120
本文介绍了是否有可能上传到S3,只需提供一个网址?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

显然,是可能的,而不必读取远程资源到一个 本地服务器,然后把它放在S3的服务器?

因此​​,在某种意义上,而不是传输看起来像这样:

  S3<  - (将数据) - 本地及LT;  - (请求数据) -  REMOTE_URL
 

它结束这样看。

  S3<  - (将数据按URL) -  LOCAL

S3<  - (请求数据) -  REMOTE_URL
 

解决方案

不可能的。

亚马逊没有为S3提供了一个拉的服务,我还没有看到任何其他的广告一个哪一方面。 (这不是一个可怕的经营理念,但。)

这是有人说有,有一吨的工具,以帮助这个!

很多人使用类似 s3fs 与他们喜爱的备份实用程序(即的cron + rsync的)。

博托以及一些自定义的Python脚本最近,我已经取得了巨大成功。我喜欢这样做的原因是因为它与你的机器上运行任何其它服务很好地集成,并提供状态更新。

我已经写了一个shell脚本,启动EC2实例,通过SSH连接,从FTP站点,以它的本地磁盘的EC2中下载数据,然后将新的数据上传到S3。

Plainly, is that possible without having to read the remote resource to a local server and then PUT it on S3's servers ?

So in a sense, instead of transmission looking like this:

S3<--(PUT DATA)--LOCAL<--(REQUEST DATA)--REMOTE_URL

it ends up looking like this.

S3<--(PUT DATA BY URL)--LOCAL

S3<--(REQUEST DATA)--REMOTE_URL

解决方案

Not possible.

Amazon doesn't offer a pull service for S3, and I haven't seen anyone else advertising one either. (It's not a terrible business idea though.)

That having been said, there are a ton of tools to help with this!

A lot of people use something like s3fs with their favorite backup utility (ie, cron + rsync).

Lately, I've had great success with boto and some custom Python scripts. The reason I like this is because it integrates nicely with whatever other services you're running on the box, and gives status updates.

I've written a shell script that starts up an EC2 instance, connects via SSH, has the EC2 box download data from an FTP site to it's local disk, and then upload the new data to S3.

这篇关于是否有可能上传到S3,只需提供一个网址?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆