cloudfiles相关内容

如何使用 boto 将文件从 Amazon S3 流式传输到 Rackspace Cloudfiles?

我正在将文件从 S3 复制到 Cloudfiles,我想避免将文件写入磁盘.Python-Cloudfiles 库有一个 object.stream() 调用,看起来是我需要的,但我在 boto 中找不到等效的调用.我希望我能够做这样的事情: shutil.copyfileobj(s3Object.stream(),rsObject.stream()) 这对 boto(或者我想任何其他 s3 ..
发布时间:2021-11-27 10:49:08 Python

Ruby on Rails 3:通过 Rails 将数据流式传输到客户端

我正在开发一个与 RackSpace 云文件通信的 Ruby on Rails 应用程序(类似于 Amazon S3,但缺少一些功能). 由于缺乏针对每个对象的访问权限和查询字符串身份验证的可用性,必须通过应用程序调解向用户的下载. 在 Rails 2.3 中,您似乎可以按如下方式动态构建响应: # 将大约 180 MB 的生成数据流式传输到浏览器.渲染:文本=>proc { |响应 ..
发布时间:2021-07-12 18:34:49 其他开发

改变Django的存储器后端从S3到cloudfiles和处理旧文件

我有一个Django应用程序,我移动到Rackspace公司。我有一个使用FileFields和我使用的是Django的存储器库S3 /博托后端的典范。我想用cloudfiles进行存储,而我需要能够来提供老S3的内容。 在一个模板页面,在这里我提供链接的文件,我这样做: HREF =“{{} static_url} {{文章。code_archive_file}}” stati ..
发布时间:2015-12-01 10:44:49 Python

托管和访问在Amazon EC2,S3的HDF5文件,及/或EBS

我在寻找在网上下一个相当大的HDF5文件,并期待在Amazon S3和/或EBS来存储它,并可能利用后端处理的EC2实例或两个可能的地方。我在寻找它如何能够或已经做过实际的想法,如果可能的话,链接到一个实际的例子。我认为它可以在有人会访问一些其他的嵌入式数据存储平面文件的方式来完成,但是要避免重新发明轮子,如果有可用的切实可行的建议。 解决方案 你可以在本地或在EC2上使用FUSE挂载S3: ..
发布时间:2015-12-01 10:37:33 云存储

如何使用博托流文件了亚马逊S3来Rackspace公司Cloudfiles?

我复制从S3文件到Cloudfiles,我想,以避免该文件写入磁盘。 Python的-Cloudfiles图书馆有一个object.stream()调用看起来是我需要什么,但我不能找到博托等效呼叫。我希望我能做到这样的: shutil.copyfileobj(s3Object.stream(),rsObject.stream()) 这可能与博托(或我想任何其他S3库)? 解决方案 ..
发布时间:2015-12-01 10:27:04 Python

存储在S3中缩放图像

我在一个情况下,我需要把图像存储为一些网站出来一个可以无限扩展服务(S3,CloudFiles等)。直到此时,我们已经能够让我们的用户使用Python的图像库从的在Django SORL-缩略图。 通过将我们的图像,以类似S3,有能力的快速的创建缩略图上飞丢失。我们可以: 通过下载从S3源和本地创建缩略图 要慢慢 CON:它是缓慢和带宽密集型的 请其前期通过创建一个pre确定的设定缩略图的大 ..