AmazonS3 PHP库工作不落后鱿鱼 [英] AmazonS3 PHP library not working behind squid

查看:154
本文介绍了AmazonS3 PHP库工作不落后鱿鱼的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我发现到现在是:

  • 在代理服务器(鱿鱼)抛出错误code 417.这是由于HTTP / 1.1标头期望:100-继续的鱿鱼不处理正确
  • 在燮pressing期望:100-继续标头,卷曲返回不正确的头大小

    What I have found till now is that:

  • proxy (squid) throws error code 417. This is due to HTTP/1.1 header "Expect: 100-continue" which squid does not handles properly
  • On Suppressing "Expect: 100-continue" header, curl returns incorrect header size

    我如何从这里出发?

    推荐答案

    如果squid代理必须被使用,你不能修复鱿鱼,那么你只有一个解决方案:隧道中的API调用,直至服务器的网络外部和有服务器前进的API调用到Amazon S3代表你。

    If the Squid proxy MUST be used AND you cannot fix Squid, then you only have one solution: tunnel the API calls through to a server outside of your network and have that server forward the API calls to Amazon S3 on your behalf.

    这是一个基本的观点,你可以只复制所有您在外部服务器上使用的S3要求,但你必须知道的安全问题,也就是限制了服务器的使用情况,说你的鱿鱼服务器的外部IP地址,或即使API密钥很像亚马逊使用自己。

    From a basic view you can just replicate all the S3 calls you use on your external server but you must be aware of the security implications, i.e. restricting the usage of the server to say the external IP address of your Squid server, or even API keys much like Amazon use themselves.

    如果更多的灵活性,可尝试其他的代理preferably非缓存如英镑

    If more flexibility is available try another proxy preferably non-caching like Pound.

    这篇关于AmazonS3 PHP库工作不落后鱿鱼的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

  • 查看全文
    登录 关闭
    扫码关注1秒登录
    发送“验证码”获取 | 15天全站免登陆