ArtiFactory大型下载失败 [英] Artifactory large downloads failing

查看:0
本文介绍了ArtiFactory大型下载失败的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我的续篇:

我让ArtiFactory Pro 5.8.4运行在CentOS 7.4系统上,该系统使用ArtiFactory的内置Nginx服务作为反向代理。大多数情况下,在下载大型对象期间,连接失败。此外,在失败的连接中传输的最后几千字节的数据看起来像是垃圾;因此,当恢复时,文件在中间的某个位置有一个无效的部分。 故障时间附近的Nginx日志提供以下错误消息:

2018/01/22 23:26:32[错误]884Readv()失败(48048865:对等重置连接)读取上游时,客户端:12.2.178.130,服务器:~(?.+).artifactory.Common.myCoco.com,请求:"获取/controller/release/20171218-2119-2aa9f0e8c32bf3f08dd96a97127204d1f400f895fa2e67100a3830861c0becb0bfae28244c058510c8312e98378c0b77251b4bb7926ceae2d465ce2d533b88dc Http/1.1",上游:"http://127.0.0.1:8081/artifactory/controller/release/20171218-2119-2aa9f0e8c32bf3f08dd96a97127204d1f400f895fa2e67100a3830861c0becb0bfae28244c058510c8312e98378c0b77251b4bb7926ceae2d465ce2d533b88dc",主机:"artifactory.Common.myCoco.com"

ArtiFactory日志通常(但并非总是)都有如下所示的错误:

2018-01-22 23:14:20,106[http-nio-8081-exec-87][warn](o.a.r.ArtifactoryResponseBase:137)-客户端关闭请求499:java.net.SocketTimeoutException

如有任何进一步的诊断建议,我们将不胜感激。

这不会影响任何明显的变化: 作为后续工作,我将在本周末(3月30日)更改一些测试设置。18)在我的维护窗口期间,通过编辑nginx.conf文件(/etc/opt/rh/rh-nginx18/nginx/nginx.conf)以包含设置"Worker_Process 2"(当前为1),将Worker连接从1024升级到2048,并将Keeplive_Timeout从65更改为130。

我们在AWS中托管了一个ArtiFactory实例,没有其他代理也没有负载均衡器;只有一个实例和一个指向私有IP地址的路由53条目。我们看到了基准的10%的CPU使用率,每15分钟就会达到100%……显然是来自Java进程。Java版本:OpenJDK版本"1.8.0_161"OpenJDK Runtime Environment(内部版本1.8.0_161-b14)OpenJDK 64位服务器VM(内部版本25.161-b14,混合模式)。现在使用artifactor.Version:5.8.4

> --2018-03-08 22:09:42--  https://artifactory.common.mycoolco.com/controller/pre-release/20180308-2216-023a0b8309af8889
Resolving artifactory.common.mycoolco.com (artifactory.common.mycoolco.com)... 55.111.66.99
Connecting to artifactory.common.mycoolco.com (artifactory.common.mycoolco.com)|55.111.66.99|:443... connected.
HTTP request sent, awaiting response... 200 OK
Length: 1241911191 (1.2G) [application/octet-stream]
Saving to: ‘20180308-2216-023a0b8309af8889’

20180308-2216-c3499ea023a0b8309  86%[=============================================>        ]   1.00G   568KB/s    in 1m 31s 

2018-03-08 22:30:14 (857 KB/s) - Connection closed at byte 1079774172. Retrying.

--2018-03-08 22:30:15--  (try: 2)  https://artifactory.common.mycoolco.com/controller-os/pre-release/20180308-2216-023a0b8309af8889
Connecting to artifactory.common.mycoolco.com (artifactory.common.mycoolco.com)|55.111.66.99|:443... connected.
HTTP request sent, awaiting response... 206 Partial Content
Length: 1241911191 (1.2G), 162137019 (155M) remaining [application/octet-stream]
Saving to: ‘20180308-2216-023a0b8309af8889’

20180308-2216-c3499ea023a0b8309 100%[++++++++++++++++++++++++++++++++++++++++++++++=======>]   1.16G  1.08MB/s    in 0m 22s  

2018-03-08 22:32:38 (1.09 MB/s) - ‘20180308-2216-023a0b8309af8889’ saved [1241911191/1241911191]

top command showing java high cpu usage AWS cpu spikes

推荐答案

该问题可能是由​proxy_max_temp_file_size引起的。默认值为1 GB。检查proxy_max_temp_file_size 0是否有帮助。

这篇关于ArtiFactory大型下载失败的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆