FIELDDATA 数据太大 [英] FIELDDATA Data is too large
本文介绍了FIELDDATA 数据太大的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
我打开 kibana 并进行搜索,结果出现分片失败的错误.我查看了 elasticsearch.log 文件,看到了这个错误:
I open kibana and do a search and i get the error where shards failed. I looked in the elasticsearch.log file and I saw this error:
org.elasticsearch.common.breaker.CircuitBreakingException: [FIELDDATA] Data too large, data for [@timestamp] would be larger than limit of [622775500/593.9mb]
有什么办法可以增加 593.9mb 的限制吗?
Is there any way to increase that limit of 593.9mb?
推荐答案
您可以尝试增加fielddata 断路器 在 elasticsearch.yml
配置文件中限制为 75%(默认为 60%)并重启集群:>
You can try to increase the fielddata circuit breaker limit to 75% (default is 60%) in your elasticsearch.yml
config file and restart your cluster:
indices.breaker.fielddata.limit: 75%
或者,如果您不想重新启动集群,您可以使用以下方法动态更改设置:
Or if you prefer to not restart your cluster you can change the setting dynamically using:
curl -XPUT localhost:9200/_cluster/settings -d '{
"persistent" : {
"indices.breaker.fielddata.limit" : "40%"
}
}'
试试看.
这篇关于FIELDDATA 数据太大的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!
查看全文