kibana相关内容
{“index”:{“_ index”:“ w“,”_ type“:”日志“,”_ id“:”325d05bb6900440e“}} {”id“:”325d05bb6900440e“,”country“:”US“,”ip“ ,“协议”:“HTTP / 1.1”,“方法”:“GET”,“主机”:“xxxxx”,“user_agent”:“Mozilla / 5.0(Windows NT 10.
..
我已经经历了这个特别的门票,这几乎涉及到添加一个阈值线,到线图。 在我的情况下,我有一个条形图像这个,我需要一个门槛,让例如在上面的图表中,我应该能够显示每个栏中的差异。 换句话说,如上图所示,它显示 sum chargeamount 根据过滤器给出。我需要做的是,如果 sum chargeamount ,则使用同一个栏中的颜色显示差异大于50,000。 所以有一种方法可以显示过
..
嗨所有我正在使用elasticsearch-template.json来设置所有字段的数据类型为string。以下是模板的片段: { “template”:“logstash- *”, “设置”:{ “index.refresh_interval”:“5s”, “number_of_shards”:1, “number_of_replicas”:0 }, “映射“:{ ”logs“:{
..
在我的 Ubuntu 机器中,我有一些索引实际上导致了一些空间问题。这些指标每天都在不断增长。 所以我想把它移动到另一个装载目录,显然有更多的空间。我该如何安全地这样做? 我必须确保现有的ES 索引和 Kibana 图在做动作之后就足够安全了。 我所做的:遵循这个 SO ,并将 Elasticsearch 的数据目录移动到目录(/ data / es_data)我需要,但在我这样
..
我在我的文档中有一个存储在ElasticSearch中的字段,它使用hierarchical_path tokenizer / analyzer进行分析。 正确分析: a / b / c 分解为 a , a / b , a / b / c 条款 和 a / b / d 到 a , a / b , a / b / d (如预期)。 但是当我使用Kibana来查询这个字段
..
我有一个在AWS中运行的Logstash机器。在Logstash中,我有3个配置文件,每个配置文件都有一个定义的输入。这些输入是从以下来源读取日志 从s3 从http输入 从文件敲击 问题是我在Kibana中收到重复的邮件。所以对于Filebeat生成的1个消息,我在基巴那看到3条消息。我试图删除1配置文件,计数减少到2.所以我很确定这是由于这些配置文件。 令我困惑的是,为什
..
我在MySQL中存在大量数据,不同的数据库和各自的表格。他们都相互关联。但是当我必须在数据中进行分析时,我必须创建不同的脚本,结合数据,合并并显示给我,但是这也需要很多时间和精力。我喜欢弹性搜索的速度和可视化的数据通过kibana,因此我决定将我的整个MySQL数据实时移动到弹性搜索,保持数据在MySQL也。但是我想要一个可扩展的策略,并且将数据迁移到弹性搜索的过程。 建议最好的工具或方法来
..
我需要解析我的日期,它给我一个错误。 input { file { path => “/home/osboxes/ELK/logstash/data/data.csv” start_position => “开始” } } 过滤器{ csv { separator => “,” columns => [“Date”,“Open”,“High”,“Low”,“Close”,“
..
我保持我的Kibana仪表板和发现页面在我们的NOC的两个不同的显示器上打开。我希望“发现”页面具有与我的仪表板相同的“黑暗”主题。但是,我看到在Kibana 4.5这不是一个可点击的选项。有没有人知道Kibana4的代码在哪里可以启用,或者任何人都可以指向一个可以启用这个的插件? 解决方案 是一个公开问题,可以在Kibana的各地启用黑暗的主题,而不仅仅是仪表板。 / p> 有几种
..
我想为最终用户提供一个Web界面,以便让他们有机会仅使用界面来监控来自不同服务器的日志文件。 I发现这个提案: http://logstash.net/docs/1.3.3/tutorials/getting-started-centralized 这个实现过程的例子: http://michael.bouvy.net/blog/en/2013/11/19
..
我只使用kibana来搜索ElasticSearch,我有几个字段只能取几个值(最坏的情况,servername,30个不同的值)。 我明白什么分析对更大,更复杂的领域像这样,但是小而简单的我不了解anaylyzed / not_analyzed字段的进步/缺点。 那么对于“有限的一组值”字段使用analyze和not_analyzed有什么好处(例如servername:server
..
这是我从另一个问题的一个跟进: JSON解析器在logstash忽略数据? 但是这次我觉得问题比上次更清楚,可能更容易让人回答。 我正在使用JSON解析器: json #Parse所有的JSON { source => “MFD_JSON” target => “PARSED” add_field => {“%{FAMILY_ID}”=> “%{[PARSED] [pl
..
我正在面对问题,同时可视化kibana的图表,因为它不显示我的桶中的所有项目,并发出警告如下 此桶的一部分可能包含部分数据。 这里是相同的屏幕截图。不知道我在做错什么请帮助解决。 解决方案 你已经要求Kibana使用“年”作为x轴。自2016年以来尚未完成,1/1的数据现在将处于“2016”级别,但“尚未完成”。有意义吗?
..
我正在尝试使用 Timelion 插件进行kibana。 我在弹性搜索中有一个数据集,结构可能是这样的: { “_index”:“metrics-20163”, “_type”:“gauge”, “_id”:“AVM2O7gbLYPaOnNTBgG0”, “ _score“:1, ”_source“:{ ”name“:”kafka.network.RequestChannel.Res
..
我正在尝试在Kibana上创建一个Tile地图,并附有GEO的位置点。 由于某些原因,当我尝试创建地图时,我在Kibana上收到以下消息: 否兼容字段:“logs”索引模式不包含以下字段类型中的任何 :geo_point 我的设置: Logstash(2.3.1版): filter { grok { match => { “message”=> “MY PATTE
..
我已经成功地与Elasticsearch 2.x一起建立了一个Kibana 4.x仪表板,但我觉得5.x版本应该是面向未来的方式。然而,由于某种原因,当尝试可视化数据时,Kibana无法识别任何字段类型,尽管它正确显示了设置和发现视图的类型。 以前的问题似乎是关于 geo_point 类型,但这里我只是希望使用基本的数字和非分析字符串字段。 在Docker容器中运行,而不需要对设置进行
..
我已经设置了elasticsearch(1.7.3版本)和Kibana(版本4.1.2),用于索引我们的应用程序的Elmah XML文件错误。我正在使用.Net来解析xml文件和Nest ElasticSearch客户端,将索引插入到ElasticSearch中。问题是Kibana不会在“发现”选项卡中显示任何数据。 当我运行curl -XGET localhost:9200 / .kiba
..
如何计算资源(我怀疑,弹性搜索实例)根据负载: 加载我的意思是≈500K事件/分钟,每个包含8-10个字段。 我应该转动什么配置旋钮? 我是新的这个堆栈。 解决方案 每分钟500,000事件是每秒8333事件,应该是对于小型集群(3-5台机器)来说很容易处理。 问题在于保持720M的日常文档打开60天(43B文件)。如果10个字段中的每个字节为32字节,则为13.8TB
..
一旦它已经装载在弹性搜索/ kibana中,有没有办法对数据进行非规范化?以下是我正在努力做的一个具体例子: 如果您有关于如此销售汽车的记录: “汽车销售”, “Camaro”,“$ 20,000” “Car Sale”,“Malibu”,“$ 15,000” “Car Sale”,“TrailBlazer”,“$ 23,000” “Car Sale”,“Fusion “$ 18,0
..
我正面临一个问题,即如何设置“index”:“not_analyzed”,用于弹性搜索映射json格式文件中的字符串值,以便在进行报告时不会被标记。目前我单独做了这个检查。但是,当一个新的产品出现时会产生问题。 (使用弹性搜索版本1.7.2) 例如: - 如果我给一个新的字符串字段说地址,当一个值如“bangalore印度“进入,那么在作出报告的时候,它将被视为”班加罗尔“和”印度“两个独
..