apache-storm-topology相关内容
我们的 Apache Storm 拓扑使用 KafkaSpout 侦听来自 Kafka 的消息,并在做了大量映射/减少/丰富/聚合等之后最终将数据插入到 Cassandra 中.还有另一个 kafka 输入,如果拓扑找到响应,我们将接收用户对数据的查询,然后将其发送到第三个 kafka 主题.现在我们想使用 Junit 编写 E2E 测试,其中我们可以直接以编程方式将数据插入到拓扑中,然后通过插入
..
我可以使用本地集群运行storm Kafka,但不能使用storm Submitter 下面是我的拓扑代码 谁能帮我解决这个问题:) package com.org.kafka;导入 org.apache.storm.Config;导入 org.apache.storm.LocalCluster;导入 org.apache.storm.generated.AlreadyAliveExcep
..
我从 Kafka 读取了一个 json,FieldExtractionBolt 读取该 json 将数据提取为元组值并将它们传递给 CassandraWriterBolt,后者又在 Cassandra 中写入一条记录,将所有这些元组值写入单独的列中. Kafka 上的 JSON 消息 - {"pair":"GBPJPY","bid":134.4563,"ask":134.4354} Fi
..
我们的 Apache Storm 拓扑使用 KafkaSpout 侦听来自 Kafka 的消息,并在做了大量映射/减少/丰富/聚合等之后最终将数据插入到 Cassandra 中.还有另一个 kafka 输入,如果拓扑找到响应,我们将接收用户对数据的查询,然后将其发送到第三个 kafka 主题.现在我们想使用 Junit 编写 E2E 测试,其中我们可以直接以编程方式将数据插入到拓扑中,然后通过插入
..
我尝试在 Storm 集群上运行一个 Storm 拓扑拓扑 jar 是由提供的创建的.在拓扑螺栓内部,我想从 MyIgniteCache 模块读取数据,但出现以下错误.我认为依赖项(:/usr/hdp/2.6.0.3-8/storm/lib/log4j-slf4j-impl-2.8.jar:/usr/hdp/2.6.0.3-8/storm/lib/log4j-core-Storm-core 的 2
..
我们有一个与 MariaDB 数据库交互的风暴拓扑.我们的 Bolt 实现了 IRichBolt 接口并覆盖生命周期方法.我们在 prepare 方法中打开一个数据库连接,并在 cleanup 方法中关闭它.cleanup 方法文档说: 当 IBolt 将要关闭时调用.不保证会调用清理,因为主管在集群上 kill -9 的工作进程.保证调用清理的一个上下文是在本地模式下运行 Storm 时拓
..
我正在使用 Storm 1.1.2 和 Kafka 0.11 构建要在 Docker 容器中启动的 Java Spring 应用程序. 我的拓扑中的一切都按计划工作,但在 Kafka 的高负载下,Kafka 滞后随着时间的推移越来越多. 我的 KafkaSpoutConfig: KafkaSpoutConfigspoutConf =KafkaSpoutConfig.builder(
..
我可以使用本地集群运行storm Kafka,但不能使用storm Submitter 下面是我的拓扑代码 谁能帮我解决这个问题:) package com.org.kafka;导入 org.apache.storm.Config;导入 org.apache.storm.LocalCluster;导入 org.apache.storm.generated.AlreadyAliveExcep
..
我们的Apache Storm拓扑使用KafkaSpout侦听来自Kafka的消息,并在进行大量映射/缩减/富集/聚合等之后,最终将数据插入Cassandra.还有另一个kafka输入,如果拓扑找到响应,我们将在其中接收用户对数据的查询,然后将其发送到第三个kafka主题.现在,我们要使用Junit编写E2E测试,在该测试中,我们可以以编程方式直接将数据插入拓扑,然后通过插入用户查询消息,可以在第
..
我可以在本地群集上运行Storm Kafka,但不能在Storm上运行.下面的提交者是我的拓扑代码 任何人都可以帮助我解决这个问题:) package com.org.kafka; import org.apache.storm.Config; import org.apache.storm.LocalCluster; import org.apache.storm.generate
..
我从Kafka读取了一个json,FieldExtractionBolt读取了json将数据提取到元组值中并将其传递给CassandraWriterBolt,后者又在Cassandra中写入了一条记录,将所有这些元组值写入单独的列中. Kafka上的JSON消息- {"pair":"GBPJPY","bid":134.4563,"ask":134.4354} FieldExtracti
..
我们的Apache Storm拓扑使用KafkaSpout侦听来自Kafka的消息,并在进行大量映射/缩减/富集/聚合等之后,最终将数据插入Cassandra.还有另一个kafka输入,如果拓扑找到响应,我们将在其中接收用户对数据的查询,然后将其发送到第三个kafka主题.现在,我们要使用Junit编写E2E测试,在该测试中,我们可以以编程方式直接将数据插入拓扑,然后通过插入用户查询消息,可以在第
..
我们有一个与MariaDB数据库交互的风暴拓扑.我们的Bolts实现IRichBolt接口并覆盖生命周期方法.我们在prepare方法中打开一个数据库连接,然后在cleanup方法中关闭它. cleanup方法文档说: 在将要关闭IBolt时调用.没有保证将被称为清理,因为主管在群集上杀死了-9的工作进程. 保证要调用清理的一种情况是在本地模式下运行Storm时拓扑被杀死 kill -
..
我正在使用Storm 1.1.2和Kafka 0.11构建一个Java Spring应用程序,该应用程序将在Docker容器中启动. 我的拓扑中的所有内容都按计划工作,但是在卡夫卡(Kafka)的高负载下,卡夫卡的滞后性随着时间的推移而越来越大. 我的KafkaSpoutConfig: KafkaSpoutConfig spoutConf =
..
我尝试在Storm集群上运行Storm拓扑拓扑jar是由提供的创建的.在拓扑螺栓内部,我想从MyIgniteCache模块读取数据,但出现以下错误.我认为依赖项(:/usr/hdp/2.6.0.3-8/storm/lib/log4j-slf4j-impl-2.8.jar:/usr/hdp/2.6.0.3-8/storm/lib/log4j-core- 2.8.jar:log4j)的风暴核心导致与i
..