confluent-platform相关内容
Kafka JDBC Sink 连接器为具有此处为“parentId"的可选字段的架构的消息提供空指针异常.我错过了什么吗?我正在使用开箱即用的 JSONConverter 和 JDBC Sink Connector 关于 Kafka 主题的消息是 {“架构":{"类型":"结构",“领域":[{"字段":"id",“类型":“字符串"},{"字段":"类型",“类型":“字符串"},{"
..
我有这个 Oracle SQL 查询: SELECT * FROM(SELECT SO_ORDER_KEY,QUEUE_TYPE,SYS_NO,DENSE_RANK() OVER (PARTITION BY SO_ORDER_KEY ORDER BY SYS_NO DESC) ORDER_RANK从 TSY940)WHERE ORDER_RANK=1; 在 SQL developer 中运行时
..
我们正在使用 Kafka Connect 2.5. 我们正在使用 Confluent JDBC 源连接器(虽然我认为这个问题主要与连接器类型无关)并且正在将 IBM DB2 数据库中的一些数据用于主题,使用“递增模式"(主键)作为每条记录的唯一 ID. 这在正常的事件过程中工作正常;连接器第一次启动时,所有记录都会被消耗并放置在一个主题上,然后,当添加新记录时,它们会被添加到我们的主题
..
我正在使用 Confluent JDBC Kafka 连接器将消息发布到主题中.源连接器将在每次轮询时将数据与模式一起发送到主题.我想检索这个模式. 有可能吗?如何?谁能推荐我 我的目的是基于 Kafka 连接器在轮询时构建的架构创建 KSQL 流或表. 解决方案 最好的方法是使用 Avro,其中架构单独存储,并由 Kafka Connect 和 KSQL 自动使用. 您
..
我正在尝试使用 JDBC 接收器连接器读取 2 个 kafka 主题并将其更新插入到我手动创建的 2 个 Oracle 表中.每个表都有 1 个主键,我想在 upsert 模式下使用它.如果我仅用于 1 个主题且 pk.fields 中只有 1 个字段,则连接器工作正常,但如果我在 pk.fields 中输入多个列,则每个表中的一个列无法识别架构.我是否遗漏了任何东西,请提出建议. name=o
..
我正在使用 Kafka Streams (v0.10.0.1) 编写一个应用程序,并希望使用查找数据来丰富我正在处理的记录.这些数据(带时间戳的文件)每天(或每天 2-3 次)写入 HDFS 目录. 如何在 Kafka Streams 应用程序中加载它并加入实际的 KStream? 当新文件到达那里时,从 HDFS 重新读取数据的最佳做法是什么? 还是切换到 Kafka Connec
..
我正在使用 confluent 来连接我的数据库和 ES,但出现异常: org.apache.kafka.connect.errors.DataException: 不支持 STRUCT 作为文档 ID.在 io.confluent.connect.elasticsearch.DataConverter.convertKey(DataConverter.java:75)在 io.confluen
..
我使用 Helm charts 在本地 Minikube 上安装了 Kafka https://github.com/confluentinc/cp-helm-charts 按照这些说明https://docs.confluent.io/current/installation/installing_cp/cp-helm-charts/docs/index.html 像这样: helm inst
..
我在一组 Docker 容器中使用 Confluent 3.2,其中一个正在运行 kafka-connect worker. 由于我不清楚的原因,我的四个连接器中的两个 - 具体来说,hpgraphsl 的 MongoDB接收器连接器 - 停止工作.我能够确定主要问题:连接器没有分配任何任务,这可以通过调用 GET/connectors/{my_connector}/status 看到.另外
..
重新启动一个Kafka Connect S3 sink任务后,它从主题的开头一路重新开始写入,并写入了旧记录的重复副本.换句话说,Kafka Connect 似乎失去了它的位置. 所以,我想象 Kafka Connect 将当前偏移位置信息存储在内部 connect-offsets 主题中.该主题是空的,我认为这是问题的一部分. 另外两个内部主题connect-statuses 和co
..
更新后出错 [2019-07-29 12:52:23,301] INFO 使用 SQL 方言初始化编写器:PostgreSqlDatabaseDialect (io.confluent.connect.jdbc.sink.JdbcSinkTask:57)[2019-07-29 12:52:23,303] INFO WorkerSinkTask{id=sink-postgres-0} Sink 任
..
我目前正在使用 confluent 3.0.1 平台.我正在尝试在两个不同的工作人员上创建 2 个连接器,但尝试创建一个新连接器正在为其创建一个新组. 使用以下详细信息创建了两个连接器:1) POST http://devmetric.com:8083/connectors{"name": "connector1",“配置":{"connector.class": "com.xxx.kafka.
..
我正在通过 kafka connect,我正在尝试了解概念. 假设我已经设置了 kafka 集群(节点 k1、k2 和 k3)并且它正在运行,现在我想以分布式模式在不同的节点上运行 kafka connect worker,比如说 c1 和 c2. 几个问题. 1) 要以分布式模式运行或启动 kafka 连接,我需要使用命令 ../bin/connect-distributed.
..
状态 我的 HDFS 是通过 ambari、HDP 安装的.我目前正在尝试将 kafka 主题加载到 HDFS 接收器中.Kafka 和 HDFS 安装在同一台机器 x.x.x.x 上.除了一些根据我需要的端口外,我没有对默认设置进行太多更改. 这是我执行 kafka 的方式: /usr/hdp/3.1.4.0-315/kafka/bin/connect-standalone.sh/
..
我在新的 linux centos 7 上安装了 kafka confluent oss 4.0,但 kafka connect 无法启动. 重现步骤: - 安装 Oracle JDK 8- 在 opt/confluent-4.0.0 上复制 confluent-4.0.0 文件夹- 运行/opt/confluent-4.0.0/confluent start 结果: 启动zooke
..
我正在使用 confluent 社区版进行简单的设置,其中包括一个调用 Kafka 休息代理的休息客户端,然后使用提供的 jdbc 接收器连接器将该数据推送到 oracle 数据库中. 我注意到,如果有一个 sql 异常,例如如果实际数据的长度大于实际数据的长度(定义的列长度),则任务停止,如果我重新启动它,同样的事情它会尝试插入错误的条目它停止了.它不会插入其他条目. 难道不是我可以
..
我正在使用这些安装说明获取融合中心客户端 https://docs.confluent.io/current/connect/managing/confluent-hub/client.html 但是,当我开始安装 kafka-connect-elasticsearch 连接器时 confluent-hub install confluentinc/kafka-connect-elas
..
我正在尝试使用 Kafka Connect Elasticsearch 连接器,但未成功.它因以下错误而崩溃: [2018-11-21 14:48:29,096] 连接器错误后停止错误 (org.apache.kafka.connect.cli.ConnectStandalone:108)java.util.concurrent.ExecutionException: org.apache.ka
..
我希望生产和部署我的 Kafka Connect 应用程序.但是,我有两个关于 tasks.max 设置的问题,这是必需的且非常重要,但对于实际将此值设置为什么的细节含糊不清. 如果我有一个包含 n 个分区的主题,我希望从中使用数据并将其写入某个接收器(在我的情况下,我正在写入 S3),我应该将 tasks.max 设置为什么?我应该将它设置为n吗?我应该将其设置为 2n 吗?直觉上,我似乎
..
要开发我的 Kafka 连接器,我需要添加一个 connect-API 依赖项. 我应该使用哪个? 例如mongodb连接器使用来自 maven central 的 connect-api 但是来自开发指南的链接转到https://packages.confluent.io/maven/org/apache/kafka/connect-api/5.5.0-ccs/ 和 5.5.0-
..