apache-kafka-connect相关内容
在 kafka connect SinkTask 实现中,如果出现不可避免的异常,如果我从我的代码中调用 stop() 方法,连接器是否完全停止? 解决方案 只有遇到异常的任务才会停止 连接集群可以有多个不会停止的连接器,单个连接可以有其他任务,具体取决于您的配置,例如,分配不同的、干净的、可以处理的数据
..
我正在研究 Kafka Streams,但我对 Java 8 中 WordCount 的第一个示例有疑问,该示例取自文档. 使用最新版本的 kafka 流、Kafka Connect 和 WordCount lambda 表达式示例. 我遵循以下步骤:我在 Kafka 中创建了一个输入主题和一个输出主题.启动应用程序流,然后通过从 .txt 文件中插入一些单词来上传输入主题 在第
..
我正在尝试从 flink 读取 kafka 数据,由于我是 kafka 和 flink 的新手,我不知道如何连接它们. 解决方案 Flink 提供了 Kafka 连接器.为了从 Kafka 主题中读取数据,首先需要添加 Flink -Kafka 连接器依赖项. org.apache.flinkflink-connector-k
..
我的任务是将数据从 Postgres 表传输到 KSQL 表(以便将来与流连接).假设表有三条记录: id |姓名 |描述-------------------------1 |姓名1 |说明12 |姓名2 |说明23 |姓名3 |描述3 借助 Kafka JdbcSourceConnector 很容易做到.但是有一个小问题——表中的数据可能会发生变化.更改也必须在 KTable 中.
..
我有多个主题需要重命名它显示的架构状态中的字段 Caused by: org.apache.kafka.connect.errors.ConnectException: Table: topic2 is missing field ([SinkRecordField{schema=Schema{STRING}, name='stand_user', isPrimaryKey=false}]
..
我正在尝试借助 Apache Ignite Sink 连接器将 kafka 主题数据加载到 ignite 缓存中.面临以下问题.所有必需的 jars 以及 ignite 配置 (xml) 文件都已准备就绪. 我不确定为什么它会为 IgniteSinkTask$StreamerContext$Holder 抛出 ConnectException 和 NoClassDefFoundExcepti
..
我正在尝试安装 twitter 源连接器并找到以下链接 link1 和 link2.第一个展示了如何安装 twitter 源连接器,第二个展示了如何手动安装连接器(始终是 Confluent Platform). 但是我对整个过程感到困惑.我遵循了
..
我正在为 debezium 使用 AWS 架构注册表. 在 debezium 中,我提到服务器名称为 mysql-db01.因此,debezium 将使用此服务器名称创建一个主题,以添加一些有关服务器和架构更改的元数据. 当我部署连接器时,在架构注册表中我得到了这样的架构. {“类型":“记录",“名称":“SchemaChangeKey",“命名空间":“io.debezium.c
..
我正在运行 Confluent Kafka 的开发环境,Windows 上的社区版,版本 3.0.1-2.11.我正在尝试在 2 个连接器实例之间实现任务的负载平衡.我在同一台机器上运行 Kafka Zookepper、服务器、REST 服务和 2 个 Connect 实例.连接器的属性文件之间的唯一区别是其余端口,因为它们在同一台机器上运行.我不会为连接器偏移、配置、状态创建主题.我是不是该?我
..
我想使用 Kakfa Connect 将 JSON 消息从 Kafka 移动到 HDFS,然后是 Impala,仅使用开源库. 我试图了解是否可以将 Confluent Sink 库用于 Kakfa Connect,而无需使用整个 Confluent 发行版. 是否有其他和/或更好的选择来实现这一目标? 解决方案 Kafka Connect HDFS 2 Sink 在 Conf
..
我想使用 filepulse 连接器将 xml 文件加载到 kafka. 以下是我的环境: Win10 WSL,安装了 Ubuntu 下载融合平台 5.5.1(参见“https://www.confluent.io/download/"),解压 从 github (https://github.com/streamthoughts/kafka-connect-file-pulse/
..
Confluent 的 InfluxDB接收器连接器与 InfluxDB 2.0 一起工作?如果没有,是否有替代方案? 谢谢, 杰克 解决方案 它目前不支持 InfluxDB 2.0,但有人告诉我它在他们的路线图中.没有预计完成日期.我最终使用了 1.x.我不知道任何替代方案.
..
我计划使用自定义 Field 和 TimeBased 分区器在 s3 中对我的数据进行分区,如下所示:/part_=/part_date=YYYY-MM-dd/part_hour=HH/....实木复合地板. 我的分区器工作正常,我的 S3 存储桶中的一切都符合预期. 该问题与接收器的性能有关 我的输入主题中有 400kB/s/broker = ~1.2MB/s,接收器处理峰值并提交
..
有人对文件接收器连接器的输出格式有疑问吗? 我想知道为什么我会收到这种格式 {op=u, before={withTax=1, unit=pc(s), deleted=0, updated_at=null, price=420000.0, name=Test 123, created_at=null, id=54,useTaxIncludedFormula=0},after={withTa
..
根据文档,接收器连接器确保 Exactly-Once-Delivery. 在连接器任务线程失败的情况下如何确保Exact-Once-Delivery? 它是否删除了失败的任务线程创建的文件?还是将损坏的/部分文件留在 HDFS 中? 连接器使用预写日志来确保每条记录只写入一次 HDFS.此外,连接器通过将 Kafka 偏移信息编码到 HDFS 文件中来管理偏移,以便在出现故障和任
..
我正在为 apache kafka 使用 docker 环境. 我将整个环境配置为使用 SSL,到目前为止,一切都很好...当我运行 docker-compose 时,一切正常,没有错误. 问题是当我向连接容器发送 POST 以创建与 MySQL 的连接并在 Kafka 的主题内进行复制时. 我收到一条关于 SSL 的错误消息,但我不明白什么是错误,因为这只会在我为 MySQL
..
我无法导出“type=connector-metrics"Confluent 连接服务的指标,但其他指标运行良好. 我正在使用 prometheus 导出器 java 代理从 Confluent 连接公开指标,如下所示. Confluent Connect 配置(/usr/bin/connect-distributed) 导出 KAFKA_OPTS='-javaagent:/op
..
我们已经成功地使用了 mySQL - 使用 jdbc 独立连接器的 kafka 数据摄取,但现在面临在分布式模式下使用相同的问题(作为 kafka 连接服务). connect-distributed.properties 文件- bootstrap.servers=IP1:9092,IP2:9092group.id=连接集群key.converter.schemas.enable=tru
..
我需要找到或编写一个将向请求添加标头字段的 SMT.请求缺少一些类型字段,我想添加它们. 您究竟如何在 SMT 中添加标题,我所看到的只是如下所示的记录转换,但如果我想更改标题或向其中添加字段怎么办? 私有 R applySchemaless(R record) {最终映射value = requireMap(operatingValue(record), 目的);//record.he
..
我们有一个运行代理版本 Apache Kafka 0.11 的“Kerberized Kafka 集群".该集群由不同的团队管理,我们对此没有任何控制权. 我们现在正在尝试在我们自己的 K8S 集群上安装 Kafka Connect 集群. 我们遵循这个兼容性矩阵 https://docs.confluent.io/current/installation/versions-inter
..