confluent-platform相关内容

需要使用 Kakfa Connect 将小型 JSON 消息从 Kafka 移动到 HDFS,但不使用 Confluent 库(如果不是完全免费)

我想使用 Kakfa Connect 将 JSON 消息从 Kafka 移动到 HDFS,然后是 Impala,仅使用开源库. 我试图了解是否可以将 Confluent Sink 库用于 Kakfa Connect,而无需使用整个 Confluent 发行版. 是否有其他和/或更好的选择来实现这一目标? 解决方案 Kafka Connect HDFS 2 Sink 在 Conf ..

HdfsSink3Connector 可以创建重复项吗?

根据文档,接收器连接器确保 Exactly-Once-Delivery. 在连接器任务线程失败的情况下如何确保Exact-Once-Delivery? 它是否删除了失败的任务线程创建的文件?还是将损坏的/部分文件留在 HDFS 中? 连接器使用预写日志来确保每条记录只写入一次 HDFS.此外,连接器通过将 Kafka 偏移信息编码到 HDFS 文件中来管理偏移,以便在出现故障和任 ..

kafka-connect-jdbc:SQLException:仅在使用分布式模式时没有合适的驱动程序

我们已经成功地使用了 mySQL - 使用 jdbc 独立连接器的 kafka 数据摄取,但现在面临在分布式模式下使用相同的问题(作为 kafka 连接服务). connect-distributed.properties 文件- bootstrap.servers=IP1:9092,IP2:9092group.id=连接集群key.converter.schemas.enable=tru ..

如何在融合控制中心连接Apache kafka指标?

我们使用的是 apache kafka 2.7 版本,在此之前我们使用的是 confluent-platform 版本的 kafka,我们可以在其中访问控制中心来查看传入/传出数据速率、磁盘空间等指标等统计数据. 现在我们使用的是apache kafka,需要在控制中心查看同类型的统计数据 有可能吗……? 如果可能,谁能告诉我如何执行这些操作? 解决方案 您仍然需要下载 ..

为什么我的融合 kafka docker-compose 的 connect-datagen 容器在几分钟后断开连接?

我正在尝试使用此处给出的示例在 docker for windows(工具箱)上运行一个最低限度的融合社区示例: https://docs.confluent.io/current/quickstart/cos-docker-quickstart.html 但似乎所有组件都启动了只有连接失败了它们不起作用, 这是我的 docker-compose.yml 版本:'2'服务:动 ..
发布时间:2021-11-12 03:30:26 其他开发

Kafka 连接器和架构注册表 - 检索 Avro 架构时出错 - 未找到主题

我有一个最终会有很多不同模式的主题.现在它只有一个.我已经通过 REST 创建了一个连接作业,如下所示: {"name":"com.mycompany.sinks.GcsSinkConnector-auth2",“配置":{"connector.class": "com.mycompany.sinks.GcsSinkConnector","topics": "auth.events","flus ..

Kafka JDBC 源连接器时间戳模式对 sqlite3 失败

我试图在 sqlite 中建立一个包含两个表的数据库.我的一个表有一个时间戳列.我正在尝试实施时间戳模式来捕获数据库中的增量更改.Kafka 连接失败并出现以下错误: 错误无法使用 Sqlite 从数据库获取当前时间并查询“SELECT"CURRENT_TIMESTAMP'(io.confluent.connect.jdbc.dialect.SqliteDatabaseDialect:471) ..

Kafka 连接教程停止工作

我在此链接中遵循第 7 步(使用 Kafka Connect 导入/导出数据): http://kafka.apache.org/documentation.html#quickstart 它运行良好,直到我删除了“test.txt"文件.主要是因为这就是 log4j 文件的工作方式.一段时间后,文件将被旋转 - 我的意思是 - 它将被重命名 &将开始写入具有相同名称的新文件. ..

将 kafka-connect-transform-archive 与 HdfsSinkConnector 一起使用时的刷新大小

我想将 Kafka 主题中的数据保留在我的数据湖中. 在担心密钥之前,我能够使用 HdfsSinkConnector 将 Avro 值保存在数据湖上的文件中.每个文件中消息值的数量由 HdfsSinkConnector 的“flush.size"属性决定. 一切都很好.接下来,我也想保留密钥.为此,我使用了 kafka-connect-transform-archive,它将 Stri ..

将 JSON 模式附加到 KSQL 流记录

我一直在使用 KSQL,到目前为止效果很好.但是现在我想通过 Kafka Connect 将输出下沉到 BigQuery,并且需要附加一个 JSON 模式.我很难弄清楚如何做到这一点.这是我的查询: CREATE STREAM tweets_original (创建于 BIGINT,标识 BIGINT,文本 VARCHAR,源 VARCHAR,地理位置 VARCHAR,用户 STRUCT)WIT ..