confluent-platform相关内容
Hi查看https://docs.confluent.io/current/connect/kafka-connect-elasticsearch/configuration_options.html#security后,我不确定需要哪个配置才能将Kafka连接到位于https的Elasticearch终结点。 我可以将Kafka连接到不同的非HTTPS Elasticearch,并且在常规
..
Kafka模式注册中心提供了一种很好的方式来使用公共数据契约序列化和反序列化Kafka中的数据。但是,数据约定(.avsc文件)是生产者和消费者之间的粘合剂。 一旦生产者生成了.avsc文件,就可以将其签入到生产者端的版本控制中。根据语言的不同,它还会自动生成类。 但是, 使用者获取架构定义以供参考的最佳机制是什么?有没有类似swaggerHub或Avro的典型API文档门户? 如
..
基本 apt-get install librdkafka1 在 Debian 8.x 上工作,但在 Debian 9.x 上失败.这看起来像是关于 libssl 的依赖版本问题.Debian 8.x 有 libssl1.0.0,而 Debian 9.x 有 libssl1.0.2 和 libssl1.1,但没有 libssl1.0.0,而且这个版本冲突只会导致 librdkafka1 安装中断.
..
我在一组 Docker 容器中使用 Confluent 3.2,其中一个正在运行 kafka-connect worker. 由于我不清楚的原因,我的四个连接器中的两个 - 具体来说,hpgraphsl 的 MongoDB接收器连接器 - 停止工作.我能够确定主要问题:连接器没有分配任何任务,这可以通过调用 GET/connectors/{my_connector}/status 看到.其他
..
我在本地机器上设置了一个单节点的 Kafka Docker 容器,就像 Confluent 文档(步骤 2-3). 此外,我还公开了 Zookeeper 的 2181 端口和 Kafka 的 9092 端口,以便我能够从本地机器上运行的客户端连接到它们: $ docker run -d \-p 2181:2181 \--net=汇合\--name=动物园管理员\-e ZOOKEEPER_C
..
我在 Windows 上运行我的客户端,我能够验证 CA 授权是否存在并且在受信任的根证书授权中有效. “Windows 上的开发":{“命令名称":“项目",“环境变量":{“Kafka__BootstrapServers":“myloadbalancer.myhost.corp:9094",“Kafka__EnableSslCertificateVerification":“真",“Kafk
..
我在 Windows 上运行我的客户端,我能够验证 CA 授权是否存在并且在受信任的根证书授权中有效. “Windows 上的开发":{“命令名称":“项目",“环境变量":{“Kafka__BootstrapServers":“myloadbalancer.myhost.corp:9094",“Kafka__EnableSslCertificateVerification":“真",“Kafk
..
我在本地机器上设置了一个单节点的 Kafka Docker 容器,就像 Confluent 文档(步骤 2-3). 此外,我还公开了 Zookeeper 的 2181 端口和 Kafka 的 9092 端口,以便我能够从本地机器上运行的客户端连接到它们: $ docker run -d \-p 2181:2181 \--net=汇合\--name=动物园管理员\-e ZOOKEEPER_C
..
我正在使用融合平台,zookeeper 处于活动状态并进行状态查找.但是当我尝试使用 confluent 启动 kafka 时,它显示 zookeeper 已关闭. $ sudo service zookeeper 状态重定向到/bin/systemctl status zookeeper.service● zookeeper.service - Zookeeper已加载:已加载(/etc/sy
..
我正在用 Java 编写一个 Kafka 流应用程序,它接受由连接器创建的输入主题,该连接器使用模式注册表和 avro 作为键和值转换器.连接器产生以下架构: key-schema: "int"价值模式:{"类型": "记录","name": "用户",“领域":[{"name": "firstname", "type": "string"},{"name": "lastname", "type
..
我正在使用 Kafka Streams (v0.10.0.1) 编写一个应用程序,并希望使用查找数据来丰富我正在处理的记录.这些数据(带时间戳的文件)每天(或每天 2-3 次)写入 HDFS 目录. 如何在 Kafka Streams 应用程序中加载它并加入实际的 KStream? 当新文件到达那里时,从 HDFS 重新读取数据的最佳做法是什么? 还是切换到 Kafka Connec
..
假设我对同一个消息键有不同的值. 例如: {用户名:1,电子邮件:user123@xyz.com }{用户名:1,电子邮件:user456@xyz.com }{用户名:1,电子邮件:user789@xyz.com } 在上述情况下,我只想要用户更新的最新值,即“user789@xyz.com". 我的 kafka 流应该只给我第三个值,而不是前两个值. 解决方案
..
我在尝试将 confluent 用于 kafka-connect 时遇到以下问题.我正在尝试按照 https://www.confluent.io/blog/simplest-useful-kafka-connect-data-pipeline-world-thereabouts-part-1/ 错误: ./bin/confluent load jdbc_source_mysql_foob
..
我正在使用 Java 生成器在我的 Kafka 主题顶部插入数据.然后我使用 Kafka jdbc connect 将数据插入到我的 Oracle 表中.下面是我的生产者代码. package producer.serialized.avro;导入 org.apache.avro.Schema;导入 org.apache.avro.generic.GenericData;导入 org.apach
..
我在 HDFS 连接器文档中没有看到任何压缩配置 https://docs.confluent.io/current/connect/connect-hdfs/docs/configuration_options.html. 是否支持压缩? 如果是,我需要在属性文件中添加什么? 解决方案 Snappy 压缩最近被添加到 HDFS Connector for Avro.要启用它,您需
..
如何将 Confluent Control Center Interceptor 添加到现有的 S3(Sink) Connector?监视接收器.我正在寻找文档.任何帮助表示赞赏. 解决方案 要绝对清楚,您的接收器上需要拦截器和源.如果不这样做,您将无法使用 Confluent Control Center 监控您的管道,就像现在一样. 要在 Kafka Connect 中启用拦截器
..
我正在尝试将数据从 kafka 中的主题插入 postgres 数据库.我正在使用以下命令加载 ./bin/connect-standalone etc/schema-registry/connect-avro-standalone.properties etc/kafka-connect-jdbc/sink-quickstart-mysql.properties sink-quickstar
..
我们已经成功地使用了 mySQL - 使用 jdbc 独立连接器的 kafka 数据摄取,但现在面临在分布式模式下使用相同的问题(作为 kafka 连接服务). connect-distributed.properties 文件- bootstrap.servers=IP1:9092,IP2:9092group.id=连接集群key.converter.schemas.enable=tru
..
我有一个使用 KafkaAvroSerializer 生成的 Kafka Avro 主题. 我的独立属性如下. 我正在使用 Confluent 4.0.0 运行 Kafka 连接. key.converter=io.confluent.connect.avro.AvroConvertervalue.converter=io.confluent.connect.avro.AvroConvert
..
我正在尝试安装 twitter 源连接器并找到以下链接 link1 和 link2.第一个展示了如何安装 twitter 源连接器,第二个展示了如何手动安装连接器(始终是 Confluent Platform). 但是我对整个过程感到困惑.我遵循了
..