confluent相关内容
我正在尝试使用Docker Compose在一个示例中全部运行Confluent平台.在单个节点上使用它的示例如下: http://docs.confluent.io/3.1.1/cp-docker-images/docs/quickstart.html#getting-started-with-docker-compose 包含所有Docker映像的git存储库还包含许多其他示例,其
..
我正在使用 Conluent Platform/Kafka Connect 和类似的东西,我想举几个例子. 我从此处进行了快速入门.这意味着: 安装Confluent平台(v3.2.1) 运行Zookeeper,Kafka Broker和模式注册器 运行示例以读取文件数据(使用Wif Kafka Connect) 我运行了此命令(3号): [root@sandbox c
..
我在新的Linux centos 7上安装了kafka confluent oss 4.0,但kafka connect无法启动. 复制步骤: - Install Oracle JDK 8 - Copy confluent-4.0.0 folder on opt/confluent-4.0.0 - Run /opt/confluent-4.0.0/confluent start
..
我想从融合的云主题中读取数据,然后再写入另一个主题. 在本地主机上,我没有遇到任何重大问题.但是融合云的架构注册表需要传递一些我不知道如何输入的身份验证数据: basic.auth.credentials.source = USER_INFO schema.registry.basic.auth.user.info =: schema.registry.url = http
..
我正在按照此链接中的说明进行操作Wiki文档,以在运行Amazon Linux(版本2016.09)的EC2实例上安装融合平台。我做了它所说的一切,包括: $ sudo rpm --import http://packages.confluent.io/rpm/3.1 /archive.key 使用以下内容创建/etc/yum.repos.d/confluent.repo
..
可以将AVRO模式注册到融合模式注册服务吗? 根据github 上的自述文件 https://github.com/confluentinc/schema-registry 每个示例都使用具有单个字段和类型且没有任何名称的JSON模式。 我正在尝试将以下架构存储到存储库中,但是不同的变体会得到不同的错误。 curl -X POST -H“内容类型:application
..
我需要使用融合式架构注册表来连接到0.9 kafka。但是对于架构注册2.0.1版本,我没有看到可用的SSL配置。 解决方案 该功能仅是一种方法,可以使ssl进行架构注册表和kafka-rest与0.9 kafka对话吗?从3.0版本开始添加。如果您想支持0.9 / 2.0版本,则可以尝试以下两种方法之一:a)采取3.0版本并将Kafka依赖项减少至0.9版本(此可能可行,但我认为可能还有
..
我们有一个运行代理版本为Apache Kafka 0.11的“ Kerberized Kafka集群”。该集群由 我们现在正在尝试在我们自己的K8S群集上安装Kafka Connect群集。 我们正在遵循以下兼容性列表 https:// docs .confluent.io / current / installation / versions-interoperability.htm
..
我正在尝试使用KSQL(作为confluent-5.0.0的一部分)从一组父记录和子记录中创建一条记录,其中每个父记录都有多个子记录(通常是付款明细和付款涉及的各方)。这些父母/子女记录通过父母的ID链接。为了说明这一点,我正在处理源系统中大致这种结构的记录: 付款: | id |货币|金额|付款日期| | ---------------------------------------
..
我有一个使用KafkaAvroSerializer生成的Kafka Avro主题。 我的独立属性如下。 我正在使用Confluent 4.0.0运行Kafka connect。 key.converter = io.confluent.connect.avro.AvroConverter value.converter = io.confluent.connect.avro
..
Confluent Kafka 5.0.0已安装在公共IP为54.XX.XX.XX 的AWS EC2上,并在0.02.0.0的EC2机器上打开了端口9092 我在/etc/kafka/server.properties中 advertised.listeners = PLAINTEXT:// 54 .XX.XX.XX:9092 listeners = PLAINTEXT://0
..
在JSON中从Kafka生产/消费。使用以下属性以JSON格式保存到JSON: key.converter = org.apache.kafka.connect.json.JsonConverter value.converter = org.apache.kafka.connect.json.JsonConverter key.converter.schemas.enable =
..
kafka和融合软件包的初学者。我想启动多个经纪人来消费这个话题。 可以通过此设置完成- {'bootstrap.server':'ip:your_host,...',} 此设置可以在服务器配置文件或脚本中定义。 但是我应该如何运行那些?。如果仅将多个端点添加到引导服务器,则会出现此错误: java.lang.IllegalArgumentException:要求失败:每个侦
..
原因:org.apache.kafka.common.errors.SerializationException:检索ID为1的Avro模式时出错 原因:io.confluent.kafka.schemaregistry.client .rest.exceptions.RestClientException:找不到主题。错误代码:40401 融合版本4.1.0 我正在
..
我有一个kafka主题,该主题中的每条消息都有经纬度和事件时间戳记。创建了一个引用主题的流,并希望使用geo_distance计算2点之间的距离。 示例 GpsDateTime lat lon lon 2016-11-30 22:38:36,32.685757,- 96.735942 2016-11-30 22:39:07,32.687347,-96.732841 2016-
..
我正在通过Confluent平台运行Kafka。我已按照此处记录的步骤进行操作, https://docs.confluent。 io / 2.0.0 / quickstart.html#quickstart 启动Zookeeper, $ sudo ./bin/zookeeper-server-start ./etc/kafka/zookeeper.properties
..
我正试图联接一个表和一个流,并创建另一个表,如下所示: 创建表table_fx_latest AS 选择t1.currencyid, t1.maxtimestamp, t2.midprice FROM stream_fx2 t2左联接table_fx_latest3 t1 在t1.currencyid = t2.currencyid和 t1.timestamp = t2.max
..
我设置了一个汇合的s3接收器连接,它将.avro文件存储在s3中。 我转储了这些文件,发现它们只是消息本身,我不知道该在哪里找到消息密钥,知道吗? 配置类似于: { “ name”:“ s3-sink-test”, “ config”:{ “ connector.class”:“ io.confluent.connect.s3.S3SinkConnector”, “ task
..
我正在尝试为Google Cloud PubSub Service配置Sink Kafka Connect。 使用以下命令配置Kafka Connect: curl -X POST -H'内容类型:application / json' -H'接受:application / json'-d'{“名称”:“ pubsub_test”, “ config“:{” connec
..
我想通过jdbc接收器批量读取5000条记录,为此我在jdbc接收器配置文件中使用了batch.size: name = jdbc-sink connector.class = io.confluent.connect.jdbc.JdbcSinkConnector tasks.max = 1 batch.size = 5000 topic = postgres_users
..