confluent-schema-registry相关内容
在向Kafka生成AVRO数据时,Avro串行器将相同的模式ID写入用于写入数据的字节数组中. Kafka Consumer根据接收到的字节数组中的架构ID从架构注册表中获取架构.因此,在生产者和使用者中都使用相同的架构ID,因此该架构也是如此. 但是为什么有很多文章包括此一个说消费者的模式可能与生产者的模式不同. 请帮助我理解这一点. 解决方案 Kafka Cons
..
我有一个具体的课程,正在按字节数组进行序列化,以发送给Kafka主题. 对于序列化,我使用ReflectDatumWriter. 在发送字节[]之前,我在检查了一些在线教程之后,将模式ID放在具有模式ID的前四个字节中. 我能够发送消息,但是在Avro控制台使用者中使用它时,得到的响应是: ./bin/kafka-avro-console-consumer --bootstrap-se
..
我有很多微服务可以在Kafka中读取/写入Avro消息. 模式很棒. Avro很棒. 但是真的需要架构注册表吗? ?它可以帮助集中架构,是的,但是微服务真的需要查询注册表吗?我不这么认为. 每个微服务都有一个模式副本user.avsc和一个Avro生成的POJO:User extends SpecificRecord.我想要每个Schema的POJO,以便在代码中轻松进行操作.
..
我正在尝试以avro格式反序列化kafka消息,我正在使用以下代码: https://github.com/ivangfr/springboot-kafka-debezium-ksql/blob/master/kafka-research-consumer/src/main/java/com/mycompany/kafkaresearchconsumer/kafka/ReviewsConsumer
..
我有一个春季应用程序,是我的kafka制作人,我想知道为什么avro是最好的选择. 我读到了有关它的全部内容,但是为什么我不能直接序列化我用杰克逊创建的POJO并将其发送给kafka? 之所以这样说,是因为avro产生的POJO并不那么直接. 最重要的是,它需要Maven插件和一个.avsc文件. 例如,我在我的kafka生产者上创建了一个名为JOO的POJO: public c
..
我在Spark结构化流媒体中使用Kafka源来接收Confluent编码的Avro记录.我打算使用Confluent Schema Registry,但似乎无法与spark结构化流集成. 我已经看到了这个问题,但是无法与Confluent Schema Registry一起使用. 使用Spark 2.0从Kafka读取Avro消息.2(结构化流) 解决方案 这是需要的依赖项.
..
我目前无法在KSTREAM APP中反序列化原始PRIMITIVE密钥 以avro模式编码的密钥(已在模式注册表中注册), 当我使用kafka-avro-console-consumer时,我可以看到密钥已正确反序列化 但是不可能使其在KSTREAM应用程序中工作 密钥的avro模式是原始的: {"type":"string"} 我已经关注了合流的文档 fin
..
我已经设置了aws MSK,我正尝试将记录从MSK下沉到弹性搜索中. 我能够将数据推入MSK变成json格式. 我想陷入弹性搜索. 我能够正确设置所有设置. 这就是我在EC2实例上所做的 wget /usr/local http://packages.confluent.io/archive/3.1/confluent-oss-3.1.2-2.11.tar.gz -P ~/Downloads
..
我正在使用Apache Flink中的Kafka连接器来访问 Confluent Kafka 服务的流. 除架构注册表URL ConfluentRegistryAvroDeserializationSchema.forGeneric(...)外,期望使用“读取器"架构. 我不想提供读取的架构,而是要使用相同的编写者的架构(在注册表中查找)来读取消息,因为Consumer将没有最新的架构.
..
我没有看到如何使用camel-avro组件生成和使用kafka avro消息的示例?目前我的骆驼路线是这样.为了与使用骆驼-kafka-avro消费者&制片人. props.put(AbstractKafkaAvroSerDeConfig.SCHEMA_REGISTRY_URL_CONFIG, "http://localhost:8081"); props.put(ConsumerConfi
..
我正在尝试使用kafka组件创建骆驼路线,并尝试使用io.confluent.kafka.serializers.KafkaAvroDeserializer和schemaRegistry url以及其他组件参数来消耗事件.我不确定Camel-Kafka当前是否完全支持此功能.有人可以对此发表评论吗? from("kafka:{{kafka.notification.topic}}?broke
..
我正在使用Apache Beam的kafkaIO来读取在Confluent模式注册表中具有avro模式的主题. 我可以反序列化消息并写入文件.但最终我想写BigQuery.我的管道无法推断模式. 如何提取/推断模式并将其附加到管道中的数据,以便我的下游进程(写入BigQuery)可以推断模式? 以下是我使用架构注册表URL设置反序列化器以及从卡夫卡读取的代码: consumer
..
我想从融合的云主题中读取数据,然后再写入另一个主题. 在本地主机上,我没有遇到任何重大问题.但是融合云的架构注册表需要传递一些我不知道如何输入的身份验证数据: basic.auth.credentials.source = USER_INFO schema.registry.basic.auth.user.info =: schema.registry.url = http
..
可以将AVRO模式注册到融合模式注册服务吗? 根据github 上的自述文件 https://github.com/confluentinc/schema-registry 每个示例都使用具有单个字段和类型且没有任何名称的JSON模式。 我正在尝试将以下架构存储到存储库中,但是不同的变体会得到不同的错误。 curl -X POST -H“内容类型:application
..
我需要使用融合式架构注册表来连接到0.9 kafka。但是对于架构注册2.0.1版本,我没有看到可用的SSL配置。 解决方案 该功能仅是一种方法,可以使ssl进行架构注册表和kafka-rest与0.9 kafka对话吗?从3.0版本开始添加。如果您想支持0.9 / 2.0版本,则可以尝试以下两种方法之一:a)采取3.0版本并将Kafka依赖项减少至0.9版本(此可能可行,但我认为可能还有
..
我有一个使用KafkaAvroSerializer生成的Kafka Avro主题。 我的独立属性如下。 我正在使用Confluent 4.0.0运行Kafka connect。 key.converter = io.confluent.connect.avro.AvroConverter value.converter = io.confluent.connect.avro
..
原因:org.apache.kafka.common.errors.SerializationException:检索ID为1的Avro模式时出错 原因:io.confluent.kafka.schemaregistry.client .rest.exceptions.RestClientException:找不到主题。错误代码:40401 融合版本4.1.0 我正在
..
我有一个主题,最终将有许多不同的架构。现在,它只有一个。 我已经通过REST这样创建了一个连接作业: { “ name”:“ com.mycompany.sinks.GcsSinkConnector-auth2“, ” config“:{ ” connector.class“:” com.mycompany.sinks.GcsSinkConnector“, ” topics“:” aut
..
我在笔记本电脑上在Docker中旋转了一个Kafka(使用docker-compose)。 此后,创建了一个新的kafka主题: kafka-topics --zookeeper localhost:2181 --create --topic simple --replication-factor 1 --partitions 1 (尚未在Schema Regist
..
我正在使用Confluent JDBC Kafka连接器将消息发布到主题中。源连接器将在每次轮询时将数据连同模式发送到主题。我想检索此架构。 有可能吗?怎么样?谁能建议我 我的意图是基于Kafka连接器在轮询中构建的架构来创建KSQL流或表。 解决方案 做到这一点的最佳方法是使用Avro,其中架构独立存储,并由Kafka Connect和KSQL自动使用。 您可以通过将K
..