avro相关内容

Avro 架构:是否向现有架构添加枚举值向后兼容?

我的 Avro 架构中有一个状态枚举字段,其中当前可能的状态为 待定得到正式认可的拒绝了 我想在这个枚举“RESUBMIT"中再添加一个值.此更改是否向后兼容? 解决方案 不,不是.原因如下:如果您使用这个新模式来向 Kafka 发送事件,那么所有客户端都将尝试反序列化该值.当出现新类型的事件时,会有两种情况: 具有新架构的客户端将成功反序列化 具有旧架构的客户端将无法反序列化 ..
发布时间:2021-11-12 02:02:12 其他开发

Scala案例类中init方法的java.lang.NoSuchMethodException

我正在编写一个 Apache Flink 流应用程序,它对从 Kafka 总线读取的数据(Avro 格式)进行反序列化(有关 此处).数据被反序列化为 Scala 案例类.我在运行程序时遇到异常,它收到了来自 Kafka 的第一条消息 线程“main"中的异常 org.apache.flink.runtime.client.JobExecutionException: java.lang.Run ..
发布时间:2021-11-12 02:02:06 其他开发

Kafka Connect 不适用于主题策略

背景 我编写了几个小的 Kafka Connect 连接器.一个每秒生成随机数据,另一个将其记录在控制台中.它们与 Schema Registry 集成,因此数据是使用 Avro 进行序列化. 我使用 fast-data-dev Docker 镜像将它们部署到本地 Kafka 环境中Landoop 基本设置工作并每秒产生一条记录的消息 但是,我想更改 主题名称策略.默认生成 ..

如何使用 Avro 二进制编码器对 Kafka 消息进行编码/解码?

我正在尝试使用 Avro 来读取/写入 Kafka 的消息.有没有人有使用 Avro 二进制编码器对将放入消息队列的数据进行编码/解码的示例? 与 Kafka 部分相比,我更需要 Avro 部分.或者,也许我应该看看不同的解决方案?基本上,我试图找到一个更有效的 JSON 空间解决方案.刚才提到了 Avro,因为它可以比 JSON 更紧凑. 解决方案 我终于想起去问 Kafka 邮件 ..
发布时间:2021-11-12 01:52:04 Java开发

没有融合架构注册表的反序列化:Avro 序列化数据不包含 avro 架构

我一直在尝试序列化 avro 通用记录并生成 avro 序列化数据以发送到 kafka.主要目标是不使用融合模式注册表来存储模式,而是将模式与序列化数据一起发送,以便可以从 kafka 主题中提取并反序列化. 以下是 AvroSerializer 用于生成 Avro 数据的部分. @覆盖公共字节[] 序列化(字符串主题,T 数据){尝试 {字节 [] 结果 = 空;如果(数据!= null ..
发布时间:2021-11-12 01:51:16 Java开发

使用 Spark 2.0.2(结构化流)从 Kafka 读取 Avro 消息

我有一个 spark 2.0 应用程序,它使用 spark 流(使用 spark-streaming-kafka-0-10_2.11)从 kafka 读取消息. 结构化流看起来很酷,所以我想尝试迁移代码,但我不知道如何使用它. 在常规流中,我使用 kafkaUtils 来 createDstrean,在我传递的参数中,它是值反序列化器. 在 Structured Streamin ..

如何使用来自 Kafka 的 Python 解码/反序列化 Avro

我从远程服务器 Kafka Avro 用 Python 接收消息(使用 Confluent Kafka Python 库的使用者),这些消息用带有用户代理、位置、url 等字段的 json 字典表示点击流数据.这是一条消息看起来像: b'\x01\x00\x00\xde\x9e\xa8\xd5\x8fW\xec\x9a\xa8\xd5\x8fW\x1axxx.xxx.xxx.xxx\x02:ht ..
发布时间:2021-11-12 01:41:29 Python

将 Spark Structured Streaming 与 Confluent Schema Registry 集成

我在 Spark Structured Streaming 中使用 Kafka Source 来接收 Confluent 编码的 Avro 记录.我打算使用 Confluent Schema Registry,但是与 Spark 结构化流的集成似乎是不可能的. 我见过这个问题,但无法在 Confluent Schema Registry 中使用.使用 Spark 2.0 从 Kafka 读取 ..

Apache Flink 从 Kafka 读取 Avro byte[]

在回顾示例时,我看到了很多这样的内容: FlinkKafkaConsumer08kafkaConsumer = new FlinkKafkaConsumer08("myavrotopic", avroSchema, properties); 我看到他们在这里已经知道架构. 在将 byte[] 读入通用记录之前,我不知道架构然后获取架构.(因为它可能会因记录而异) 有人可以将我指向从 ..
发布时间:2021-11-12 01:18:11 Java开发