amazon-kinesis相关内容
添加 aws-xray-recorder-sdk-aws-sdk-instrumentor 时,KCL 会引发 SegmentNotFoundException. 据我所知,这是因为 KCL 正在启动他们的 自己的线程 所以我对 AWSXRay.beginSegment() 的调用不适用于在这些线程上运行的检测请求,但我没有直接控制这些线程,所以我无法设置上下文/段. 有什么解决方法吗
..
我正在尝试从 Kinesis 数据流中获取数据: function getRecord(shard_iterator) {var getRecParams = {ShardIterator: shard_iterator};kinesis.getRecords(getRecParams, function(err, result) {//遍历所有包for (var record in resul
..
这是我的代码 aws kinesis put-record --stream-name request-data-debugger --data file://payload.json --partition-key 1 当我尝试将数据放入 kinesis 时.它总是说, "(ResourceNotFoundException) 当调用 PutRecord 操作时:帐户 xxxxxxx
..
我有一个lambda函数,可以写入运动流.但是现在,我想写一个属于另一个AWS账户的运动流.假设我具有所有必需的跨帐户权限,如何将数据发送到此流?调用kinesis构造函数或putRecord函数时应如何更改参数? 解决方案 上面的方法在技术上是可行的,但是硬编码凭据甚至将凭据配置为lambda对我来说似乎有点多余,因为lambda本身要求您具有职务.您需要做的是创建跨帐户信任并使用sts
..
我们正在从Kinesis中读取内容并写入镶木地板,并使用 StateSpec> 来避免在从上一个保存点正常停止并重新启动管道之后重复处理记录. > 我们看到一些记录被重复,因为它们最终在随后的重新启动时落在了不同的任务管理器上,并且我们使用 StateSpec> 来存储有关已处理记录的有状态信息并避免重复.
..
我有一个运动学流(20个碎片),大约有1天的数据滞后,这是基于KCL的运动学消费者所消耗的.使用者部署了20个ECS实例,因此每个实例都有一个线程从每个分片中提取数据. 根据文档,看起来一个单独的getRecords调用最多可以获取10,000条记录或最大有效负载大小为10 MB.但是,当我监视使用者日志时,似乎并非所有碎片都达到此限制.使用单个getRecords调用获取的记录在使用者实例
..
我有一个5 MB的JSON负载,我需要使用放置记录将其推送到Kinesis流.由于Kinesis数据大小限制为1 MB,因此我应该遵循哪些方法来压缩数据以及将要执行的步骤 解决方案 如果压缩后您的json有效负载仍然太大,那么通常会有两个选项: 将拆分为多个较小的有效负载.使用者必须能够根据您的有效载荷的 part id 来重构有效载荷. 将大型有效负载数据存储在流外部,例如在
..
我想在AWS Kinesis中使用Debezium嵌入式引擎,以便加载PostgreSQL数据库的初始快照,然后连续执行CDC. 我知道,使用Kafka Connect,我可以开箱即用的“交易元数据"主题,以便检查交易边界. 使用Debezium嵌入式引擎和AWS Kinesis进行同样的操作( https://debezium.io/blog/2018/08/30/streaming
..
当我使用put操作将数据对象插入aws firhose流时,它可以正常工作.由于我的firehose流上启用了lambda函数.因此,调用了lambda函数但给了我输出结构响应错误: "errorMessage":“无效的输出结构:请检查函数,并确保已处理的记录包含Dropped,Ok或ProcessingFailed的有效结果状态. 所以现在我以这种方式创建了lambda函数,以实现正确的
..
我建立了一个管道,在其中将视频实时流传输到Kinesis Video Stream(KVS),Kinesis Video Stream(KVS)将帧发送到Amazon Rekognition以进行人脸识别,再将帧发送到Kinesis Data Stream(KDS).最后,KDS将结果发送到lambda. 对于进行了面部识别的框架,我得到以下格式的JSON: get_media_for_fr
..
我正在运行 收件人: if(data.encoder){data.source = gst_element_factory_make("avfvideosrc",“源");g_object_set(G_OBJECT(data.source),"do-timestamp",TRUE,"device-index",1,NULL);
..
我有一个用Apache Beam(使用Spark Runner)开发的流传输管道,该管道从kinesis流中读取数据. 我正在寻找Apache Beam中用于管理运动学检查点的选项(即定期存储运动学流的当前位置),以便它使系统从故障中恢复并继续处理流停止的地方. 是否有可供Apache Beam支持的运动学检查点的设置,类似于Spark Streaming(参考链接- Sequence
..
首要: 我是Flink的新手(了解原理并能够创建我需要的任何基本流工作) 我使用Kinesis Analytics运行Flink作业,默认情况下,它使用间隔为1分钟的增量检查点. Flink作业正在使用FlinkKinesisConsumer和自定义反序列化器(将字节反序列化为一个简单的Java对象,在整个作业中使用)从Kinesis流中读取事件 我想存档的只是简单地计算过去24小
..
在同时检查许多事件时,我们正在遇到 ProvisionedThroughputExceededException . 异常堆栈跟踪如下: com.amazonaws.services.kinesis.model.ProvisionedThroughputExceededException:帐户accountid下的流mystream中的分片shardId-000000000000超出速率
..
试图将云监视日志放入kineses firehose. 以下为: https://docs.aws.amazon.com/AmazonCloudWatch/Latest/logs/SubscriptionFilters.html#FirehoseExample 收到此错误 调用PutSubscriptionFilter操作时发生错误(InvalidParameterExcepti
..
我使用Amazon api网关设置了API,并希望将数据放入运动流.Amazon api网关对此具有内置支持.但是,当我尝试放入json数据时,它会给出“序列化异常". var data = {"ua_platform":"iPhone","ua_browsercodename":"Mozilla","ua_browserlanguage":"zh-cn","ua_header":"Mozil
..
tldr; ,因为它不接收数据,所以不能使用Kinesis Spark Streaming集成. 已建立测试流,nodejs应用每秒发送1条简单记录. 在环境中使用docker-compose,AWS凭证设置具有主节点和工作节点(4个核心)的标准Spark 1.5.2集群 spark-streaming-kinesis-asl-assembly_2.10-1.5.2.jar 已下载并添加
..
我正在使用LocalStack编写集成测试,以模拟对Kinesis的调用.我已经创建了一个Kinesis客户端,但是当我尝试在Kinesis上放置记录时,出现错误: com.amazonaws.services.kinesis.model.AmazonKinesisException:null(服务:AmazonKinesis;状态代码:502;错误代码:null;请求ID:null)
..
我有多个EC2实例正在为同一个微服务运行,该微服务有一个Kinesis使用者正在运行(使用KCL). 我的问题是,当Kinesis流收到一个新事件时,由于所有使用者都在轮询,因此所有实例的使用者都将使用同一事件吗? 解决方案 该事件仅由一个使用者使用
..
我有一个AWS Kinesis python程序-生产者将数据发送到我的流.但是我的JSON文件是5MB.我想使用GZIP或任何其他最佳方法压缩数据.我的生产者代码是这样的: import boto3 import json import csv from datetime import datetime import calendar import time import random
..