azure-stream-analytics相关内容
我创建了一个ASA作业,还创建了一个输入别名和一个输出别名 像这样 我这样编辑查询部分 WITH [StreamData] AS ( SELECT employee_id, first_name, last_name, age, salary FROM [DeviceDataStream] WHERE [ObjectType
..
我正在从事一个物联网项目.我有一个Raspberry pi,可将数据发送到Azure上的IoTHub.该集线器会将数据转发到Azure流分析作业.在我的查询中,我尝试在1分钟的TumblingWindow中汇总(此处为平均值)所有数据,但作为时间戳,我使用在数据中发送的自定义日期时间. 我尝试了很多事情,但似乎没有任何效果.流作业似乎忽略了我提供的日期时间,只是根据到达时间汇总了所有内容.
..
我们成功使用Stream Analytics来接收从IoT中心设备发送的事件消息. Stream Analytics开箱即用地支持IoT中心作为输入流. 但是现在我们需要将流分析输出结果发送到IoT中心设备.我们能够将事件集线器连接建立到IoT中心作为Stream Analytics的输出接收器,但是会引发一个错误事件: Message: Access to the Event Hub has b
..
我想计算流中以下两个值之间的变化率: SlidingWindow中的AVG(值)为100万 前一分钟的SlidingWindow中的AVG(值)为100万 我在文档中唯一找不到的就是如何创建“延迟的"滑动窗口,这意味着它在实际时间之前开始2百万,在实际时间之前结束1百万,因此我可以进行一些计算,例如变化率 解决方案 您可以完成两个步骤. 计算一分钟的AVG总量. 使用
..
我正在尝试从Stream Analytics查询中调用AzureML UDF,并且UDF期望由5行2列组成的数组.输入数据是从IoT中心传输的,传入消息中有两个字段:“温度"和“温度".湿度. 这将是“传递查询": SELECT GetMetadataPropertyValue([room-telemetry], 'IoTHub.ConnectionDeviceId') AS Room
..
我有一个来自iotHub的json消息,例如: { "deviceId": "abc", "topic": "data", "data": { "varname1": [{ "t": "timestamp1", "v": "value1", "f": "respondFrame1"
..
我正在使用“流分析作业"来可视化来自"iot集线器"的两个不同设备(设备1和设备2)的数据; device1发送以下消息: {"messageId": 5576, "deviceId": "Raspberry Pi Web", "rpm": 22.80972122577826, "torque": 72.65678451219686} device2发送以下消息: {"messag
..
我有一个Azure IoT开发套件MXChip,并且正在将传感器数据发送到IoT中心.我还设置了流分析作业,将输入作为IoT中心,将输出作为SQL Server和Azure函数.输出将被写入SQL数据库,因此,我确认查询是正确的. 当我检查流分析作业日志时,看到如下错误. { "channels": "Operation", "correlationId": "4a9c
..
几天前,Microsoft宣布支持将数据从Azure流分析发送到Azure Functions: 我尝试了此操作,但无法将数据发送到Azure Functions.是否有任何指南如何从IoT中心-> Azure流分析-> Azure函数发送数据包? 输出对其他来源很好.这是我的查询: WITH rpidata AS ( SELECT *, DATEADD(Hour, 3, t
..
为了将传感器数据从IoT设备写入云中的SQL数据库,我使用了Azure流分析作业. SA作业具有IoT中心输入和SQL数据库输出.该查询很简单;它只是通过发送所有数据). 根据MS价格计算器,完成此操作的最便宜方法(在西欧)每月约为75欧元(请参见屏幕截图). 实际上,每分钟仅通过集线器发送一条消息,并且每月固定价格(与消息量无关).如此琐碎的小数据任务的价格令我感到惊讶.对于如此低的容量需
..
当尝试将Azure功能添加为流分析作业的输出接收器时,我总是遇到连接测试失败. Azure函数本身可以正常工作,我也可以使用Postman来调用它.添加Azure函数后,我会收到连接测试失败的错误消息. Azure函数返回了HTTP错误.发送请求时出错. 解决方案 我遇到了同样的问题. 适用于我的解决方案是设置: 最低TLS版本:1.0(默认为1.2) 用于我的功能应用程序.
..
我有一个事件中心和一个将数据发送到Power BI的流分析作业.我想知道配置事件中心/资产跟踪的最佳方法是什么? 例如,我有多个客户端发送到事件中心->流分析作业,并且我希望能够确定具有特定ID的客户端是否离线? 干杯! 解决方案 如果ID列表相对静态,则可以使用引用数据连接输出每个时间窗口中缺少的所有ID. 如果要从流本身推断ID,并且要检测何时在前一个窗口中激活的ID
..
我的体系结构: 1个具有8个分区和10个分区的EventHub; 2个TPU 1个流分析工作 6个基于相同输入(从100万到600万)的Windows 样本数据: {side: 'BUY', ticker: 'MSFT', qty: 1, price: 123, tradeTimestamp: 10000000000} {side: 'SELL', ticker: 'MSFT
..
我当前正在使用Adruino Uno构建一个项目,以收集温度和湿度等天气数据,然后将这些数据传递到Azure IOT中心,然后将消息处理并再次存储到Azure中的SQL数据库中.最后,数据将显示在网站上,用户可以注册并查看我收集的天气数据. 我正在尝试在系统中实施SMS通知,以便如果温度达到某个特定阈值(例如0摄氏度),系统上的用户将收到SMS消息,通知他们低温. 我的问题是,SMS消
..
我需要获取文件列表,然后过滤此集合 DECLARE @input_file string = @"\data\{*}\{*}\{*}.avro"; @filenames = SELECT filename FROM @input_file; @filtered = SELECT filename FROM @filenames WHERE {condition} 如果可能的话...
..
我想使用输出设置为DataLake Store的StreamAnalytics作业设置CI/CD(ARM模板). https://docs.microsoft.com/zh-cn/azure/templates/microsoft.streamanalytics/streamingjobs/outputs#microsoftdatalakeaccounts 问题与refreshToken一起
..
我正在研究一个IoT分析解决方案,该解决方案使用在Azure IoT中心发射的Avro格式的消息,并且(希望)使用Stream Analytics将消息存储在Data Lake和Blob存储中.一个关键要求是,Avro容器在存储中的外观必须与呈现给IoT Hub时的外观完全相同,以使下游消费者受益. 我在Stream Analytics中遇到了限制,无法对单个文件的创建进行精细控制.设置新的
..
我正在使用Azure流分析将事件从事件中心流式传输到DocumentDB. 我已经按照记录配置了 input , query 和 output ,并使用示例数据对其进行了测试,并设法按预期返回结果. 但是当我开始流作业并发送与样本数据相同的有效负载时,我收到了以下错误消息: 根据DocumentDB约束,为DocumentDB db:[my-database-name]和collect
..
我正在尝试将Azure Stream Analytics与DocumentDB集成在一起,并将其用作输出接收器.问题是,运行处理作业时,在DocDB中没有创建任何文档.我尝试测试查询,甚至尝试将输出镜像到存储帐户.在存储中正在创建包含所有值的json文件,但是DocDB保持为空. 这是我的查询: WITH Res1 AS ( SELECT id, concat( cas
..
我有一个非常基本的设置,如果使用TIMESTAMP BY语句,则永远不会得到任何输出. 我有一个流分析工作,它是从Event Hub读取并写入表存储的. 查询如下: SELECT * INTO MyOutput FROM MyInput TIMESTAMP BY myDateTime; 如果查询使用timestamp语句,则永远不会获得任何输出事件.
..