从多个源读取数据并输出到Azure SQL [英] Read data from multiple sources and output to Azure SQL

查看:103
本文介绍了从多个源读取数据并输出到Azure SQL的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

大家好,

我希望在您的帮助下完成我的项目。  我有多个来源,我必须读取数据,一个源是内部部署的FTP空间,一个源是Azure存储,两个源都托管csv和xml文件。这些文件每隔
生成5分钟。

I hope in your help to complete my project.   I have a multiple sources where I have to read data, one source is on-premise FTP space and one source is on Azure Storage and both sources hosting csv and xml files. These files are generated every 5 minutes.

我必须在创建这些文件后立即获取/读取这些文件并将数据加载到Azure中不同表上的SQL数据库(因此每个源都有自己的表)。

I have to get/read these files as soon as they are created and load data into Azure SQL Database on different tables (so each source has own table).

我认为使用Azure Stream Analytics这项工作是正确的选择吗? 在INPUT我可以为一个源选择Azure BLOB存储但是为其他FTP源选择?

I thought for this job using Azure Stream Analytics, is the correct choice?  in INPUT I can select Azure BLOB Storage for one source but for the other FTP source?

非常感谢!








< td align ="right"width ="15%">






推荐答案

嗨mykernel,

Azure Stream Analytics是一个事件处理引擎,允许您检查来自设备的大量数据流。传入的数据可以来自设备,传感器,网站
网站,社交媒体供稿,应用程序等。它还支持从数据流中提取信息,识别模式和关系。然后,您可以使用这些模式触发下游其他操作,例如创建警报,将信息
提供给报告工具,或将其存储以供日后使用。

下图说明了Stream Analytics管道,您的Stream Analytics作业可以使用全部或者选定的输入和输出集。此图显示了如何将数据发送到Stream Analytics,分析并发送给其他操作(如存储或演示文稿):

有关详细信息,请参阅" Azure Stream Analytics "。

For more details, refer "Azure Stream Analytics".

注意:您可以使用Logic App将FTP文件复制到Azure Blob。

Note: You can copy FTP files to Azure Blob using Logic App.

这个

模板
允许您在FTP服务器上的文件上创建Logic应用程序触发器,并将它们复制到Azure Blob容器。您可以添加其他触发器或操作以根据需要对其进行自定义。

This template allows you to create a Logic app triggers on files in an FTP server and copies them to an Azure Blob container. You can add an additional triggers or actions to customize it to your needs.

希望这会有所帮助。


这篇关于从多个源读取数据并输出到Azure SQL的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆