Azure ML从压缩文件夹中解压缩多个大型数据集的最佳方法 [英] Azure ML best way to unpack multiple large datasets from a zipped folder

查看:117
本文介绍了Azure ML从压缩文件夹中解压缩多个大型数据集的最佳方法的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我正在寻找在Azure ML Studio中使用的最佳方法和模块来解压缩压缩到文件夹中的多个(大约2000个)大文件.

I am looking for the best way and modules to use in Azure ML studio to unpack multiple (about 2000) large files that are zipped into a folder

推荐答案

你好

说明中的操作是目前唯一可行的方法.唯一的其他选择是先将其移至VM,然后将其解压缩,然后从Blob输入.您也可以在那时将其从CosmosDB中移出,但除非您将 您在这些位置的数据又有另一个原因,那就是开销很大-我只会坚持使用压缩导入.

The operation in the instructions is about the only good way to do this currently. The only other option would be to move it to a VM first, then decompress it, and input from blob. You could also move it from CosmosDB at that point, but unless you're putting your data in those locations for another reason it's a lot of overhead - I would just stick with the zipped importing.



这篇关于Azure ML从压缩文件夹中解压缩多个大型数据集的最佳方法的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆