如何在Google Colab中加载30GB的数据集 [英] how to load 30GB of datasets loading in google colab
本文介绍了如何在Google Colab中加载30GB的数据集的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
我有一个30GB的数据集.我需要将数据集上传到google colab.将数据集上传到google colab的过程是什么
i have a dataset of 30GB.i need to upload the dataset to google colab.what is the process to upload the dataset into google colab
推荐答案
这取决于您拥有30GB数据集"的含义.如果此数据集在您的本地计算机上,则需要:
It depends on what do you mean by "Have a 30GB dataset". If this dataset is on your local machine, then you need to:
- 首先将数据集上传到Google云端硬盘
- 然后将您的Google云端硬盘安装到您的colab笔记本中.
如果您在线上的服务器上有数据集,则需要:
If you have the dataset on a server online, then you need to:
- 将您的Google驱动器安装到笔记本电脑上
- 然后,将其直接下载到您的Google驱动器
您可以使用此编码将Google驱动器安装到笔记本上
You can use this cod to mount your google-drive to your notebook:
import os
from google.colab import drive
drive.mount('/content/gdrive')
ROOT = "/content/gdrive/My Drive/"
os.chdir(ROOT)
如果您的数据在服务器上,则可以通过在笔记本单元中运行以下代码直接下载数据.
If your data is on a server, then you can download it directly by running the following code in a notebook cell.
!wget [dataset_url]
这篇关于如何在Google Colab中加载30GB的数据集的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!
查看全文