如何在Google Colab中加载30GB的数据集 [英] how to load 30GB of datasets loading in google colab

查看:91
本文介绍了如何在Google Colab中加载30GB的数据集的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我有一个30GB的数据集.我需要将数据集上传到google colab.将数据集上传到google colab的过程是什么

i have a dataset of 30GB.i need to upload the dataset to google colab.what is the process to upload the dataset into google colab

推荐答案

这取决于您拥有30GB数据集"的含义.如果此数据集在您的本地计算机上,则需要:

It depends on what do you mean by "Have a 30GB dataset". If this dataset is on your local machine, then you need to:

  • 首先将数据集上传到Google云端硬盘
  • 然后将您的Google云端硬盘安装到您的colab笔记本中.

如果您在线上的服务器上有数据集,则需要:

If you have the dataset on a server online, then you need to:

  • 将您的Google驱动器安装到笔记本电脑上
  • 然后,将其直接下载到您的Google驱动器

您可以使用此编码将Google驱动器安装到笔记本上

You can use this cod to mount your google-drive to your notebook:

import os
from google.colab import drive

drive.mount('/content/gdrive')
ROOT = "/content/gdrive/My Drive/"
os.chdir(ROOT)

如果您的数据在服务器上,则可以通过在笔记本单元中运行以下代码直接下载数据.

If your data is on a server, then you can download it directly by running the following code in a notebook cell.

!wget [dataset_url]

这篇关于如何在Google Colab中加载30GB的数据集的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆