Hadoop HDFS最大文件大小 [英] Hadoop HDFS maximum file size

查看:149
本文介绍了Hadoop HDFS最大文件大小的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我的一个同事认为HDFS没有最大文件大小,也就是说,通过划分为128/256兆大块可以存储任何文件大小(显然HDFS磁盘的大小可以限制,但这是唯一的限制)。我找不到任何说有限制的东西,她是正确的吗?



谢谢,jim

解决方案

那显然有一个实际的限制。但物理HDFS块ID是Java longs
,因此它们的最大值为2 ^ 63,如果块大小为64 MB,则最大大小为512 yottabytes。

A colleague of mine thinks that HDFS has no maximum file size, i.e., by partitioning into 128 / 256 meg chunks any file size can be stored (obviously the HDFS disk has a size and that will limit, but is that the only limit). I can't find anything saying that there is a limit so is she correct?

thanks, jim

解决方案

Well there is obviously a practical limit. But physically HDFS Block IDs are Java longs so they have a max of 2^63 and if your block size is 64 MB then the maximum size is 512 yottabytes.

这篇关于Hadoop HDFS最大文件大小的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆