Hadoop dfs复制 [英] Hadoop dfs replicate

查看:108
本文介绍了Hadoop dfs复制的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

抱歉的家伙,只是一个简单的问题,但我无法在Google上找到确切的问题。
有关dfs.replication是什么意思的问题?如果我在hdfs中创建了一个名为filmdata.txt的文件,如果我设置了dfs.replication = 1,那么它是一个文件(一个filmdata.txt)?或者除了主文件(filmdata.txt)之外,hadoop将创建另一个复制文件。
简单地说:如果设置dfs.replication = 1,共有一个filmdata.txt,或两个filmdata.txt?
在此先感谢

Sorry guys,just a simple question but I cannot find exact question on google. The question about what's dfs.replication mean? If I made one file named filmdata.txt in hdfs, if I set dfs.replication=1,so is it totally one file(one filmdata.txt)?or besides the main file(filmdata.txt) hadoop will create another replication file. shortly say:if set dfs.replication=1,there are totally one filmdata.txt,or two filmdata.txt? Thanks in Advance

推荐答案

文件系统中的文件总数将在dfs.replication中指定因子。所以,如果你设置dfs.replication = 1,那么文件系统中只有一个文件副本。

The total number of files in the file system will be what's specified in the dfs.replication factor. So, if you set dfs.replication=1, then there will be only one copy of the file in the file system.

检查 Apache Documentation 了解其他配置参数。

Check the Apache Documentation for the other configuration parameters.

这篇关于Hadoop dfs复制的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆