Hadoop dfs复制 [英] Hadoop dfs replicate
问题描述
抱歉的家伙,只是一个简单的问题,但我无法在Google上找到确切的问题。
有关dfs.replication是什么意思的问题?如果我在hdfs中创建了一个名为filmdata.txt的文件,如果我设置了dfs.replication = 1,那么它是一个文件(一个filmdata.txt)?或者除了主文件(filmdata.txt)之外,hadoop将创建另一个复制文件。
简单地说:如果设置dfs.replication = 1,共有一个filmdata.txt,或两个filmdata.txt?
在此先感谢
Sorry guys,just a simple question but I cannot find exact question on google. The question about what's dfs.replication mean? If I made one file named filmdata.txt in hdfs, if I set dfs.replication=1,so is it totally one file(one filmdata.txt)?or besides the main file(filmdata.txt) hadoop will create another replication file. shortly say:if set dfs.replication=1,there are totally one filmdata.txt,or two filmdata.txt? Thanks in Advance
推荐答案
文件系统中的文件总数将在dfs.replication中指定因子。所以,如果你设置dfs.replication = 1,那么文件系统中只有一个文件副本。
The total number of files in the file system will be what's specified in the dfs.replication factor. So, if you set dfs.replication=1, then there will be only one copy of the file in the file system.
检查 Apache Documentation 了解其他配置参数。
Check the Apache Documentation for the other configuration parameters.
这篇关于Hadoop dfs复制的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!