最初,您必须格式化已配置的HDFS文件系统,打开namenode(HDFS服务器),然后执行以下命令.
$ hadoop namenode -format
格式化HDFS后,启动分布式文件系统.以下命令将以名称节点和数据节点作为集群启动.
$ start-dfs.sh
在服务器中加载信息后,我们可以找到目录中的文件列表,文件状态,使用'ls'.下面给出了 ls 的语法,您可以将其作为参数传递给目录或文件名.
$ $HADOOP_HOME/bin/hadoop fs -ls <args>
假设我们在本地系统中名为file.txt的文件中有数据,这是应该保存在hdfs文件系统中.按照下面给出的步骤在Hadoop文件系统中插入所需的文件.
您必须创建一个输入目录.
$ $HADOOP_HOME/bin/hadoop fs -mkdir/user/input
使用put命令将数据文件从本地系统传输并存储到Hadoop文件系统.
$ $HADOOP_HOME/bin/hadoop fs -put/home/file.txt/user/input
您可以使用ls命令验证文件.
$ $HADOOP_HOME/bin/hadoop fs -ls /user/input
假设我们在HDFS中有一个名为 outfile 的文件.以下是从Hadoop文件系统中检索所需文件的简单演示.
最初,使用<查看HDFS中的数据 cat 命令.
$ $HADOOP_HOME/bin/hadoop fs -cat /user/output/outfile
使用 get 命令将文件从HDFS获取到本地文件系统.
$ $HADOOP_HOME/bin/hadoop fs -get /user/output//home/hadoop_tp/
您可以使用以下命令关闭HDFS.
$ stop-dfs.sh