Hadoop:Datanode进程死亡 [英] Hadoop: Datanode process killed

查看:115
本文介绍了Hadoop:Datanode进程死亡的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我目前正在使用Hadoop-2.0.3-alpha,并且在我能够完美地使用HDFS(将文件复制到HDFS,从外部框架获得成功,使用webfrontend获得成功)后,在我的VM重新启动后,数据节点过程在一段时间后停止。 namenode进程和所有纱线处理工作没有问题。我将Hadoop安装在另一个用户下的文件夹中,因为我还安装了Hadoop 0.2,它也可以正常工作。
查看所有datanode进程的日志文件,我得到以下信息:

  2013-04- 11 16:23:50,475 WARN org.apache.hadoop.util.NativeCodeLoader:无法为您的平台加载native-hadoop库......在适用的情况下使用builtin-java类
2013-04-11 16:24: 17,451 INFO org.apache.hadoop.metrics2.impl.MetricsConfig:从hadoop-metrics2.properties加载的属性
2013-04-11 16:24:23,276 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl:Scheduled快照期限为10秒。
2013-04-11 16:24:23,279信息org.apache.hadoop.metrics2.impl.MetricsSystemImpl:DataNode度量系统启动
INFO org.apache 2013-04-11 16:24:23,480。 hadoop.hdfs.server.datanode.DataNode:配置主机名是用户VirtualBox
2013-04-11 16:24:28,896信息org.apache.hadoop.hdfs.server.datanode.DataNode:打开流媒体服务器在/ 0.0.0.0:50010
2013-04-11 16:24:29,239 INFO org.apache.hadoop.hdfs.server.datanode.DataNode:平衡带宽为1048576字节/秒
2013-04-11 16:24:38,348 INFO org.mortbay.log:通过org.mortbay.log.Slf4jLog记录到org.slf4j.impl.Log4jLoggerAdapter(org.mortbay.log)
2013-04-11 16:24:44,627 INFO org.apache.hadoop.http.HttpServer:添加全局过滤器'safety'(class = org.apache.hadoop.http.HttpServer $ QuotingIn putFilter)
2013-04-11 16:24:45,163 INFO org。 apache.hadoop.http.HttpServer:添加过滤器static_user_filter(class = org.apache.hadoop.http.lib.StaticUserWebFil ter $ StaticUserFilter)到上下文data​​node
2013-04-11 16:24:45,164信息org.apache.hadoop.http.HttpServer:添加过滤器static_user_filter(class = org.apache.hadoop.http.lib.StaticUserWebFil ter $ StaticUserFilter)到上下文日志
2013-04-11 16 :24:45,164信息org.apache.hadoop.http.HttpServer:添加过滤器static_user_filter(class = org.apache.hadoop.http.lib.StaticUserWebFil ter $ StaticUserFilter)上下文静态
2013-04-11 16: 24:45,355 INFO org.apache.hadoop.hdfs.server.datanode.DataNode:打开的信息服务器在0.0.0.0:50075
2013-04-11 16:24:45,508信息org.apache.hadoop.hdfs。 server.datanode.DataNode:dfs.webhdfs.enabled = false
2013-04-11 16:24:45,536 INFO org.apache.hadoop.http.HttpServer:Jetty绑定到端口50075
2013-04 -11 16:24:45,576信息org.mortbay.log:jetty-6.1.26
2013-04-11 16:25:18,416信息org.mortbay.log:已启动SelectChannelConnector@0.0.0.0:50075
2013-04-11 16:25:42,670信息org.apache.hadoop.ipc.Server:启动端口50020的Socket读取器#1
2013-04-11 16:25:44,955 INFO org.apach e.hadoop.hdfs.server.datanode.DataNode:在/0.0.0.0:50020打开IPC服务器
2013-04-11 16:25:45,483 INFO org.apache.hadoop.hdfs.server.datanode.DataNode :为名称服务收到的刷新请求:空
2013-04-11 16:25:47,079信息org.apache.hadoop.hdfs.server.datanode.DataNode:为名称服务启动BPOfferServices:< default>
2013-04-11 16:25:47,660 INFO org.apache.hadoop.hdfs.server.datanode.DataNode:块池<注册> (存储ID未知)服务本地主机/ 127.0.0.1:8020开始提供服务
INFO org.apache.hadoop.ipc.Server:IPC服务器响应者:启动
2013-04-11 16:25:50,631 INFO org.apache.hadoop.ipc.Server:50020上的IPC Server侦听器:启动
2013-04-11 16:26:15,068 INFO org.apache.hadoop .hdfs.server.common.Storage:通过nodename 3099 @ user-VirtualBox获取/home/hadoop/workspace/hadoop_space/hadoop23/dfs/data/in_use.lock锁定
2013-04-11 16:26: 15,720 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode:块池池块BP-474150866-127.0.1.1-1365686732002(存储标识为DS-317990214-127.0.1.1-50010-1365505141363)服务初始化失败/127.0.0.1:8020
java.io.IOException:/ home / hadoop / workspace / hadoop_space / hadoop23 / dfs / data中的不兼容clusterID:namenode clusterID = CID-1745a89c-fb08-40f0-a14d-d37d01f199c3; datanode clusterID = CID-bb3547b0-03e4-4588-ac25-f0299ff81e4f
at org.apache.hadoop.hdfs.server.datanode.DataStorage .doTransition(DataStorage.java:391)
at org.apache。 hadoop.hdfs.server.datanode.DataStorage .recoverTransitionRead(DataStorage.java:191)
at org.apache.hadoop.hdfs.server.datanode.DataStorage .recoverTransitionRead(DataStorage.java:219)
at org.apache.hadoop.hdfs.server.datanode.DataNode.in itStorage(DataNode.java:850)
at org.apache.hadoop.hdfs.server.datanode.DataNode.in itBlockPool(DataNode.java:821 )
at org.apache.hadoop.hdfs.server.datanode.BPerviceAc ice.verifyAndSetNamespaceInfo(BPOfferService.java:280)
at org.apache.hadoop.hdfs.server.datanode.BPServiceAc tor.connectToNNAndHandshake (BPServiceActor.java:22 2)
at org.apache.hadoop.hdfs.server.datanode.BPServiceAc tor.run(BPServiceActor.java:664)
at java.lang.Thread.run(Thread .java:722)
2013-04-11 16:26:16,212 WARN org.apache.hadoop.hdfs.server.datanode.DataNode:Ending b锁池服务:块池BP-474150866-127.0.1.1-1365686732002(存储ID DS-317990214-127.0.1.1-50010-1365505141363)service localhost / 127.0.0.1:8020
2013-04-11 16 :26:16,276信息org.apache.hadoop.hdfs.server.datanode.DataNode:已删除块池BP-474150866-127.0.1.1-1365686732002(存储ID DS-317990214-127.0.1.1-50010-1365505141363)
2013-04-11 16:26:18,396 WARN org.apache.hadoop.hdfs.server.datanode.DataNode:退出Datanode
2013-04-11 16:26:18,940 INFO org.apache.hadoop.util。 ExitUtil:以状态0退出
2013-04-11 16:26:19,668 INFO org.apache.hadoop.hdfs.server.datanode.DataNode:SHUTDOWN_MSG:
/ ******** ********************** ******** **
SHUTDOWN_MSG:关闭用户的DataNode-VirtualBox / 127.0.1.1
*************************** *********************** ********** /

有什么想法?可能是我在安装过程中犯了一个错误?但奇怪的是,它曾经工作过一次。我还必须说,如果我以另外的用户身份登录以执行命令 ./ hadoop-daemon.sh start namenode 和datanode一样,我需要添加sudo。



我使用这个安装指南: http://jugnu-life.blogspot.ie/2012/0...rial-023x.html a>



顺便说一句,我使用的是Oracle Java-7版本。

解决方案 div>

问题可能在于namenode是在集群设置完成之后格式化的,并且datanode不是,所以slave仍然指向旧的namenode。

我们必须删除并重新创建datanode的本地文件系统上的/ home / hadoop / dfs / data文件夹。

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆