点击上方“IT那活儿”公众号--专注于企业全栈运维技术分享,不管IT什么活儿,干就完了!!!
问题概述及原因
磁盘空间不足 DataNode所在节点的磁盘空间不足,无法存储新的数据块或进行必要的复制操作。 内存不足 DataNode或NameNode的内存资源不足,影响数据处理和通信。 硬件故障 DataNode的硬盘、网络等硬件设备出现故障,导致数据块无法被正确读取或写入。 配置错误 Hadoop配置文件中的相关参数设置错误,如DataNode的端口号冲突、数据存储路径错误等。 安全模式门限值设置过高 NameNode的dfs.safemode.threshold.pct参数设置过高,导致即使DataNode丢失的数据块比例较小,NameNode也会进入安全模式。
处理步骤
tail -f /path/to/hadoop/logs/hadoop-datanode-hostname.log
tail -f /path/to/hadoop/logs/hadoop-namenode-hostname.log
hadoop dfsadmin -safemode leave
hdfs fsck -delete
hadoop-daemon.sh stop datanode
hadoop-daemon.sh start datanode

本文作者:谌 鹏(上海新炬中北团队)
本文来源:“IT那活儿”公众号

文章转载自IT那活儿,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。




