# lsblk
格式化为 xfs 文件系统(这里以 sdg 盘为例)
# mkfs.xfs -f /dev/sdg
修改/etc/fstab 文件,设置自动挂载到指定路径
/dev/sdg /data1 xfs defaults 0 0
挂载磁盘
# mount -a
用 df -hT 命令可以看到挂载成功
# df –hT
创建目录:
# mkdir –p /data1/hdfs
# chown -R tdsql:users /data1/hdfs
#3. 新增 DN 机器设置主机名和配置环境变量
新增 DN 机器:
hostnamectl set-hostname node04
所有的 HDFS 机器:
vim /etc/hosts
# BEGIN hdfs1 local host
10.99.0.6 node01
10.99.0.14 node02
10.99.0.16 node03
10.99.0.31 node04
# END hdfs4 local host
标红的地方是新增 DN 机器的 IP 地址,原有的 HDFS 集群机器有的内容最后添加标红内容,新
新增 DN 机器:
/etc/profile 文件最后加上一键部署主控机/tdsql_full_install_ansible/roles/hdfs/f
# vim /etc/profile
# BEGIN hadoop_env
export JAVA_HOME=/data/home/tdsql/jdk1.8.0_51
export CLASS_PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export HADOOP_HOME=/data/home/tdsql/hadoop-3.0.3
export HADOOP_PID_DIR=/data/hadoop/pids
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
文档被以下合辑收录
评论