暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

动态拓展flink集群计算节点

IT那活儿 2022-09-01
1514

点击上方“IT那活儿”公众号,关注后了解更多内容,不管IT什么活儿,干就完了!!!


  

近期由于flink集群的CPU总核数限制,flink集群已经没有看可用的slot资源,无法继续在集群上新增flink任务,所以需要横向拓展flink集群的计算节点。

目前flink的部署模式是flink on yarn,所以只用动态拓展现有的hadoop集群的数据节点即可。


设置主机环境

#修改主机名称

hostnamectl set-hostname ***
#修改用户环境变量
# for hadoop
export HADOOP_HOME=/home/shsnc/domp-product/hadoop
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export YARN_CONF_DIR=$HADOOP_CONF_DIR
export HADOOP_CLASSPATH=`hadoop classpath`

设置完成后:
#重新加载用户环境配置文件:
source .bash_profile

修改所有主机的/etc/hosts文件,加入新加入机器的IP和主机名,新加入主机的/etc/hosts文件中加入所有主机的IP和主机名.

配置免密登录

此处不做额外说明.

安装并配置hadoop

#修改hadoop的slaves配置,添加所有的主机节点IP地址.

vi /home/shsnc/domp-product/hadoop/etc/hadoop/slaves
#在现有的hadoop集群上,将hadoop打包,并排除数据目录和日志目录.
tar -Pczvf home/shsnc/domp-product.tar.gz home/shsnc/domp-
product/* --exclude=/home/shsnc/domp-product/hadoop/data --
exclude=/home/shsnc/domp-product/hadoop/logs

#利用scp将打包后的文件传输到即将加入集群的主机中.
scp domp-product.tar.gz ***@***:./domp-product/
#到目标服务器中解压文件.
tar -xzvf domp-product.tar.gz
至此完成hadoop组件的安装,接下来需要修改配置文件:
1) 修改core-site.xml
<property>
<name>fs.default.name</name>
<value>hdfs://主节点主机名:服务端口</value>
</property>

2) 修改yarn-site.xml
<property>
<name>yarn.timeline-service.hostname</name>
<value>主节点主机名</value>
</property>
<property>
<name>yarn.log.server.url</name>
<value>http://主节点主机名:服务端口/jobhistory/logs/</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>主节点主机名:服务端口</value>
</property>
<property>
<name>yarn.nodemanager.address</name>
<value>当前节点主机名:服务端口</value>
</property>


启动新节点上的datanode和nodemanager服务

#启动服务:

./hadoop-deamon.sh start datanode
./yarn-deamon.sh start nodemanager

启动datanode时,可能报错VERSION版本不对,需要修改新增节点的VERSION.
vi /home/shsnc/domp-product/hadoop/data/hdfs/datanode/current/VERSION

将VERSION文件中的clusterID修改为和原集群一样后,重启datanode.

刷新并调整集群状态

#刷新数据节点,将新节点加载到集群中:

hadoop/bin/hdfs refreshNodes
#查看节点数量,节点数量从5变为8,证明节点已经纳入集群中.
hdfs fsck 


#平衡节点数据:

start-balancer.sh

#查看所有节点信息:

hdfs dfsadmin -report


以上就完成了整个集群的动态拓展!


本文作者:胡京康(上海新炬王翦团队)

本文来源:“IT那活儿”公众号

文章转载自IT那活儿,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论