暂无图片
分享
向伟辉
2019-05-17
multipath绑定信息失效

今天遇到一个情况,客户停止计算节点上的集群及数据库后,重启了存储节点,然后尝试启动集群发现磁盘组无法挂载上。我看了日志后发现是ASM未找到部分磁盘,然后到/dev/mapper下查看,发现存在部分磁盘不是以ZDATA*自定义开头的,而是mpath*这种默认的命名方式。存在命名问题的磁盘是最近刚刚新添加上去的磁盘,但是multipath.conf配置文件没有问题,我重新multipath -r 读取多路径配置后,就恢复正常,集群也可以正常拉起来。之前添加磁盘的时候,刚开始新磁盘也是以mpath*开头,后来改了multipath.conf配置文件重新读取后,mpath*的磁盘变为ZDATA*的磁盘,再将这些磁盘加进数据库磁盘组,一直到故障发生都没有重启过计算节点。为什么重启存储节点后,新添加的磁盘会变为mpath*,而不是ZDATA*,需要手动再multipath -r 一次?有解决办法没有?是不是重启一次计算节点服务器就没问题了?

部分日志信息如下

image.png


收藏
分享
4条回答
默认
最新
向伟辉
上传附件:message_31.log
暂无图片 评论
暂无图片 有用 0
向伟辉
上传附件:message_32.log
暂无图片 评论
暂无图片 有用 0
唐晓峰

 是的,新加了盘,修改了配置文件,是需要让multipathd重新去加载multipathd.conf文件。不然后multipathd这个后台服务就不能自动去监控新加的盘

暂无图片 评论
暂无图片 有用 0
向伟辉
问题已关闭: 问题已经得到解决
暂无图片 评论
暂无图片 有用 0
回答交流
提交
问题信息
请登录之后查看
附件列表
请登录之后查看
邀请回答
暂无人订阅该标签,敬请期待~~
暂无图片墨值悬赏