排行
数据库百科
核心案例
行业报告
月度解读
大事记
产业图谱
中国数据库
向量数据库
时序数据库
实时数据库
搜索引擎
空间数据库
图数据库
数据仓库
大调查
2021年报告
2022年报告
年度数据库
2020年openGauss
2021年TiDB
2022年PolarDB
2023年OceanBase
首页
资讯
活动
大会
学习
课程中心
推荐优质内容、热门课程
学习路径
预设学习计划、达成学习目标
知识图谱
综合了解技术体系知识点
课程库
快速筛选、搜索相关课程
视频学习
专业视频分享技术知识
电子文档
快速搜索阅览技术文档
文档
问答
服务
智能助手小墨
关于数据库相关的问题,您都可以问我
数据库巡检平台
脚本采集百余项,在线智能分析总结
SQLRUN
在线数据库即时SQL运行平台
数据库实训平台
实操环境、开箱即用、一键连接
数据库管理服务
汇聚顶级数据库专家,具备多数据库运维能力
数据库百科
核心案例
行业报告
月度解读
大事记
产业图谱
我的订单
登录后可立即获得以下权益
免费培训课程
收藏优质文章
疑难问题解答
下载专业文档
签到免费抽奖
提升成长等级
立即登录
登录
注册
登录
注册
首页
资讯
活动
大会
课程
文档
排行
问答
我的订单
首页
专家团队
智能助手
在线工具
SQLRUN
在线数据库即时SQL运行平台
数据库在线实训平台
实操环境、开箱即用、一键连接
AWR分析
上传AWR报告,查看分析结果
SQL格式化
快速格式化绝大多数SQL语句
SQL审核
审核编写规范,提升执行效率
PLSQL解密
解密超4000字符的PL/SQL语句
OraC函数
查询Oracle C 函数的详细描述
智能助手小墨
关于数据库相关的问题,您都可以问我
精选案例
新闻资讯
云市场
登录后可立即获得以下权益
免费培训课程
收藏优质文章
疑难问题解答
下载专业文档
签到免费抽奖
提升成长等级
立即登录
登录
注册
登录
注册
首页
专家团队
智能助手
精选案例
新闻资讯
云市场
微信扫码
复制链接
新浪微博
分享数说
采集到收藏夹
分享到数说
首页
/
HDFS中的磁盘和数据节点大小
HDFS中的磁盘和数据节点大小
大数据杂货铺
2020-02-10
805
该博客讨论了下面这些问题的答案,例如datanode中正确的磁盘大小是多少以及datanode中正确的容量是多少。
我们的一些客户询问我们有关使用高密度存储节点的信息。当然,可以将高密度节点用于归档存储,因为对于冷数据,IO带宽要求通常较低。但是,必须仔细评估将较高密度的节点用于热数据的决定,因为这可能会影响集群的性能。如果您已设置了足够的网络带宽来减轻较高的恢复时间并已对预期的工作量建模,则可以将更高密度的节点用于热数据。
选择节点容量时要记住两个因素。这些将在下一节中详细讨论。
大磁盘–总节点容量相同,使用更多磁盘会更好,因为它会产生更高的总IO带宽。
高密度节点–随着节点变得更高密度,节点故障后的恢复将花费更长的时间。
这些因素不是特定于HDFS的,而是会影响复制数据以实现冗余并为实时工作负载提供服务的任何分布式存储服务。
我们的建议是将数据节点的容量限制为100TB,至少使用8个磁盘。磁盘大小上限为100TB 8
〜
12TB。
该文章假定您对
HDFS架构
有所了解。
大容量对HDFS集群的影响
减少IO带宽
Hadoop集群依靠大规模的并行IO容量来支持数千个并发任务。假定一个大小为96TB的数据节点,让我们考虑两个磁盘大小– 8TB和16TB。一个具有8TB磁盘的数据节点将具有12个此类磁盘,而一个具有16TB磁盘的数据节点将具有6个磁盘。我们可以假设每个磁盘的平均读/写吞吐量为100MB sec,主轴速度为7200 RPM。下表总结了每种配置的带宽和IOPS。
8TB
⋅
12 = 96TB
16TB
⋅
6 = 96TB
读/写吞吐量
1200 MB 秒
600 MB /秒
随机IOPS
2880
1440
Bit-rot检测需要更长的时间
每个数据节点在每个卷上运行一个卷扫描器,该扫描器扫描块中的bit-rot。默认扫描周期为3周,因此在3周内会检测到由于bit-rot而丢失的副本。由于卷扫描器与应用程序竞争磁盘资源,因此限制其磁盘带宽非常重要。配置dfs.block.scanner.volume.bytes.per.second 定义了卷扫描器每秒可扫描的字节数,默认为1MB /秒。给定的配置带宽为5MB /秒。
扫描12TB所需时间= 12TB / 5MBps
〜
28天。
进一步增加磁盘大小将增加检测bit-rot所花费的时间。
重量级块报告
较大的卷大小意味着卷的块报告中有大量块。这会影响集群性能,因为它会增加数据节点中的块报告生成时间,RPC有效负载和名称节点中的块报告处理时间。
下图表示由数据节点发送的块报告的生成、网络往返时间和处理时间。数据节点只有一个卷,并且通过增加该卷的块数来收集统计信息。所有这些指标随着磁盘中块数量的增加而增加。
高密度存储节点的影响
故障恢复需要更多时间
每当存储节点发生故障时,必须将存储在该节点上的块复制到集群中的其他节点上,以恢复数据冗余。恢复时间的大小与数据节点的大小成线性关系,而与集群中的节点数成反比。可以使用以下公式将所有其他因素考虑为恒定的恢复时间。
恢复时间=(c
⋅
s)/n
其中c是常数,s是每个节点的已用容量,n是集群中存储节点的数量。
对于给定的集群容量,
如果节点容量增加一倍,则恢复时间将增加4倍
。假设集群平衡,则如果节点数减半,则每个节点的使用率都会加倍。
恢复时间=
(c
⋅
2s) / (n/2) = (4
⋅
c
⋅
s)/n
变量s和n在其他存储解决方案中也具有相似的意义。因此,高密度的数据节点将对任何集群中的恢复时间产生类似的影响。
对Datanode停用的影响
在计划中的某个节点退役期间,其所有块都将重新复制到其他节点。高密度节点对数据节点停用时间的影响类似于其对故障数据节点恢复时间的影响。因此,对于给定的集群容量,如果数据节点的容量增加一倍,则退役时间将增加4倍。
HDFS-14854
实现了一些改进,这些改进将提高节点退役的性能。这些改进将在CDP的将来版本中提供。
作者:
Lokesh Jain
原文链接:https://blog.cloudera.com/disk-and-datanode-size-in-hdfs/
数据库
文章转载自
大数据杂货铺
,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。
评论
领墨值
有奖问卷
意见反馈
客服小墨