暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

在 KubeSphere 中部署高可用 Redis 集群

KubeSphere云原生 2022-09-23
472

作者:余生大大,大数据开发工程师,云原生爱好者,KubeSphere 社区用户。

前言

Redis
是在开发过程中经常用到的缓存中间件,在生产环境中为了考虑稳定性高可用一般为集群模式的部署。

常规部署在虚拟机上的方式配置繁琐并且需要手动重启节点,而使用 K8s
进行 Redis
集群的部署有以下优点:

  • 安装便捷:使用镜像或者 yaml
    配置文件即可一件安装。
  • 自动调度:容器挂掉后会自动调度重启和资源分配。
  • 缩扩容方便:在 扩容
    缩容
    方面的优点无需多说,一键伸缩。
  • 稳定高效K8s
    在整个集群上进行调度,只要整个集群不挂掉总会调度到合适节点重启容器服务。

安装 Redis 集群

我这里新建了一个 test-project
的项目空间来做 Redis
集群所有安装资源的放置,后续在 DNS
上会用到项目空间名称,会标注这一部分,需要注意用自己的项目空间名。

安装集群大概分为以下几步:

  1. 配置 redis.conf
    字典;
  2. 创建 redis
    服务;
  3. 容器组配置;
  4. 存储设置;
  5. 高级设置。

现在从第一步开始。

1.1 配置 redis.conf 字典

在项目空间的 配置
配置字典
创建
进行配置字典的创建。

名称就叫 redis-conf
然后下一步 添加键值对数据。

key
值的内容为 redis.conf
value
值为:

cluster-enabled yes
cluster-config-file nodes.conf
cluster-node-timeout 5000
cluster-require-full-coverage no
cluster-migration-barrier 1
appendonly yes

创建 Redis 服务

在项目空间的 应用负载
服务
创建
进行 Redis 服务的创建。

选择有状态服务
,需要数据存储的服务基本都是有状态的服务。

基本设置里名称就叫 redis-cluster
然后进行重头戏,下一步的容器组配置

容器组配置

这一步的核心就是配置 Redis 的容器,集群数量就选择常规的三主三从,那容器的副本数量就是 6 个。

容器组副本数量调到 6 个,点击添加容器。

镜像选择 docker hub
redis
6.2.3
版本,并选择使用默认端口,CPU 和内存可以选择性预留,如果不预留就是调度公共资源。

选择使用默认端口
的话下面的端口设置就是如上图一样都会使用 6379
,还有就是配置启动命令。

如上图配置:

  • 命令:redis-server
  • 参数:/etc/redis/redis.conf

参数指向的就是之前字典配置的内容,但是需要下一步存储设置
里进行配置字典才能使用。

其他内容没有什么需要配置的,选择对勾完成容器配置。

更新策略就是推荐的滚动更新
,其他也没什么需要修改的,点击下一步配置存储设置

存储设置

在这一步有两个操作

  • 添加持久卷声明模板
  • 挂载配置字典

添加持久卷声明模板

PVC 名称前缀:redis-pvc

容量:10G

挂载路径

  • 权限:读写

  • 地址:/data

    主要是挂载路径选好,配置好后点击对勾完成配置

挂载配置字典

这一步是挂载我们之前配置的字典 redis-conf
,也是我们 redis
启动命令的参数内容。

选择 redis
的配置字典。

挂载权限为:只读
,地址为:/etc/redis
;跟上面的命令参数的配置相对应。

特定键选择 redis.conf
 后面同名 redis.conf
,完成后点击对勾回到存储设置。

配置好后就入上图,点击下一步进入最后的高级设置。

高级设置
里是一些额外配置,可以根据自己场景选择调整配置,调成完成后点击创建
 进行 Redis 集群容器的创建

初始化 Redis 集群

创建完 Redis 服务后点击 redis
的服务名称进入 redis
服务详情,详情如下图:

6 个 redis
的容器组都启动成功了,接下来就是初始化集群;因为我们配置的 redis
的服务是有状态服务 (Headless)
所以访问模式可以通过内部 DNS,访问格式是:(容器名称).(容器 DNS).svc.cluster.local。

按上图示例 比如访问集群 1 节点访问地址就是 redis-cluster-v1-1
 加 DNS
地址  redis-cluster.test-project
svc.cluster.local
,完整地址如下:

redis-cluster-v1-1.redis-cluster.test-project.svc.cluster.local

在 redis 集群的非第一节点的其他节点终端内通过这个地址进行访问验证他们是否互通,进入 3 节点的终端,如下图:

进入终端,执行命令:

redis-cli -h redis-cluster-v1-1.redis-cluster.test-project.svc.clusterredis.local

如果能如下图一样跳转到 v1-1
的节点上就代表这两个节点互通。

执行命令:cluster info
 查看节点的集群情况。

主要看上图的这两个参数,nodes
1
表明当前节点只有 1
个,cluster_size
表明当前没有 master
节点,所以目前还不是集群结构,info
属性的详解在此列出:

  • cluster_state
    :ok 状态表示集群可以正常接受查询请求。fail 状态表示,至少有一个哈希槽没有被绑定(说明有哈希槽没有被绑定到任意一个节点),或者在错误的状态(节点可以提供服务但是带有 FAIL 标记),或者该节点无法联系到多数 master 节点。
  • cluster_slots_assigned
    :已分配到集群节点的哈希槽数量(不是没有被绑定的数量)。16384 个哈希槽全部被分配到集群节点是集群正常运行的必要条件。
  • cluster_slots_ok
    :哈希槽状态不是 FAIL 和 PFAIL 的数量。
  • cluster_slots_pfail
    :哈希槽状态是 PFAIL 的数量。只要哈希槽状态没有被升级到 FAIL 状态,这些哈希槽仍然可以被正常处理。PFAIL 状态表示我们当前不能和节点进行交互,但这种状态只是临时的错误状态。
  • cluster_slots_fail
    :哈希槽状态是 FAIL 的数量。如果值不是 0,那么集群节点将无法提供查询服务,除非 cluster-require-full-coverage 被设置为 no。
  • cluster_known_nodes
    :集群中节点数量,包括处于握手状态还没有成为集群正式成员的节点。
  • cluster_size
    :至少包含一个哈希槽且能够提供服务的 master 节点数量。
  • cluster_current_epoch
    :集群本地 Current Epoch 变量的值。这个值在节点故障转移过程时有用,它总是递增和唯一的。
  • cluster_my_epoch
    :当前正在使用的节点的 Config Epoch 值。这个是关联在本节点的版本值。
  • cluster_stats_messages_sent
    :通过 node-to-node 二进制总线发送的消息数量。
  • cluster_stats_messages_received
    :通过 node-to-node 二进制总线接收的消息数量。

IP 地址初始化集群

先尝试使用 ip + port
的方式初始化集群,但是在 K8s
中启动服务 ip
都会变化,所以最终的结果还是要用 DNS
方式进行集群初始化。

执行本步后再想修改为 DNS 地址初始化需要从来一遍,如果不想麻烦的同学可以直接跳过。

记录 redis
集群的所有 ip+port
,初始化命令如下:

redis-cli --cluster create 10.233.70.30:6379 10.233.70.32:6379 10.233.90.41:6379 10.233.90.43:6379 10.233.96.47:6379 10.233.96.50:6379 --cluster-replicas 1

进入 redis
集群随意一个节点的终端
执行上面的命令。

如上图集群初始化就完成了,再输入命令 redis-cli
进入命令端,再执行 cluster info
查看集群信息。

现在我们的集群节点有了 6
个,master
节点也有了三个,集群建立完成,后面的操作选择 master
节点进行操作。

在对集群节点进行验证的时候如果遇到上图的错误 (error) MOVED 2589 10.233.70.30:6379
是因为 redis-cli
没有开启集群模式,将命令修改为 redis-cli -c
就切换为集群模式了。

使用内部 DNS 初始化

使用 ip
地址的方式在每次 K8s
调度 redis
ip
都会发生变化,所以在 K8s
集群中使用 ip
方式初始化集群并不太合适,但是如果使用内部 DNS
直接跟上面一样初始化集群会出现错误,因为 redis
对域名的支持并不太好,所以这时候可以用 Redis-tribe

创建 Redis-tribe 服务

创建自定义服务,选择编辑 YAML

参数 namespace
就写项目名称:

具体 YAML
内容如下:

apiVersion: apps/v1
kind: Deployment
metadata:
  namespace: test-project
  labels:
    app: redis-cluster-tools
  name: redis-cluster-tools
spec:
  replicas: 1
  selector:
    matchLabels:
      app: redis-cluster-tools
  template:
    metadata:
      labels:
        app: redis-cluster-tools
      name: pos-redis
    spec:
     containers:
     - name: pos-redis
       image: sunnywang/redis-tools-ubuntu:v0.5.1
       imagePullPolicy: IfNotPresent
       args:
       - /bin/bash
       - -c
       - sleep 3600

创建好后在容器组内找到 redis-cluster-tools

初始化集群

点击容器名称进入容器详情再进入到终端里。

先执行以下命令初始化 master
节点,这时候之前的内部 DNS
的域名就有用了。

redis-trib.py create `dig +short redis-cluster-v1-0.redis-cluster.test-project.svc.cluster.local`:6379 `dig +short redis-cluster-v1-1.redis-cluster.test-project.svc.cluster.local`:6379 `dig +short redis-cluster-v1-2.redis-cluster.test-project.svc.cluster.local`:6379

执行结果如下图:

接下来给每个 master
节点绑定对应的副本节点,总共三个:

0 节点->3 节点

redis-trib.py replicate --master-addr `dig +short redis-cluster-v1-0.redis-cluster.test-project.svc.cluster.local`:6379 --slave-addr `dig +short redis-cluster-v1-3.redis-cluster.test-project.svc.cluster.local`:6379

1 节点->4 节点

redis-trib.py replicate  --master-addr `dig +short redis-cluster-v1-1.redis-cluster.test-project.svc.cluster.local`:6379 --slave-addr `dig +short redis-cluster-v1-4.redis-cluster.test-project.svc.cluster.local`:6379

2 节点->5 节点

redis-trib.py replicate --master-addr `dig +short redis-cluster-v1-2.redis-cluster.test-project.svc.cluster.local`:6379 --slave-addr `dig +short redis-cluster-v1-5.redis-cluster.test-project.svc.cluster.local`:6379

执行结果如下:

验证

随便进入一个集群节点的终端,还是执行 cluster info
命令,查看集群信息。

使用基础命令进行验证,验证集群模式的 redis-cli
需要加-c

验证集群模式可以正常使用。


使用 KubeEdge 和 EdgeMesh 实现边缘复杂网络场景下的节点通信

2022-09-22

NebulaGraph 的云产品交付实践

2022-09-14

一文读懂 Prometheus 长期存储主流方案

2022-09-08




关于 KubeSphere

KubeSphere (https://kubesphere.io)是在 Kubernetes 之上构建的开源容器平台,提供全栈的 IT 自动化运维的能力,简化企业的 DevOps 工作流。

KubeSphere 已被 Aqara 智能家居、爱立信、本来生活、东软、华云、新浪、三一重工、华夏银行、四川航空、国药集团、微众银行、杭州数跑科技、紫金保险、去哪儿网、中通、中国人民银行、中国银行、中国人保寿险、中国太平保险、中国移动、中国联通、中国电信、天翼云、中移金科、Radore、ZaloPay 等海内外数万家企业采用。KubeSphere 提供了开发者友好的向导式操作界面和丰富的企业级功能,包括 Kubernetes 多云与多集群管理、DevOps (CI/CD)、应用生命周期管理、边缘计算、微服务治理 (Service Mesh)、多租户管理、可观测性、存储与网络管理、GPU support 等功能,帮助企业快速构建一个强大和功能丰富的容器云平台。


 ✨ GitHub:https://github.com/kubesphere
 💻 官网(中国站):https://kubesphere.com.cn
 👨‍💻‍ 微信群:请搜索添加群助手微信号 kubesphere
 🔗 企业服务https://kubesphere.cloud



文章转载自KubeSphere云原生,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论