高并发高可用复杂系统中的缓存架构(十四) redis集群通信

redis cluster 的核心原理分析:gossip 通信、jedis smart 定位、主备切换

[[toc]]

节点间的内部通信机制

基础通信原理

redis cluster 节点间采取 gossip 协议进行通信

gossip:互相之间不断通信,保持整个集群所有节点的数据是完整的

高并发高可用复杂系统中的缓存架构(十四) redis集群通信

 

而集中式是将集群元数据(节点信息,故障,等等)集中存储在某个节点上;

经典的集中式中间件 zookeeper

高并发高可用复杂系统中的缓存架构(十四) redis集群通信

 

他们基本上都用于维护集群的元数据

集中式:

  • 优点:数据更新及时,时效好

    元数据的更新和读取,时效性非常好,一旦元数据出现了变更,立即就更新到集中式的存储中,其他节点读取的时候立即就可以感知到;

  • 缺点:数据更新压力集中

    所有的元数据的跟新压力全部集中在一个地方,可能会导致元数据的存储有压力

gossip:

  • 优点:数据更新压力分散

    元数据的更新比较分散,不是集中在一个地方,更新请求会陆陆续续,打到所有节点上去更新,有一定的延时,降低了压力;

  • 缺点:数据更新延迟

    元数据更新有延时,可能导致集群的一些操作会有一些滞后

可见 集中式 与 gossip 的优缺点是相互的。

gossip 的延迟在我们上一章节中迁移 slots 时(reshard),去做另外一个操作,会发现 configuration error,需要等待一会才能达成一致,配置数据才能同步成功

10000 端口

每个节点都有一个专门用于节点间通信的端口,就是自己提供服务的端口号 + 10000,比如 7001,那么用于节点间通信的就是 17001 端口

每个节点每隔一段时间都会往另外几个节点发送 ping 消息,同时其他几点接收到 ping 之后返回 pong

交换的信息

交换的信息有:故障信息、节点的增加和移除、hash slot 信息,等等

gossip 协议

gossip 协议包含多种消息,包括 ping、pong、meet、fail,等等

  • meet:

    某个节点发送 meet 给新加入的节点,让新节点加入集群中,然后新节点就会开始与其他节点进行通信

    redis-trib.rb add-node

    其实内部就是发送了一个 gossip meet 消息,给新加入的节点,通知那个节点去加入我们的集群

  • ping:

    每个节点都会频繁给其他节点发送 ping,其中包含自己的状态还有自己维护的集群元数据,互相通过 ping 交换元数据

    每个节点每秒都会频繁发送 ping 给其他的集群,ping,频繁的互相之间交换数据,互相进行元数据的更新

  • pong:

    返回 ping 和 meet,包含自己的状态和其他信息,也可以用于信息广播和更新

  • fail:

    某个节点判断另一个节点 fail 之后,就发送 fail 给其他节点,通知其他节点,指定的节点宕机了

ping 消息深入

ping 很频繁,而且要携带一些元数据,所以可能会加重网络负担

每个节点每秒会执行 10 次 ping,每次会选择 5 个最久没有通信的其他节点

当然如果发现某个节点通信延时达到了 cluster_node_timeout / 2,那么立即发送 ping,避免数据交换延时过长,落后的时间太长了

比如说,两个节点之间都 10 分钟没有交换数据了,那么整个集群处于严重的元数据不一致的情况,就会有问题

所以 cluster_node_timeout 可以调节,如果调节比较大,那么会降低发送的频率

每次 ping,一个是带上自己节点的信息,还有就是带上 1/10 其他节点的信息,发送出去,进行数据交换

至少包含 3 个其他节点的信息,最多包含总节点 -2 个其他节点的信息

面向集群的 jedis 内部实现原理

后面会使用 jedis,它是 redis 的 java client 客户端,支持 redis cluster

这里会讲解 jedis cluster api 与 redis cluster 集群交互的一些基本原理

基于重定向的客户端

redis-cli -c,可以提供自动重定的功能,那么对于 jedis 来说,下面是他的实现原理

请求重定向

客户端可能会挑选任意一个 redis 实例去发送命令,每个 redis 实例接收到命令,都会计算 key 对应的 hash slot

如果在本地就在本地处理,否则返回 moved 给客户端,让客户端进行重定向

cluster keyslot mykey,可以查看一个 key 对应的 hash slot 是什么

[[email protected] ~]# redis-cli -h 192.168.99.170 -p 7001
192.168.99.170:7001> cluster keyslot myke1
(integer) 12435
192.168.99.170:7001> cluster keyslot myke2
(integer) 240

用 redis-cli 的时候,可以加入 -c 参数,支持自动的请求重定向,redis-cli 接收到 moved 之后,会自动重定向到对应的节点执行命令

但是这样会有一个问题,可能会出现大部分命令都会接受到 moved 响应,也就是说可能一次写入会有两次请求,这个就很浪费性能

计算 hash slot

计算 hash slot 的算法,就是根据 key 计算 CRC16 值,然后对 16384 取模,拿到对应的 hash slot

用 hash tag 可以手动指定 key 对应的 slot,同一个 hash tag 下的 key,都会在一个 hash slot 中,比如 set mykey1:{100} 和 set mykey2:{100}

192.168.99.170:7001> set mykey1:{100} 1
OK
192.168.99.170:7001> set mykey2:{100} 2
OK
192.168.99.170:7001> set mykey1 1
OK
192.168.99.170:7001> set mykey2 2
(error) MOVED 14119 192.168.99.172:7005
192.168.99.170:7001> get mykey2
(error) MOVED 14119 192.168.99.172:7005
192.168.99.170:7001> get mykey2:{100}
"2"

可以看到,这个 tag 相当于你手动指定这个 key 路由到哪一个 solt 上去,那么只要手动了,以后查询也需要手动指定才行,所以这里需要先计算出 hash slot 的值,相当于在 redis 服务端的工作挪动到客户端来做了,这样减少了大量的 moved 请求

hash slot 查找

节点间通过 gossip 协议进行数据交换,就知道每个 hash slot 在哪个节点上

smart jedis

什么是 smart jedis

基于重定向的客户端,很消耗网络 IO,因为大部分情况下,可能都会出现一次请求重定向,才能找到正确的节点

所以大部分的客户端,比如 java redis 客户端(jedis),就是 smart 的

本地维护一份 hashslot -> node 的映射表,缓存起来,大部分情况下,直接走本地缓存就可以找到 hashslot -> node,不需要通过节点进行 moved 重定向

JedisCluster 的工作原理

  1. 在 JedisCluster 初始化的时候,就会随机选择一个 node,初始化 hashslot -> node 映射表,同时为每个节点创建一个 JedisPool 连接池

  2. 每次基于 JedisCluster 执行操作,首先 JedisCluster 都会在本地计算 key的 hashslot,然后在本地映射表找到对应的节点

  3. 如果那个 node 正好还是持有那个 hashslot,那么就 ok; 如果说进行了 reshard 这样的操作,可能 hashslot 已经不在那个 node 上了,就会返回 moved

  4. 如果 JedisCluter API 发现对应的节点返回 moved,那么利用该节点的元数据,更新本地的 hashslot -> node 映射表缓存

重复上面几个步骤,直到找到对应的节点,如果重试超过 5 次,那么就报错 JedisClusterMaxRedirectionException

jedis 老版本,可能会出现在集群某个节点故障还没完成自动切换恢复时,频繁更新 hash slot,频繁 ping 节点检查活跃,导致大量网络 IO 开销

jedis 最新版本,对于这些过度的 hash slot 更新和 ping,都进行了优化,避免了类似问题

hashslot 迁移和 ask 重定向

如果 hash slot 正在迁移,那么会返回 ask 重定向给 jedis

jedis 接收到 ask 重定向之后,会重新定位到目标节点去执行,但是因为 ask 发生在 hash slot 迁移过程中,所以 JedisCluster API 收到 ask 是不会更新 hashslot 本地缓存

已经可以确定 hashslot 已经迁移完了,访问会返回 moved, 那么是会更新本地 hashslot->node 映射表缓存的

高可用性与主备切换原理

redis cluster 的高可用的原理,几乎跟哨兵是类似的

  1. 判断节点宕机

    如果一个节点认为另外一个节点宕机,那么就是 pfail,主观宕机

    如果多个节点都认为另外一个节点宕机了,那么就是 fail,客观宕机,跟哨兵的原理几乎一样,sdown、odown

    在 cluster-node-timeout 内,某个节点一直没有返回 pong,那么就被认为 pfail

    如果一个节点认为某个节点 pfail 了,那么会在 gossip ping 消息中,ping 给其他节点,如果超过半数的节点都认为 pfail 了,那么就会变成 fail

  2. 从节点过滤

    对宕机的 master node,从其所有的 slave node 中,选择一个切换成 master node

    检查每个 slave node 与 master node 断开连接的时间,如果超过了 cluster-node-timeout * cluster-slave-validity-factor,那么就没有资格切换成 master

    这个也是跟哨兵是一样的,从节点超时过滤的步骤

  3. 从节点选举

    哨兵:对所有从节点进行排序,slave priority,offset,run id

    每个从节点,都根据自己对 master 复制数据的 offset,来设置一个选举时间,offset 越大(复制数据越多)的从节点,选举时间越靠前,优先进行选举

    所有的 master node 开始 slave 选举投票,给要进行选举的 slave 进行投票,如果大部分 master node(N/2 + 1)都投票给了某个从节点,那么选举通过,那个从节点可以切换成 master

    从节点执行主备切换,从节点切换为主节点

与哨兵比较

整个流程跟哨兵相比,非常类似,所以说,redis cluster 功能强大,直接集成了 replication 和 sentinal 的功能

没有办法去给大家深入讲解 redis 底层的设计的细节,核心原理和设计的细节,那个除非单独开一门课,redis 底层原理深度剖析,redis 源码

对于咱们这个架构课来说,主要关注的是架构,不是底层的细节,对于架构来说,核心的原理的基本思路,是要梳理清晰的

 

redis使用过程中遇到的问题

fork 耗时导致高并发请求延时

RDB 和 AOF 的时候会存在 RDB 快照生成、AOF rewrite,耗费磁盘 IO 的过程

主进程 fork 子进程的时候,子进程是需要拷贝父进程的空间内存页表的,也是会耗费一定的时间的

一般来说,如果父进程内存有 1 个 G 的数据,那么 fork 可能会耗费在 20ms 左右,如果是 10G~30G,那么就会耗费 20 * 10,甚至 20 * 30,也就是几百毫秒的时间

info stats 中的 latest_fork_usec,可以看到最近一次 fork 的时长

redis 单机 QPS 一般在几万,fork 可能一下子就会拖慢几万条操作的请求时长,从几毫秒变成 1 秒

优化思路:fork 耗时跟 redis 主进程的内存有关系,一般控制 redis 的内存在 10GB 以内;否则 slave -> master 在全量复制等时候就可能会出现一些问题

AOF 的阻塞问题

redis 将数据写入 AOF 缓冲区,单独开一个线程做 fsync 操作,每秒一次

但是 redis 主线程会检查两次 fsync 的时间,如果距离上次 fsync 时间超过了 2 秒,那么写请求就会阻塞

everysec,最多丢失 2 秒的数据

一旦 fsync 超过 2 秒的延时,整个 redis 就被拖慢

优化思路:优化硬盘写入速度,建议采用 SSD,不要用普通的机械硬盘,SSD 大幅度提升磁盘读写的速度

主从复制延迟问题

主从复制可能会超时严重,这个时候需要良好的监控和报警机制

在 info replication 中,可以看到 master 和 slave 复制的 offset,做一个差值就可以看到对应的延迟量,如果延迟过多,那么就进行报警(可以写一个 shell 脚本去监控)

主从复制风暴问题

如果一下子让多个 slave 从 master 去执行全量复制,一份大的 rdb 同时发送到多个 slave,会导致网络带宽被严重占用

如果一个 master 真的要挂载多个 slave,那尽量用树状结构,不要用星型结构

高并发高可用复杂系统中的缓存架构(十四) redis集群通信

 

树,意思就是说,让一个节点下面的 slave 不要太多,可以通过 replication 的方式去配置

如果是在 redis cluster 中应该不会存在这种问题

vm.overcommit_memory

该信息是在 redis 启动的时候一些警告信息,这些警告信息可以通过调整 linux 内核配置达到性能的优化

[[email protected] ~]# cat /var/log/redis/7008.log
1418:M 24 Mar 13:10:59.513 * Increased maximum number of open files to 10032 (it was originally set to 1024).
1418:M 24 Mar 13:10:59.513 # Warning: 32 bit instance detected but no memory limit set. Setting 3 GB maxmemory limit with 'noeviction' policy now.
1418:M 24 Mar 13:10:59.513 * No cluster configuration found, I'm 728e473d6e5e36ddb051c600c7708f23733c46f7
                _._                                                  
           _.-``__ ''-._                                             
      _.-``    `.  `_.  ''-._           Redis 3.2.8 (00000000/0) 32 bit
  .-`` .-```.  ```\/    _.,_ ''-._                                   
 (    '      ,       .-`  | `,    )     Running in cluster mode
 |`-._`-...-` __...-.``-._|'` _.-'|     Port: 7008
 |    `-._   `._    /     _.-'    |     PID: 1418
  `-._    `-._  `-./  _.-'    _.-'                                   
 |`-._`-._    `-.__.-'    _.-'_.-'|                                  
 |    `-._`-._        _.-'_.-'    |           http://redis.io        
  `-._    `-._`-.__.-'_.-'    _.-'                                   
 |`-._`-._    `-.__.-'    _.-'_.-'|                                  
 |    `-._`-._        _.-'_.-'    |                                  
  `-._    `-._`-.__.-'_.-'    _.-'                                   
      `-._    `-.__.-'    _.-'                                       
          `-._        _.-'                                           
              `-.__.-'                                               
​
1418:M 24 Mar 13:10:59.626 # WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value of 128.
1418:M 24 Mar 13:10:59.626 # Server started, Redis version 3.2.8
1418:M 24 Mar 13:10:59.626 # WARNING overcommit_memory is set to 0! Background save may fail under low memory condition. To fix this issue add 'vm.overcommit_memory = 1' to /etc/sysctl.conf and then reboot or run the command 'sysctl vm.overcommit_memory=1' for this to take effect.
​
  • 0: 检查有没有足够内存,没有的话申请内存失败

  • 1: 允许使用内存直到用完为止

  • 2: 内存地址空间不能超过 swap + 50%

如果是 0 的话,可能导致类似 fork 等操作执行失败,申请不到足够的内存空间

下面的命令在日志里面就已经提示出来了

cat /proc/sys/vm/overcommit_memory
echo "vm.overcommit_memory=1" >> /etc/sysctl.conf
sysctl vm.overcommit_memory=1

swapiness

# 查看 linux 内核版本
cat /proc/version

如果 linux 内核版本 <3.5,那么 swapiness 设置为0,这样系统宁愿 swap也不会 oom killer(杀掉进程)

如果 linux 内核版本 >=3.5,那么 swapiness 设置为 1,这样系统宁愿 swap 也不会 oom killer

保证 redis 不会被杀掉

echo 0 > /proc/sys/vm/swappiness
echo vm.swapiness=0 >> /etc/sysctl.conf

最大打开文件句柄

Increased maximum number of open files to 10032 (it was originally set to 1024).
# 如果该命令不可用,可以去百度搜索不同的版本命令
ulimit -n 10032 10032

自己去上网搜一下,不同的操作系统,版本,设置的方式都不太一样

tcp backlog

WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value of 128.