在分布式系统中为了解决单点问题,通常会把数据复制多个副本部署到其他机器,满足故障恢复和负载均衡等需求。
Redis也是如此,它为我们提供了复制功能,实现了相同数据的多个Redis副本。
复制功能是高可用Redis的基础,后面章节的哨兵和集群都是在复制的基础上实现高可用的。
复制也是Redis日常运维的常见维护点。因此深刻理解复制的工作原理与使用技巧对我们日常开发运维非常有帮助。
参与复制的Redis实例划分为主节点(master)和从节点(slave)。
默认情况下,Redis都是主节点。每个从节点只能有一个主节点,而主节点可以同时具有多个从节点。
复制的数据流是单向的,只能由主节点复制到从节点。配置复制的方式有以下三种:
综上所述,slaveof命令在使用时,可以运行期动态配置,也可以提前写到配置文件中。
例如本地启动两个端口为6379和6380的Redis节点,在127.0.0.1:6380执行如下命令:
127.0.0.1:6380>slaveof 127.0.0.1 6379
slaveof配置都是在从节点发起,这时6379作为主节点,6380作为从节点。复制关系建立后执行如下命令测试:
127.0.0.1:6379>set hello redis OK 127.0.0.1:6379>get hello 352 "redis" 127.0.0.1:6380>get hello "redis"
从运行结果中看到复制已经工作了,针对主节点6379的任何修改都可以同步到从节点6380中,复制过程如图6-1所示。
slaveof本身是异步命令,执行slaveof命令时,节点只保存主节点信息后返回,后续复制流程在节点内部异步执行,具体细节见之后6-3复制原理小节。
主从节点复制成功建立后,可以使用info replication命令查看复制相关状态,如下所示。
127.0.0.1:6379>info replication # Replication role:master connected_slaves:1 slave0:ip=127.0.0.1,port=6379,state=online,offset=43,lag=0 ....
127.0.0.1:6380>info replication # Replication role:slave master_host:127.0.0.1 master_port:6380 master_link_status:up master_last_io_seconds_ago:4 master_sync_in_progress:0 ...
slaveof命令不但可以建立复制,还可以在从节点执行slaveof no one来断开与主节点复制关系。
例如在6380节点上执行slaveof no one来断开复制,如图6-2所示。
断开复制主要流程:
从节点断开复制后并不会抛弃原有数据,只是无法再获取主节点上的数据变化。
通过slaveof命令还可以实现切主操作,所谓切主是指把当前从节点对主节点的复制切换到另一个主节点。
执行slaveof{newMasterIp}{newMasterPort}命令即可,例如把6380节点从原来的复制6379节点变为复 制6381节点,如图6-3所示。
切主操作流程如下:
运维提示
切主后从节点会清空之前所有的数据,线上人工操作时小心slaveof在错误的节点上执行或者指向错误的主节点。
对于数据比较重要的节点,主节点会通过设置requirepass参数进行密码验证,这时所有的客户端访问必须使用auth命令实行校验。
从节点与主节点的复制连接是通过一个特殊标识的客户端来完成,因此需要配置从节点的masterauth参数与主节点密码保持一致,这样从节点才可以正确地连接到主节点并发起复制流程。
默认情况下,从节点使用slave-read-only=yes配置为只读模式。
由于复制只能从主节点到从节点,对于从节点的任何修改主节点都无法感知,修改从节点会造成主从数据不一致。
因此建议线上不要修改从节点的只读模式。
主从节点一般部署在不同机器上,复制时的网络延迟就成为需要考虑的问题,Redis为我们提供了repl-disable-tcp-nodelay参数用于控制是否关闭TCP_NODELAY,默认关闭,说明如下:
运维提示
部署主从节点时需要考虑网络延迟、带宽使用率、防灾级别等因素,
如要求低延迟时,建议同机架或同机房部署并关闭repl-disable-tcp-nodelay;
如果考虑高容灾性,可以同城跨机房部署并开启repl-disable-tcp-nodelay。
Redis的复制拓扑结构可以支持单层或多层复制关系,根据拓扑复杂性可以分为以下三种:一主一从、一主多从、树状主从结构,下面分别介绍。
一主一从结构是最简单的复制拓扑结构,用于主节点出现宕机时从节点提供故障转移支持(如图6-4所示)。
当应用写命令并发量较高且需要持久化时,可以只在从节点上开启AOF,这样既保证数据安全性同时也避免了持 久化对主节点的性能干扰。
但需要注意的是,当主节点关闭持久化功能时,
如果主节点脱机要避免自动重启操作。因为主节点之前没有开启持久化功能自动重启后数据集为空,这时从节点如果继续复制主节点会导致从节点数据也被清空的情况,丧失了持久化的意义。
安全的做法是在从节点上执行slaveof no one断开与主节点的复制关系,再重启主节点从而避免这一问题。
一主多从结构(又称为星形拓扑结构)使得应用端可以利用多个从节点实现读写分离(见图6-5)。
对于读占比较大的场景,可以把读命令发送到从节点来分担主节点压力。
同时在日常开发中如果需要执行一些比较耗时的读命令,如:keys、sort等,可以在其中一台从节点上执行,防止慢查询对主节点造成阻塞从而影响线上服务的稳定性。
对于写并发量较高的场景,多个从节点会导致主节点写命令的多次发送从而过度消耗网络带宽,同时也加重了主节点的负载影响服务稳定性。
树状主从结构(又称为树状拓扑结构)使得从节点不但可以复制主节点数据,同时可以作为其他从节点的主节点继续向下层复制。
通过引入复制中间层,可以有效降低主节点负载和需要传送给从节点的数据量。
如图6-6所示,数据写入节点A后会同步到B和C节点,B节点再把数据同步到D和E节点,数据实现了一层一层的向下复制。
当主节点需要挂载多个从节点时为了避免对主节点的性能干扰,可以采用树状主从结构降低主节点压力。
在从节点执行slaveof命令后,复制过程便开始运作,下面详细介绍建立复制的完整流程,如图6-7所示。
从图中可以看出复制过程大致分为6个过程:
保存主节点(master)信息。
执行slaveof后从节点只保存主节点的地址信息便直接返回,这时建立复制流程还没有开始,在从节点6380执行info replication可以看到如下信息:
master_host:127.0.0.1 master_port:6379 master_link_status:down
从统计信息可以看出,主节点的ip和port被保存下来,但是主节点的连 接状态(master_link_status)是下线状态。执行slaveof后Redis会打印如下日志:
SLAVE OF 127.0.0.1:6379 enabled (user request from 'id=65 addr=127.0.0.1:58090 fd=5 name= age=11 idle=0 flags=N db=0 sub=0 psub=0 multi=-1 qbuf=0 qbuf-free= 32768 obl=0 oll=0 omem=0 events=r cmd=slaveof')
通过该日志可以帮助运维人员定位发送slaveof命令的客户端,方便追踪和发现问题。
从节点会建立一个socket套接字,例如图6-8中从节点建立了一个端口为24555的套接字,专门用于接受主节点发送的复制命令。
从节点连接成功后打印如下日志:
* Connecting to MASTER 127.0.0.1:6379 * MASTER <-> SLAVE sync started
如果从节点无法建立连接,定时任务会无限重试直到连接成功或者执行slaveof no one取消复制,如图6-9所示。
关于连接失败,可以在从节点执行info replication查看master_link_down_since_seconds指标,它会记录与主节点连接失败的系统时间。
从节点连接主节点失败时也会每秒打印如下日志,方便运维人员发现问题:
# Error condition on socket for SYNC: {socket_error_reason}
如果发送ping命令后,从节点没有收到主节点的pong回复或者超时,比如网络超时或者主节点正在阻塞无法响应命令,从节点会断开复制连接,下次定时任务会发起重连,如图6-10所示。
从节点发送的ping命令成功返回,Redis打印如下日志,并继续后续复制流程:
Master replied to PING, replication can continue...
权限验证。如果主节点设置了requirepass参数,则需要密码验证,从节点必须配置masterauth参数保证与主节点相同的密码才能通过验证;如果验证失败复制将终止,从节点重新发起复制流程。
同步数据集。主从复制连接正常通信后,对于首次建立复制的场景,主节点会把持有的数据全部发送给从节点,这部分操作是耗时最长的步骤。Redis在2.8版本以后采用新复制命令psync进行数据同步,原来的sync命令依然支持,保证新旧版本的兼容性。新版同步划分两种情况:全量同步和部分同步,下一节将重点介绍。
命令持续复制。当主节点把当前的数据同步给从节点后,便完成了复制的建立流程。接下来主节点会持续地把写命令发送给从节点,保证主从数据一致性。
Redis在2.8及以上版本使用psync命令完成主从数据同步,同步过程分为:全量复制和部分复制。
部分复制是对老版复制的重大优化,有效避免了不必要的全量复制操作。因此当使用复制功能时,尽量采用2.8以上版本的Redis。psync命令运行需要以下组件支持:
参与复制的主从节点都会维护自身复制偏移量。主节点(master)在处理完写入命令后,会把命令的字节长度做累加记录,统计信息在inforelication中的master_repl_offset指标中:
127.0.0.1:6379> info replication # Replication role:master ... master_repl_offset:1055130
从节点(slave)每秒钟上报自身的复制偏移量给主节点,因此主节点也会保存从节点的复制偏移量,统计指标如下:
127.0.0.1:6379> info replication connected_slaves:1 slave0:ip=127.0.0.1,port=6380,state=online,offset=1055214,lag=1 ...
从节点在接收到主节点发送的命令后,也会累加记录自身的偏移量。统计信息在info relication中的slave_repl_offset指标中:
127.0.0.1:6380> info replication # Replication role:slave ... slave_repl_offset:1055214
复制偏移量的维护如图6-11所示。通过对比主从节点的复制偏移量,可以判断主从节点数据是否一致。
运维提示
可以通过主节点的统计信息,计算出master_repl_offset-slave_offset字节量,
判断主从节点复制相差的数据量,根据这个差值判定当前复制的健康度。
如果主从之间复制偏移量相差较大,则可能是网络延迟或命令阻塞等原因引起。
复制积压缓冲区是保存在主节点上的一个固定长度的队列,默认大小为1MB,当主节点有连接的从节点(slave)时被创建,这时主节点(master)响应写命令时,不但会把命令发送给从节点,还会写入复制积压缓冲区,如 图6-12所示。
由于缓冲区本质上是先进先出的定长队列,所以能实现保存最近已复制数据的功能,用于部分复制和复制命令丢失的数据补救。复制缓冲区相关统计信息保存在主节点的info replication中:
127.0.0.1:6379> info replication # Replication role:master ... repl_backlog_active:1 // 开启复制缓冲区 repl_backlog_size:1048576 // 缓冲区最大长度 repl_backlog_first_byte_offset:7479 // 起始偏移量,计算当前缓冲区可用范围 repl_backlog_histlen:1048576 // 已保存数据的有效长度。 根据统计指标,可算出复制积压缓冲区内的可用偏移量范围: [repl_backlog_first_byte_offset
repl_backlog_first_byte_offset+repl_backlog_histlen]。更多复制缓冲区的细节见6.3.4节“部分复制”。
每个Redis节点启动后都会动态分配一个40位的十六进制字符串作为运行ID。
运行ID的主要作用是用来唯一识别Redis节点,比如从节点保存主节点的运行ID识别自己正在复制的是哪个主节点。
如果只使用ip+port的方式识别主节点,那么主节点重启变更了整体数据集(如替换RDB/AOF文件),
从节点再基于偏移量复制数据将是不安全的,因此当运行ID变化后从节点将做全量复制。
可以运行info server命令查看当前节点的运行ID:
127.0.0.1:6379> info server # Server redis_version:3.0.7 ... run_id:545f7c76183d0798a327591395b030000ee6def9
需要注意的是Redis关闭再启动后,运行ID会随之改变,例如执行如下命令:
# redis-cli -p 6379 info server | grep run_id run_id:545f7c76183d0798a327591395b030000ee6def9 # redis-cli -p shutdown # redis-server redis-6379.conf # redis-cli -p 6379 info server | grep run_id run_id:2b2ec5f49f752f35c2b2da4d05775b5b3aaa57ca
如何在不改变运行ID的情况下重启呢?
当需要调优一些内存相关配置,例如:hash-max-ziplist-value等,这些配置需要Redis重新加载才能优化已存在的数据,这时可以使用debug reload命令重新加载RDB并保持运行ID不变,从而有效避免不必要的全量复制。命令 如下:
# redis-cli -p 6379 info server | grep run_id run_id:2b2ec5f49f752f35c2b2da4d05775b5b3aaa57ca # redis-cli debug reload OK # redis-cli -p 6379 info server | grep run_id run_id:2b2ec5f49f752f35c2b2da4d05775b5b3aaa57ca
运维提示
debug reload命令会阻塞当前Redis节点主线程,阻塞期间会生成本地RDB快照并清空数据之后再加载RDB文件。
因此对于大数据量的主节点和无法容忍阻塞的应用场景,谨慎使用。
从节点使用psync命令完成部分复制和全量复制功能,命令格式:psync{runId}{offset},参数含义如下:
psync命令运行流程如图6-13所示。
流程说明:
全量复制是Redis最早支持的复制方式,也是主从第一次建立复制时必须经历的阶段。
触发全量复制的命令是sync和psync,它们的对应版本如图6-14所示。
这里主要介绍psync全量复制流程,它与2.8以前的sync全量复制机制基本一致。全量复制的完整运行流程如图6-15所示。
流程说明:
Partial resynchronization not possible (no cached master) Full resync from master: 92d1cb14ff7ba97816216f7beb839efe036775b2:216789
M * Full resync requested by slave 127.0.0.1:6380 M * Starting BGSAVE for SYNC with target: disk C * Background saving started by pid 32618 C * RDB: 0 MB of memory used by copy-on-write M * Background saving terminated with success
运维提示
Redis3.0之后在输出的日志开头会有M、S、C等标识,对应的含义是:
我们可以根据日志标识快速识别出每行日志的角色信息。
16:24:03.057 * MASTER <-> SLAVE sync: receiving 24777842 bytes from master
需要注意,对于数据量较大的主节点,比如生成的RDB文件超过6GB以上时要格外小心。
传输文件这一步操作非常耗时,速度取决于主从节点之间网络带宽,通过细致分析Full resync和MASTER<->SLAVE这两行日志的时间差,可以算出RDB文件从创建到传输完毕消耗的总时间。
如果总时间超过repl-timeout所配置的值(默认60秒),从节点将放弃接受RDB文件并清理已经下载的临时文件,导致全量复制失败,此时从节点打印如下日志:
M 27 May 12:10:31.169 # Timeout receiving bulk data from MASTER... If the problem persists try to set the 'repl-timeout' parameter in redis.conf to a larger value.
针对数据量较大的节点,建议调大repl-timeout参数防止出现全量同步数据超时。
例如对于千兆网卡的机器,网卡带宽理论峰值大约每秒传输100MB,在不考虑其他进程消耗带宽的情况下,6GB的RDB文件至少需要60秒传输时间,默认配置下,极易出现主从数据同步超时。
关于无盘复制:
为了降低主节点磁盘开销,Redis支持无盘复制,生成的RDB文件不保存到硬盘而是直接通过网络发送给从节点,通过repldiskless-sync参数控制,默认关闭。
无盘复制适用于主节点所在机器磁盘性能较差但网络带宽较充裕的场景。注意无盘复制目前依然处于试验阶段,线 上使用需要做好充分测试。
对于从节点开始接收RDB快照到接收完成期间,主节点仍然响应读写命令,因此主节点会把这期间写命令数据保存在复制客户端缓冲区内,当从节点加载完RDB文件后,主节点再把缓冲区内的数据发送给从节点,保证主从之间数据一致性。如果主节点创建和传输RDB的时间过长,对于高流量写入场景非常容易造成主节点复制客户端缓冲区溢出。
默认配置为clientoutput-buffer-limit slave256MB64MB60,如果60秒内缓冲区消耗持续大于 64MB或者直接超过256MB时,主节点将直接关闭复制客户端连接,造成全量同步失败。对应日志如下:
M 27 May 12:13:33.669 # Client id=2 addr=127.0.0.1:24555 age=1 idle=1 flags=S qbuf=0 qbuf-free=0 obl=18824 oll=21382 omem=268442640 events=r cmd=psync scheduled to be closed ASAP for overcoming of output buffer limits.
因此,运维人员需要根据主节点数据量和写命令并发量调整clientoutput-buffer-limit slave配置,避免全量复制期间客户端缓冲区溢出。
对于主节点,当发送完所有的数据后就认为全量复制完成,
打印成功日志:Synchronization with slave127.0.0.1:6380succeeded,但是对于从节点全 量复制依然没有完成,还有后续步骤需要处理。
16:24:02.234 * MASTER <-> SLAVE sync: Flushing old data
8)从节点清空数据后开始加载RDB文件,对于较大的RDB文件,这一步操作依然比较耗时,可以通过计算日志之间的时间差来判断加载RDB的总耗时,对应如下日志:
16:24:03.578 * MASTER <-> SLAVE sync: Loading DB in memory 16:24:06.756 * MASTER <-> SLAVE sync: Finished with success
对于线上做读写分离的场景,从节点也负责响应读命令。
如果此时从节点正出于全量复制阶段或者复制中断,那么从节点在响应读命令可能拿到过期或错误的数据。
对于这种场景,Redis复制提供了slave-serve-stale-data参数,默认开启状态。
如果开启则从节点依然响应所有命令。对于无法容忍不一致的应用场景可以设置no来关闭命令执行,此时从节点除了info和slaveof命令之外所有的命令只返回“SYNC with master in progress”信息。 9) 从节点成功加载完RDB后,如果当前节点开启了AOF持久化功能,它会立刻做bgrewriteaof操作,为了保证全量复制后AOF持久化文件立刻可用。AOF持久化的开销和细节见5.2节“AOF”。
通过分析全量复制的所有流程,读者会发现全量复制是一个非常耗时费力的操作。它的时间开销主要包括:
因此当数据量达到一定规模之后,由于全量复制过程中将进行多次持久化相关操作和网络数据传输,这期间会大量消耗主从节点所在服务器的CPU、内存和网络资源。
所以除了第一次复制时采用全量复制在所难免之外,对于其他场景应该规避全量复制的发生。正因为全量复制的成本 问题,Redis实现了部分复制功能。
部分复制主要是Redis针对全量复制的过高开销做出的一种优化措施,
使用psync{runId}{offset}命令实现。
当从节点(slave)正在复制主节点(master)时,如果出现网络闪断或者命令丢失等异常情况时,从节点会向 主节点要求补发丢失的命令数据,如果主节点的复制积压缓冲区内存在这部分数据则直接发送给从节点,这样就可以保持主从节点复制的一致性。
补发的这部分数据一般远远小于全量数据,所以开销很小。部分复制的流程如图6-16所示。
流程说明:
如果此时从节点没有宕机,也会打印与主节点连接丢失日志:M # Disconnecting timedout slave: 127.0.0.1:6380 M # Connection with slave 127.0.0.1:6380 lost.
S # Connection with master lost. S * Caching the disconnected master state.
S * Connecting to MASTER 127.0.0.1:6379 S * MASTER <-> SLAVE sync started S * Non blocking connect for SYNC fired the event. S * Master replied to PING, replication can continue...
S * Trying a partial resynchronization (request 2b2ec5f49f752f35c2b2da4d05775b5 b3aaa57ca:49768480).
S * Successful partial resynchronization with master. S * MASTER <-> SLAVE sync: Master accepted a Partial Resynchronization.
从日志中可以发现这次部分复制只同步了78字节,传递的数据远远小于全量数据。M * Slave 127.0.0.1:6380 asks for synchronization M * Partial resynchronization request from 127.0.0.1:6380 accepted. Sending 78 bytes of backlog starting from offset 49769216.
主从节点在建立复制后,它们之间维护着长连接并彼此发送心跳命令,如图6-17所示。
主从心跳判断机制:
主节点根据replconf命令判断从节点超时时间,体现在info replication统计中的lag信息中,lag表示与从节点最后一次通信延迟的秒数,正常延迟应该在0和1之间。
如果超过repl-timeout配置的值(默认60秒),则判定从节点下线并断开复制客户端连接。
即使主节点判定从节点下线后,如果从节点重新恢复,心跳检测会继续进行。
运维提示
为了降低主从延迟,一般把Redis主从节点部署在相同的机房/同城机房,
避免网络延迟和网络分区造成的心跳中断等情况。
主节点不但负责数据读写,还负责把写命令同步给从节点。
写命令的发送过程是异步完成,也就是说主节点自身处理完写命令后直接返回给客户端,并不等待从节点复制完成,如图6-18所示。
主节点复制流程:
由于主从复制过程是异步的,就会造成从节点的数据相对主节点存在延迟。
具体延迟多少字节,我们可以在主节点执行info replication命令查看相关指标获得。如下:
slave0:ip=127.0.0.1,port=6380,state=online,offset=841,lag=1 master_repl_offset:841
在统计信息中可以看到从节点slave0信息,分别记录了从节点的ip和port,
从节点的状态,offset表示当前从节点的复制偏移量,
master_repl_offset表示当前主节点的复制偏移量,两者的差值就是当前从节点复制延迟量。
Redis的复制速度取决于主从之间网络环境,repl-disabletcp-nodelay,命令处理速度等。
正常情况下,延迟在1秒以内。
理解了复制原理之后,本节我们重点分析基于复制的应用场景。
通过复制机制,数据集可以存在多个副本(从节点)。这些副本可以应用于读写分离、故障转移(failover)、实时备份等场景。但是在实际应用复制功能时,依然有一些坑需要跳过。
对于读占比较高的场景,可以通过把一部分读流量分摊到从节点(slave)来减轻主节点(master)压力,同时需要注意永远只对主节点执行写操作,如图6-19所示。
当使用从节点响应读请求时,业务端可能会遇到如下问题:
Redis复制数据的延迟由于异步复制特性是无法避免的,延迟取决于网络带宽和命令阻塞情况,比如刚在主节点写入数据后立刻在从节点上读取可能获取不到。
需要业务场景允许短时间内的数据延迟。对于无法容忍大量延迟场景,可以编写外部监控程序监听主从节点的复制偏移量,当延迟较大时触发报警或者通知客户端避免读取延迟过高的从节点,实现逻辑如图6-20所示。
说明如下:
监控程序(monitor)定期检查主从节点的偏移量,主节点偏移量在info replication的master_repl_offset指标记录,从节点偏移量可以查询主节点的slave0字段的offset指标,它们的差值就是主从节点延迟的字节量。
当延迟字节量过高时,比如超过10MB。监控程序触发报警并通知客户端从节点延迟过高。可以采用Zookeeper的监听回调机制实现客户端通知。
客户端接到具体的从节点高延迟通知后,修改读命令路由到其他从节点或主节点上。当延迟恢复后,再次通知客户端,恢复从节点的读命令请求。
这种方案的成本比较高,需要单独修改适配Redis的客户端类库。
如果涉及多种语言成本将会扩大。客户端逻辑需要识别出读写请求并自动路由,还需要维护故障和恢复的通知。采用此方案视具体的业务而定,如果允许不一致性或对延迟不敏感的业务可以忽略,也可以采用Redis集群方案做水平扩展。
当主节点存储大量设置超时的数据时,如缓存数据,Redis内部需要维护过期数据删除策略,删除策略主要有两种:惰性删除和定时删除,具体细节见8.2节“内存管理”。
如果此时数据大量超时,主节点采样速度跟不上过期速度且主节点没有读取过期键的操作,那么从节点将无法收到del命令。这时在从节点上可以读取到已经超时的数据。
Redis在3.2版本解决了这个问题,从节点读取数据之前会检查键的过期时间来决定是否返回数据,可以升级到3.2版本来规避这个问题。
对于从节点的故障问题,需要在客户端维护可用从节点列表,当从节点故障时立刻切换到其他从节点或主节点上。
这个过程类似上文提到的针对延迟过高的监控处理,需要开发人员改造客户端类库。综上所出,使用Redis做读写分离存在一定的成本。
Redis本身的性能非常高,开发人员在使用额外的从节点提升读性能之前,尽量在主节点上做充分优化,比如解决慢查询,持久化阻塞,合理应用数据结构等,当主节点优化空间不大时再考虑扩展。
笔者建议大家在做读写分离之前,可以考虑使用Redis Cluster等分布式解决方案,这样不止扩展了读性能还可以扩展写性能和可支撑数据规模,并且一致性和故障转移也可以得到保证,对于客户端的维护逻辑也相对容易。
主从配置不一致是一个容易忽视的问题。对于有些配置主从之间是可以不一致,
比如:主节点关闭AOF在从节点开启。但对于内存相关的配置必须要一致,比如maxmemory,hash-max-ziplist-entries等参数。
当配置的maxmemory从节点小于主节点,如果复制的数据量超过从节点maxmemory 时,它会根据maxmemory-policy策略进行内存溢出控制,此时从节点数据已经丢失,但主从复制流程依然正常进行,复制偏移量也正常。
修复这类问题也只能手动进行全量复制。当压缩列表相关参数不一致时,虽然主从节点存储的数据一致但实际内存占用情况差异会比较大。
更多压缩列表细节见8.3节“内存管理”。
全量复制是一个非常消耗资源的操作,前面做了具体说明。因此如何规避全量复制是需要重点关注的运维点。下面我们对需要进行全量复制的场景逐个分析:
针对这种情况需要根据网络中断时长,写命令数据量分析出合理的积压缓冲区大小。
网络中断一般有闪断、机房割接、网络分区等情况。这时网络中断的时长一般在分钟级(net_break_time)。写命令数据量可以统计高峰期主节点每秒info replication的master_repl_offset差值获取(write_size_per_minute)。
积压缓冲区默认为1MB,对于大流量场景显然不够,这时需要增大积压缓冲区,保证 repl_backlog_size>net_break_time*write_size_per_minute,从而避免因复制积压缓冲区不足造成的全量复制。
复制风暴是指大量从节点对同一主节点或者对同一台机器的多个主节点短时间内发起全量复制的过程。复制风暴对发起复制的主节点或者机器造成大量开销,导致CPU、内存、带宽消耗。
因此我们应该分析出复制风暴发生的场景,提前采用合理的方式规避。规避方式有如下几个。
单主节点复制风暴一般发生在主节点挂载多个从节点的场景。当主节点重启恢复后,从节点会发起全量复制流程,这时主节点就会为从节点创建RDB快照,如果在快照创建完毕之前,有多个从节点都尝试与主节点进行全量同步,那么其他从节点将共享这份RDB快照。
这点Redis做了优化,有效避免了创建多个快照。但是,同时向多个从节点发送RDB快照,可能使主节 点的网络带宽消耗严重,造成主节点的延迟变大,极端情况会发生主从节点连接断开,导致复制失败。
解决方案首先可以减少主节点(master)挂载从节点(slave)的数量,或者采用树状复制结构,加入中间层从节点用来保护主节点,如图6-23所示。
从节点采用树状树非常有用,网络开销交给位于中间层的从节点,而不必消耗顶层的主节点。但是这种树状结构也带来了运维的复杂性,增加了手动和自动处理故障转移的难度。
由于Redis的单线程架构,通常单台机器会部署多个Redis实例。当一台机器(machine)上同时部署多个主节点(master)时,如图6-24所示。
如果这台机器出现故障或网络长时间中断,当它重启恢复后,会有大量从节点(slave)针对这台机器的主节点进行全量复制,会造成当前机器网络带宽耗尽。 如何避免?方法如下:
本文作者:Eric
本文链接:
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!