Redis持久化
Redis持久化(学习笔记)
持久化过程保存什么
- 将当前数据状态进行保存,快照形式,存储数据结果,存储格式简单,关注点在数据
- 将数据的操作过程进行保存,日志形式,存储操作过程,存储格式复杂,关注点在数据的操作过程
①RDB
RDB启动方式1——save命令
谁?什么时间?干什么事儿
- 谁:redis操作者(用户)
- 什么时间:即时(随时进行)
- 干什么事儿:保存数据
save //手动执行一次保存操作
RDB启动方式 1—— save指令相关配置信息
- dbfilename dump.rdb 说明:设置本地数据库文件名,默认值为 dump.rdb 经验:通常设置为dump-端口号.rdb
- dir 说明:设置存储.rdb文件的路径 经验:通常设置成存储空间较大的目录中,目录名称data
- rdbcompression yes 说明:设置存储至本地数据库时是否压缩数据,默认为 yes,采用 LZF 压缩 经验:通常默认为开启状态,如果设置为no,可以节省 CPU 运行时间,但会使存储的文件变大(巨大)
- rdbchecksum yes 说明:设置是否进行RDB文件格式校验,该校验过程在写文件和读文件过程均进行 经验:通常默认为开启状态,如果设置为no,可以节约读写性过程约10%时间消耗,但是存储一定的数据损坏风险
RDB启动方式1 —— save指令工作原理
? 由于redis是单线程任务执行序列,当多个客户端用同一个redis服务器时,服务器会按照发送过来的命令依次执行,这样可能会造成save指令的执行会阻塞当前Redis服务器,直到RDB过程完成为止,有可能会造成长时间阻塞,线上环境不介意使用
RDB启动方式 2—— bgsave指令
bgsave //手动启动后台保存操作,但不是立即执行
RDB启动方式2 —— bgsave指令工作原理
优点:调用linux内核的fork函数来决定先执行哪一个命令,能够解决save命令长时间占用资源的情况。
执行bgsave命令后,出现“Background saving started”提示
注意:bgsave命令是针对save阻塞问题做的优化。Redis内部所有涉及到RDB操作都采用bgsave的方式,save命令可以放弃使用。
RDB启动方式 2—— bgsave指令相关配置
-
stop-writes-on-bgsave-error yes
说明:后台存储过程中如果出现错误现象,是否停止保存操作
经验:通常默认为开启状态
RDB启动方式3——服务器按照指定规则自动存储
问题:反复执行保存指令,忘记了怎么办?不知道数据产生了多少变化,何时保存?
解决:
谁?什么时间?干什么事儿
- 谁:redis服务器发起指令(基于条件)
- 什么时间:满足条件
- 干什么事儿:保存数据
RDB启动方式3 ——save配置
-
配置
save second changes
-
作用
? 满足限定时间范围内key的变化数量达到指定数量即进行持久化
-
参数
? seconds : 监控时间范围
? changes :监控key的变化量
-
位置
? 在conf文件里进行配置
-
范例
save 900 1 save 300 10 save 60 10000 //时间和变化量更具真实场景尽量成互补的状态
RDB启动方式 3——save配置原理
注意:
- save配置要根据实际业务情况进行设置,频度过高或过低都会出现性能问题,结果可能是灾难性的
- save配置中对于second与changes设置通常具有互补对应关系,尽量不要设置成包含性关系
- save配置启动后执行的是bgsave操作
三种方式的对比
rdb特殊启动形式
-
全量复制
-
服务器运行过程中重启
debug reload
-
关闭服务器时指定保存数据
shutdown save
? 默认情况下执行shutdown命令时,自动执行 bgsave(如果没有开启 AOF持久化功能)
RDB优点
- RDB是一个紧凑压缩的二进制文件,存储效率较高
- RDB内部存储的是redis在某个时间点的数据快照,非常适合用于数据备份,全量复制等场景
- RDB恢复数据的速度要比AOF快很多
- 应用:服务器中每X小时执行bgsave备份,并将RDB文件拷贝到远程机器中,用于灾难恢复。
RDB缺点
- RDB方式无论是执行指令还是利用配置,无法做到实时持久化,具有较大的可能性丢失数据
- bgsave指令每次运行要执行fork操作创建子进程,要牺牲掉一些性能
- Redis的众多版本中未进行RDB文件格式的版本统一,有可能出现各版本服务之间数据格式无法兼容现象(处理方式:可以降低版本的rdb文件读出来,然后存入高版本的redis)
②AOF
RDB存储的弊端
-
存储数据量较大,效率较低
? 基于快照思想,每次读写都是全部数据,当数据量巨大时,效率非常低
-
大数据量下的IO性能较低
-
基于fork创建子进程,内存产生额外消耗
-
宕机带来的数据丢失风险
解决思路:
- 不写全数据,仅记录部分数据
- 降低区分数据是否改变的难度,改记录数据为记录操作过程
- 对所有操作均进行记录,排除丢失数据的风险
AOF概念
- AOF(append only file)持久化:以独立日志的方式记录每次写命令,重启时再重新执行AOF文件中命令达到恢复数据的目的。与RDB相比可以简单描述为改记录数据为记录数据产生的过程
- AOF的主要作用是解决了数据持久化的实时性,目前已经是Redis持久化的主流方式
AOF写数据过程
AOF写数据三种策略(appendfsync)
- always(每次)
? 每次写入操作均同步到AOF文件中,数据零误差,性能较低
-
everysec(每秒)
? 每秒将缓冲区中的指令同步到AOF文件中,数据准确性较高,性能较高 ,建议使用,也是默认配置
? 在系统突然宕机的情况下丢失1秒内的数据
-
no(系统控制)
? 由操作系统控制每次同步到AOF文件的周期,整体过程不可控
AOF功能开启
-
配置
appendonly yes|no
-
作用
? 是否开启AOF持久化功能,默认为不开启状态
-
配置
appendfsync always|everysec|no
-
作用
? AOF写数据策略
AOF相关配置
-
配置
appendfilename filename
-
作用
? AOF持久化文件名,默认文件名未appendonly.aof,建议配置为appendonly-端口号.aof
-
配置dir
dir dirname
-
作用
? AOF持久化文件保存路径,与RDB持久化文件保持一致即可
AOF写数据遇到的问题
如果重复对同一个key进行操作,它redis服务器该如何处理?
AOF重写
随着命令不断写入AOF,文件会越来越大,为了解决这个问题,Redis引入了AOF重写机制压缩文件体积。AOF文件重写是将Redis进程内的数据转化为写命令同步到新AOF文件的过程。简单说就是将对同一个数据的若干个条命令执行结果转化成最终结果数据对应的指令进行记录。
AOF重写作用
- 降低磁盘占用量,提高磁盘利用率
- 提高持久化效率,降低持久化写时间,提高IO性能
- 降低数据恢复用时,提高数据恢复效率
AOF重写规则
- 进程内已超时的数据不再写入文件
- 忽略无效指令,重写时使用进程内数据直接生成,这样新的AOF文件只保留最终数据的写入命令 如del key1、 hdel key2、srem key3、set key4 111、set key4 222等
- 对同一数据的多条写命令合并为一条命令 如lpush list1 a、lpush list1 b、 lpush list1 c 可以转化为:lpush list1 a b c。 为防止数据量过大造成客户端缓冲区溢出,对list、set、hash、zset等类型,每条指令最多写入64个元素
AOF重写方式
-
手动重写
bgrewriteaof
-
自动重写
auto-aof-rewrite-min-size size auto-aof-rewrite-percentage percentage
-
自动重写触发比对参数( 运行指令info Persistence获取具体信息 )
aof_current_size aof_base_size
-
自动重写触发条件
aof_current_size>auto-aof-rewrite-min-size aof_current_size-aof_base_size/aof_base_size>=auto-aof-rewrite-percentage
AOF工作流程
AOF重写流程
③RDB与AOF区别
④RDB与AOF的选择
- 对数据非常敏感,建议使用默认的AOF持久化方案
- AOF持久化策略使用everysecond,每秒钟fsync一次。该策略redis仍可以保持很好的处理性能,当出 现问题时,最多丢失0-1秒内的数据。
- 注意:由于AOF文件存储体积较大,且恢复速度较慢
- 数据呈现阶段有效性,建议使用RDB持久化方案
- 数据可以良好的做到阶段内无丢失(该阶段是开发者或运维人员手工维护的),且恢复速度较快,阶段点数据恢复通常采用RDB方案
- 注意:利用RDB实现紧凑的数据持久化会使Redis降的很低
- 综合对比
- RDB与AOF的选择实际上是在做一种权衡,每种都有利有弊
- 如不能承受数分钟以内的数据丢失,对业务数据非常敏感,选用AOF
- 如能承受数分钟以内的数据丢失,且追求大数据集的恢复速度,选用RDB
- 灾难恢复选用RDB
- 双保险策略,同时开启 RDB 和 AOF,重启后,Redis优先使用 AOF 来恢复数据,降低丢失数据的量