赞
踩
传统的MySQL在查询走的是磁盘IO,耗时较长,在高并发的情况下,性能很容易出问题;redis是一个基于内存设计的非关系型数据库,数据之间没有关系,查询速度非常快,对海量用户处理非常高效;
Redis(Remote Dictionary Server)是用 C 语言开发的一个开源的基于内存的高性能键值对(key-value)缓存和存储系统。
数据库应用场景示意
最简配置
# 绑定Ip 指定可以通过本机的哪个网口连接本Redis实例 如果注释(删掉)则任意IP都可以连接 # 生产环境中,为了安全,需要指定。学习期间为了方便,注释掉 # 可以在一行绑定本机的多个IP,中间使用空格分割 # bind 127.0.0.1 bind 127.0.0.1 192.168.115.130 # 指定Redis的端口 port 6379 # 当客户端闲置多长时间后关闭连接,如果指定为0,表示关闭该功能 timeout 0 # 是否以守护进程启动,守护进程表示后台启动,非守护进程表示前台启动 daemonize no # 设置日志的级别 debug、verbose、notice、warning,默认为verbose loglevel verbose # 日志文件的名字,当指定为空字符串时,为标准输出,如果redis已守护进程模式运行,那么日志将会输出到 /dev/null 。 # 如果这里配置了指定的日志文件,就算redis以非守护进程方式启动(前台启动),日志也只是输入到日志文件,而不会在启动窗口展示 logfile ""
详细配置
# Redis configuration file example. # 配置大小单位,开头定义了一些基本的度量单位,只支持bytes,不支持bit 对大小写不敏感 # 1k => 1000 bytes # 1kb => 1024 bytes # 1m => 1000000 bytes # 1mb => 1024*1024 bytes # 1g => 1000000000 bytes # 1gb => 1024*1024*1024 bytes ################################## INCLUDES ################################### # 引入其他文件 # include /path/to/local.conf # include /path/to/other.conf # 绑定Ip 指定可以通过本机的哪个网口连接本Redis实例 如果注释(删掉)则任意IP都可以连接 # 生产环境中,为了安全,需要指定。学习期间为了方便,注释掉 # 可以在一行绑定本机的多个IP,中间使用空格分割 # bind 127.0.0.1 # bind 127.0.0.1 192.168.115.130 # 禁止外网访问redis,如果启用了,即使注释掉了bind 127.0.0.1,再访问redisd时候还是无法连接的 # 如果bind了网卡的IP(非127),可以通过对应IP连接 # 它启用的条件有两个,第一是没有使用bind,第二是没有设置访问密码。 protected-mode yes # 指定Redis的端口 port 6379 # 此参数确定了TCP连接中已完成队列(完成三次握手之后)的长度, # 当然此值必须不大于Linux系统定义的/proc/sys/net/core/somaxconn值,默认是511, # 而Linux的默认参数值是128。当系统并发量大并且客户端速度缓慢的时候,可以将这二个参数一起参考设定。 # 在高并发环境下你需要一个高backlog值来避免慢客户端连接问题 tcp-backlog 511 # 当客户端闲置多长时间后关闭连接,如果指定为0,表示关闭该功能 timeout 0 # 设置多长时间检测死连接 单位为秒,如果设置为0,则不会进行Keepalive检测 tcp-keepalive 0 # 是否以守护进程启动,守护进程表示后台启动,非守护进程表示前台启动 daemonize no # 可以通过upstart和systemd管理Redis守护进程,这个参数是和具体的操作系统相关的。 supervised no # 当Redis以守护进程方式运行时,Redis默认会把pid写入/var/run/redis.pid文件,可以通过pidfile指定 pidfile /var/run/redis_6379.pid # 设置日志的级别 debug、verbose、notice、warning,默认为verbose loglevel verbose # 日志文件的位置,当指定为空字符串时,为标准输出,如果redis已守护进程模式运行,那么日志将会输出到 /dev/null 。 # 如果这里配置了指定的日志文件,就算redis以非守护进程方式启动(前台启动),日志也只是输入到日志文件,而不会在启动窗口展示 logfile "" # 设置数据库的数目。默认的数据库是DB 0 ,可以在每个连接上使用select <dbid> 命令选择一个不同的数据库,dbid是一个介于0到databases - 1 之间的数值。 databases 16 #########################以上为基础设置,以下为高级设置############################# # 指定在多长时间内,有多少次更新操作,就将数据同步到数据文件,可以多个条件配合 # 这里表示900秒(15分钟)内有1个更改,300秒(5分钟)内有10个更改以及60秒内有10000个更改 # 如果想禁用RDB持久化的策略,只要不设置任何save指令,或者给save传入一个空字符串参数也可以 save 900 1 save 300 10 save 60 1 # rdb文件的名字。 dbfilename dump.rdb # dbfilename文件存放目录。必须是一个目录,aof文件也会保存到该目录下。 dir ./ # 是否启用aof持久化方式 。否在每次更新操作后进行日志记录,Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。 # 因为 redis本身同步数据文件是按上面save条件来同步的,所以有的数据会在一段时间内只存在于内存中。默认为no appendonly no # 指定更新日志(aof)文件名,默认为appendonly.aof appendfilename "appendonly.aof" # 指定更新日志条件,共有3个可选值: # no:表示等操作系统进行数据缓存同步到磁盘(快,持久化没保证) # always:同步持久化,每次发生数据变更时,立即记录到磁盘(慢,安全) # everysec:表示每秒同步一次(默认值,很快,但可能会丢失一秒以内的数据) # appendfsync always appendfsync everysec # appendfsync no # 指定是否在后台aof文件rewrite期间调用fsync,默认为no,表示要调用fsync(无论后台是否有子进程在刷盘)。 # Redis在后台写RDB文件或重写AOF文件期间会存在大量磁盘IO,此时,在某些linux系统中,调用fsync可能会阻塞。 #如果应用系统无法忍受延迟,而可以容忍少量的数据丢失,则设置为yes。如果应用系统无法忍受数据丢失,则设置为no。 no-appendfsync-on-rewrite no # 当AOF文件增长到一定大小的时候Redis能够调用 BGREWRITEAOF 对日志文件进行重写 。当AOF文件大小的增长率大于该配置项时自动开启重写。 auto-aof-rewrite-percentage 100 # 当AOF文件增长到一定大小的时候Redis能够调用 BGREWRITEAOF 对日志文件进行重写 。当AOF文件大小大于该配置项时自动开启重写 auto-aof-rewrite-min-size 64mb # redis在启动时可以加载被截断的AOF文件,而不需要先执行redis-check-aof 工具。 aof-load-truncated yes # 是否开启混合持久化 aof-use-rdb-preamble yes # 默认情况下,如果 redis 最后一次的后台保存失败,redis 将停止接受写操作,这样以一种强硬的方式让用户知道数据不能正确的持久化到磁盘, # 否则就会没人注意到灾难的发生。 如果后台保存进程重新启动工作了,redis 也将自动的允许写操作。 # 如果配置成no,表示你不在乎数据不一致或者有其他的手段发现和控制 stop-writes-on-bgsave-error yes # 对于存储到磁盘中的快照(rdb),可以设置是否进行压缩存储。如果是的话,redis会采用 # LZF算法进行压缩。如果你不想消耗CPU来进行压缩的话,可以设置为关闭此功能 rdbcompression yes # 在存储快照后,还可以让redis使用CRC64算法来进行数据校验,但是这样做会增加大约 # 10%的性能消耗,如果希望获取到最大的性能提升,可以关闭此功能 rdbchecksum yes # 设置当本机为slave服务时,设置master服务的IP地址及端口,在Redis启动时,它会自动从master进行数据同步 # replicaof <masterip> <masterport> # 当master服务设置了密码保护时,slave服务连接master的密码 # masterauth <master-password> # 当一个slave与master失去联系时,或者复制正在进行的时候,slave应对请求的行为: # 如果为 yes(默认值) ,slave 仍然会应答客户端请求,但返回的数据可能是过时,或者数据可能是空的在第一次同步的时候 # 如果为 no ,在你执行除了 info 和 salveof 之外的其他命令时,slave 都将返回一个 "SYNC with master in progress" 的错误。 replica-serve-stale-data yes # 设置slave是否是只读的。从2.6版起,slave默认是只读的。 replica-read-only yes # 主从数据复制是否使用无硬盘复制功能。 repl-diskless-sync no # 指定slave定期ping master的周期,默认10秒钟。 # repl-ping-replica-period 10 # 设置主库批量数据传输时间或者ping回复时间间隔,默认值是60秒 。 # repl-timeout 60 # 指定向slave同步数据时,是否禁用socket的NO_DELAY选项。 # 若配置为“yes”,则禁用NO_DELAY,则TCP协议栈会合并小包统一发送,这样可以减少主从节点间的包数量并节省带宽,但会增加数据同步到 slave的时间。 # 若配置为“no”,表明启用NO_DELAY,则TCP协议栈不会延迟小包的发送时机,这样数据同步的延时会减少,但需要更大的带宽。 # 通常情况下,应该配置为no以降低同步延时,但在主从节点间网络负载已经很高的情况下,可以配置为yes。 repl-disable-tcp-nodelay no # 设置主从复制backlog容量大小。这个 backlog 是一个用来在 slaves 被断开连接时存放 slave 数据的 buffer, # 所以当一个 slave 想要重新连接,通常不希望全部重新同步,只是部分同步就够了,仅仅传递 slave 在断开连接时丢失的这部分数据。 # 这个值越大,salve 可以断开连接的时间就越长。 # repl-backlog-size 1mb # 配置当master和slave失去联系多少秒之后,清空backlog释放空间。当配置成0时,表示永远不清空。 # repl-backlog-ttl 3600 # 当 master 不能正常工作的时候,Redis Sentinel 会从 slaves 中选出一个新的 master,这个值越小,就越会被优先选中,但是如果是 0 , 那是意味着这个 slave 不可能被选中。 # 默认优先级为 100。 replica-priority 100 # 设置Redis连接密码,如果配置了连接密码,客户端在连接Redis时需要通过AUTH <password>命令提供密码,默认关闭 # requirepass foobared # 设置同一时间最大客户端连接数,Redis可以同时打开的客户端连接数为Redis进程可以打开的最大文件描述符数, # 如果设置 maxclients 0,表示不作限制。当客户端连接数到达限制时,Redis会关闭新的连接并向客户端返回max number of clients reached错误信息 # maxclients 10000 # 指定Redis最大内存限制,Redis在启动时会把数据加载到内存中,达到最大内存后,Redis会先尝试清除已到期或即将到期的Key, # 当此方法处理后,仍然到达最大内存设置,将无法再进行写入操作,但仍然可以进行读取操作。 # Redis新的vm机制,会把Key存放内存,Value会存放在swap区 # maxmemory <bytes> # 当内存使用达到最大值时,redis使用的清除策略。有以下几种可以选择(明明有6种,官方配置文件里却说有5种可以选择?): # 1)volatile-lru 利用LRU算法移除设置过过期时间的key (LRU:最近使用 Least Recently Used ) # 2)allkeys-lru 利用LRU算法移除任何key # 3)volatile-random 移除设置过过期时间的随机key # 4)allkeys-random 移除随机key # 5)volatile-ttl 移除即将过期的key(minor TTL) # 6)noeviction 不移除任何key,只是返回一个写错误 。默认选项 # maxmemory-policy noeviction # LRU 和 minimal TTL # 算法都不是精准的算法,但是相对精确的算法(为了节省内存),随意你可以选择样本大小进行检测。redis默认选择5个样本进行检测,你可以通过maxmemory-samples进行设置样本数。 # maxmemory-samples 5 # 一个Lua脚本最长的执行时间,单位为毫秒,如果为0或负数表示无限执行时间 lua-time-limit 5000 # 是否开启cluster集群模式 如果配置yes则开启集群功能,此redis实例作为集群的一个节点,否则,它是一个普通的单一的redis实例。 # cluster-enabled yes # 虽然此配置的名字叫"集群配置文件",但是此配置文件不能人工编辑,它是集群节点自动维护的文件, # 主要用于记录集群中有哪些节点、他们的状态以及一些持久化参数等,方便在重启时恢复这些状态。通常是在收到请求之后这个文件就会被更新。 # cluster-config-file nodes-6379.conf # 这是集群中的节点能够失联的最大时间,超过这个时间,该节点就会被认为故障。如果主节点超过这个时间还是不可达,则用它的从节点将启动故障迁移,升级成主节点。 # cluster-node-timeout 15000 # 如果设置成0,则无论从节点与主节点失联多久,从节点都会尝试升级成主节点。 # 如果设置成正数,则cluster-node-timeout乘以cluster-slave-validity-factor得到的时间,是从节点与主节点失联后, # 此从节点数据有效的最长时间,超过这个时间,从节点不会启动故障迁移。 # 假设cluster-node-timeout=5,cluster-slave-validity-factor=10,则如果从节点跟主节点失联超过50秒,此从节点不能成为主节点。 # 注意,如果此参数配置为非0,将可能出现由于某主节点失联却没有从节点能顶上的情况,从而导致集群不能正常工作, # 在这种情况下,只有等到原来的主节点重新回归到集群,集群才恢复运作。 # cluster-replica-validity-factor 10 # master的slave数量大于该值,slave才能迁移到其他孤立master上,如这个参数若被设为2,那么只有当一个主节点拥有2 个可工作的从节点时,它的一个从节点会尝试迁移。 # 不建议设置为0 # 想禁用可以设置一个非常大的值 # 如果小于0则启动失败 # cluster-migration-barrier 1 # 表示当负责一个插槽的主库下线且没有相应的从库进行故障恢复时,是否整个集群不可用? # cluster-require-full-coverage yes
数据类型指的是key-value中的value的类型,key永远是字符串 。
Redis的value支持五种数据类型:string(字符串),hash(哈希),list(列表),set(集合)及zset(sorted set:有序集合)。
会根据数据不同,选择不同的数据类型,保证在不同场景下,存取处理的速度都是最快的。
String
最简单、最常用的单个数据存储的类型。
常用命令:set/get/mset/mget/setnx/setex
应用场景:计数器(incr、decr)、分布式锁(setnx、del、expire)、存储对象(不经常变化的)(set、get、json格式)、验证码(setex)
命令: set key value key存在,则覆盖原值 get key del key setnx key value 判定性添加数据;key存在,则添加失败 mset key1 value1 key2 value2 ... mget key1 key2 .. strlen key 获取数据字符个数(字符串长度) append key value 追加信息到原始信息后部(存在追加,不存在新建) incr key ++ (原值不存在,从0开始累加) incrby key increment +n incrbyfloat key increment decr key -- decrby key increment -n setex key seconds value psetex key milliseconds value
hash
常用指令:hset/hget/hmset/hmget/hexists
应用场景:购物车(hset、hdel)、存储对象(频繁变化的)(hset、hdel)
常用指令示例:
命令: hset key field value hget key field hgetall key //对操作数据量可能会比较大的指令,一定要小心,不要阻塞后面命令执行。先获取长度hlen key hdel key field1 [field2] .. hsetnx key field value hmset key field1 value1 field2 value2 ... hmget key field1 field2 ... hlen key hexists key field hkeys key 获取所有键 // 在明确数量之前,慎用 hvals key 获取所有值 // 在明确数量之前,慎用 hincrby key field increment hincrbyfloat key field increment hexists key 判断对应redis的键是否有值 案例: 双11活动日,销售手机充值卡的商家对移动、联通、电信的30元、50元、100元商品推出抢购活动,每种商品抢购上限1000张 hmset id:001 c30 1000 c50 1000 c100 1000 hmset id:002 c30 1000 c50 1000 c100 1000 hincrby id:001 c30 -5 hincrby id:001 c50 -15 工作中主要还是设置和获取,修改的操作通过java代码实现,而不是通过hincryby
list
键为字符串,值为list。
两端操作的队列,所以可以左右两端操作;
命令中涉及两端操作的,l表示 左,r表示右;其他情况下命令以l开头
没有索引越界异常,获取超出索引返回的是nil
常用命令:lpush/rpush/lpop/rpop/lrange/llen
应用场景:数据顺序添加并汇总,eg:消息队列、最新列表(log日志顺序打印)
常用指令示例:
命令:
lpush key value1 [value2] ... //添加或修改数据
rpush key value2 [value2] ...
lrange key start stop // 在不明确list长度的前提下,慎用lrange key 0 -1
lindex key index 获取指定索引的值
llen key
lpop key
rpop key
lrem key count value 移除指定个数的值
blpop key1 [key2] timeout 规定时间内获取并移除数据
brpop key1 [key2] timeout 规定时间内获取并移除数据
brpoplpush source destination timeout 迁移数据
set
与hash的key结构相同,无序不重复。
命令多以s开头
常用命令sadd/smembers/sismember/sinter/sunion/sdiff
应用场景:好友关注感兴趣的人的集合操作(sinter/sunion/sdiff)、随机展示(srandmember)、黑白名单(sismember)
常用指令示例:
命令: sadd key member1 [member2] smembers key // 在明确member数量之前,慎用 srem key member1 [member2] scard key 获取集合数据总量 sismember key member 判断集合中是否包含指定数据 srandmember key [count] 随机获取集合中指定数量的数据 spop key 随机获取集合中的某个数据并将该数据移出集合 sinter key1 [key2] .. 交集 sunion key1 [key2] .. 并集 sdiff key1 [key2] .. 差集 sinterstore destination key1 [key2]... 交集到指定集合 sunionstore destination key1 [key2]... 并集到指定集合 sdiffstore destination key1 [key2]... 差集到指定集合
综合命令
key
del key -- 删除键值
expires key seconds -- 设置键的有效时长
ttl key -- 查看键的有效时长
keys * // 所有不确定范围的操作,都要慎重!!!
type key
exists key -- 判断key是否存在
persist key -- 将key变为永久有效
// 有效期
永久 -1
失效/不存在 -2
正整数 剩余失效时间 s/ms
数据库操作
redis默认有16个数据库,所有数据库都共享redis内存,但是每个数据库间的数据相互隔离
select index -- 选择数据库 (index的值为0-15)
dbsize -- 查看当前数据库中键的个数
flushdb -- 清除当前数据库的内容
flushall -- 清除所有数据库的内容
1.项目构建:
2.pom文件引入redis依赖:
<?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <groupId>com.blabla</groupId> <artifactId>jedis-test</artifactId> <version>1.0-SNAPSHOT</version> <dependencies> <dependency> <groupId>redis.clients</groupId> <artifactId>jedis</artifactId> <version>3.3.0</version> </dependency> </dependencies> </project>
3.代码demo:
package com.blabla.test;
import redis.clients.jedis.Jedis;
public class JedisDemo {
public static void main(String[] args) {
// 连接的服务器地址和端口
Jedis jedis = new Jedis("127.0.0.1",6379);
jedis.set("luffy","nruto");
System.out.println(jedis.get("blabla"));
//关闭连接
jedis.close();
}
}
4.代码运行前redis中数据
5.代码运行后数据:
池化思想:
原生的jedis使用不够灵活,服务器地址变了之后就要修改代码,而且每次都会创建和销毁,我们考虑抽一下,且不必每次都关闭连接;
项目结构
jedis配置文件
# 最大连接数
redis.maxTotal=50
# 客户端没需求留的链接数
redis.maxIdel=10
# 连接地址
redis.host=localhost
# 连接端口
redis.port=6379
JedisUtil
package com.blabla.util; import redis.clients.jedis.Jedis; import redis.clients.jedis.JedisPool; import redis.clients.jedis.JedisPoolConfig; import java.util.ResourceBundle; public class JedisUtil { private static int maxTotal; private static int maxIdel; private static int port; private static String host; private static JedisPool jp; static { // 读取配置文件 ResourceBundle bundle = ResourceBundle.getBundle("jedis"); maxTotal = Integer.parseInt(bundle.getString("redis.maxTotal")); maxIdel = Integer.parseInt(bundle.getString("redis.maxIdel")); host = bundle.getString("redis.host"); port = Integer.parseInt(bundle.getString("redis.port")); //Jedis连接池配置 JedisPoolConfig jpc = new JedisPoolConfig(); jpc.setMaxTotal(maxTotal); jpc.setMaxIdle(maxIdel); jp = new JedisPool(jpc,host,port); } public static Jedis getJedis(){ return jp.getResource(); } }
JedisTest
package com.blabla.test;
import com.blabla.util.JedisUtil;
import redis.clients.jedis.Jedis;
public class JedisTest {
public static void main(String[] args) {
Jedis jedis = JedisUtil.getJedis();
jedis.set("ray","测试");
System.out.println(jedis.get("ray"));
}
}
项目结构
配置文件
spring.redis.jedis.pool.max-wait = 5000ms
spring.redis.jedis.pool.max-Idle = 100
spring.redis.jedis.pool.min-Idle = 10
spring.redis.timeout = 10s
spring.redis.host= 127.0.0.1
spring.redis.port= 6379
启动类
package com.blabla;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
@SpringBootApplication
public class RedisApplicationMain {
public static void main(String[] args) {
SpringApplication.run(RedisApplicationMain.class,args);
}
}
controller
package com.blabla.controller; import com.blabla.service.BlablaService; import org.springframework.web.bind.annotation.GetMapping; import org.springframework.web.bind.annotation.RestController; import javax.annotation.Resource; @RestController public class BlablaController { @Resource private BlablaService blablaService; @GetMapping("/redis") public String redisTest(){ return blablaService.getRedis(); } }
service
package com.blabla.service; import org.springframework.data.redis.core.RedisTemplate; import org.springframework.stereotype.Service; import org.springframework.web.client.RestTemplate; import javax.annotation.Resource; @Service public class BlablaService { // 注入redis类 @Resource private RedisTemplate<String,String> redisTemplate; // http请求类 // @Resource // private RestTemplate restTemplate; public String getRedis(){ redisTemplate.opsForValue().set("test01","test"); String test01 = redisTemplate.opsForValue().get("test01"); return test01; } public String httpTest(){ return "123"; } }
注意:Springboot整合Redis需要指定是否序列化key value 否则会出现新增key时key的前边出现序列化的字符串导致出现问题;
# 指定在多长时间内,有多少次更新操作,就将数据同步到数据文件,可以多个条件配合 # 这里表示900秒(15分钟)内有1个更改,300秒(5分钟)内有10个更改以及60秒内有10000个更改 # 如果想禁用RDB持久化的策略,只要不设置任何save指令,或者给save传入一个空字符串参数也可以 # 更改次数,指的是成功增、删、改 save 900 1 save 300 100 save 60 1000 # 对于存储到磁盘中的快照(rdb),可以设置是否进行压缩存储。如果是的话,redis会采用 # LZF算法进行压缩。如果你不想消耗CPU来进行压缩的话,可以设置为关闭此功能 rdbcompression yes # 在存储快照后,还可以让redis使用CRC64算法来进行数据校验,但是这样做会增加大约 # 10%的性能消耗,如果希望获取到最大的性能提升,可以关闭此功能 rdbchecksum yes # dbfilename文件存放目录。必须是一个目录,aof文件也会保存到该目录下。 dir ./ #rdb文件的名字。 dbfilename dump.rdb
# 是否启用aof持久化方式 。否在每次更新操作后进行日志记录,Redis在默认情况下是异步的把数据写入磁盘,如果不开启,可能会在断电时导致一段时间内的数据丢失。 # 因为 redis本身同步数据文件是按上面save条件来同步的,所以有的数据会在一段时间内只存在于内存中。默认为no appendonly no # 指定更新日志(aof)文件名,默认为appendonly.aof appendfilename "appendonly.aof" #指定更新日志条件,共有3个可选值: # no:表示等操作系统进行数据缓存同步到磁盘(快,持久化没保证) # always:同步持久化,每次发生数据变更时,立即记录到磁盘(慢,安全) # everysec:表示每秒同步一次(默认值,很快,但可能会丢失一秒以内的数据) # appendfsync always appendfsync everysec # appendfsync no # 指定是否在后台aof文件rewrite期间调用fsync,默认为no,表示要调用fsync(无论后台是否有子进程在刷盘)。 # Redis在后台写RDB文件或重写AOF文件期间会存在大量磁盘IO,此时,在某些linux系统中,调用fsync可能会阻塞。 #如果应用系统无法忍受延迟,而可以容忍少量的数据丢失,则设置为yes。如果应用系统无法忍受数据丢失,则设置为no。 no-appendfsync-on-rewrite no #当AOF文件增长到一定大小的时候Redis能够调用 BGREWRITEAOF 对日志文件进行重写 。当AOF文件大小的增长率大于该配置项时自动开启重写。 auto-aof-rewrite-percentage 100 #当AOF文件增长到一定大小的时候Redis能够调用 BGREWRITEAOF 对日志文件进行重写 。当AOF文件大小大于该配置项时自动开启重写 auto-aof-rewrite-min-size 64mb
redis支持两种持久化操作,分别是rdb和aof
rdb是以快照的方式保存某个时间点的真实数据;aof是以日志的方式保存整个操作过程中的所有操作命令。
注意:以上两种持久化方案没有好坏之分, 他们在实际开发中是一个互补的方案
rdb:数据体量少,保存效率高,但是因为是某个时间点的数据,会存在数据丢失的风险
aof:记录每个操作,数据体量大,保存效率弱于rdb,但是可以最大程度保证数据的完整性
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。