前言
缓存和数据库如何保证数据的一致是个很经典的问题,关于先更新缓存,还是先更新数据库,或者先删除缓存,还是先删除数据的先后问题,再读写并发的场景下很难做到数据一致,我认为比较好的两种方案:
一种是我们经常说的延迟双删机制,但是这个延迟的时间是无法很准确的把握的,还有如果缓存删除失败了应该如何处理,总体来说还是不保险的;
另外一种我认为是比较可行的方法,要引入阿里的canal,通过拉取binlog日志解析推送的MQ实现异步更新缓存,达到最终缓存和数据库的一致性;
延迟双删策略
基本流程就是客户端A请求,先去删除缓存,然后将数据写入数据库,此时客户端B查询先去查询缓存,缓存没有返回,去查数据库,此时还没有完成主从同步,拿到是从库的旧数据,然后将旧数据进行缓存,在客户端A完成主从同步后,再次删除缓存,这时数据才是一致的,但是重点就是在休眠的几秒钟,会造成数据的不一致性;
⚠️注意点:第二次删除缓存如果失败,那么缓存里面大概率还是旧数据;
所以第二次缓存删除重试的方法比较关键:
- 一种:失败记录写表,起定时任务去扫描表进行重试,显然这种方式并不会很好,会对数据库造成很大的压力;
- 另外一种:异步处理,利用消息队列,将消息放在队列中,缓解数据库压力,但是要增加对消息队列的维护;
简单写个延迟双删的demo
@RestController
@RequestMapping
public class RedisController {
@Autowired
private RedisTemplate redisTemplate;
@Autowired
private SysUserMapper sysUserMapper;
@GetMapping
public void duobleCancle() throws InterruptedException {
//删除缓存
redisTemplate.delete("1");
//获取数据
SysUser sysUser = sysUserMapper.selectUserById(Long.valueOf(1));
//更新数据
SysUser updateSysUser =new SysUser();
updateSysUser.setUserName("Lxlxxx");
updateSysUser.setEmail("@163.com");
UpdateWrapper<SysUser> updateWrapper = new UpdateWrapper();
updateWrapper.eq("userId",1);
sysUserMapper.update(updateSysUser,updateWrapper);
//休眠时间这里的设定,是根据读业务的同步时间来设定的,这是一个大概的范围
Thread.sleep(3000);
//将读取的数据放入缓存
redisTemplate.opsForValue().append(sysUser.getUserId(), JSON.toJSONString(sysUser));
//第二次删除缓存
//如果删除失败,缓存里面存的应该还是旧数据,后面线程读的还是旧数据,实际数据库已经是新数据了
redisTemplate.delete("1");
}
由此可见问题还是比较多的,如果这么在项目中使用这种写法,那最终还是会读取到脏数据;
基于订阅binlog异步更新缓存
大致的流程是这样的:
具体binlog订阅实现
步骤:先安装canal、然后安装rabbitmq、然后就是mysql
Canal配置,因为canal支持 tcp, kafka, rocketMQ, rabbitMQ这四种异步的方式,这里我们使用 rabbitMQ,所以将serverMode配置成rabbitMQ
#编辑conf/canal.properties,修改MQ配置
canal.ip = 1 #canal服务器标识
canal.serverMode = rabbitmq # 指定rabbitmq
canal.mq.servers = 127.0.0.1 ##
canal.mq.vhost=canal #MQ虚拟机名称
canal.mq.exchange=exchange.trade #交换机名称,用于将消息发送到绑定的队列
canal.mq.username=guest #MQ登录账号,注意要有上面vhost的权限
canal.mq.password=guest #MQ密码
---------------------------------------------------------------------------------
#编辑conf/example/instance.properties实例配置,配置数据库信息
canal.instance.dbUsername=root
canal.instance.dbPassword=123456
canal.instance.mysql.slaveId=1234
canal.instance.master.address=127.0.0.1:3306 ## 数据库地址
canal.instance.defaultDatabaseName=test ## 数据库名
canal.mq.topic=example # 路由键,需要跟MQ中交换机队列的绑定路由key保持一致
mysql的my.cnf配置
#增加以下配置
log-bin=mysql-bin # 开启 binlog
binlog-format=ROW # 选择 ROW 模式
server_id=1 # 配置
引入依赖,我分别引入的是redis、rabbitmq、mybatis-plus、fastsjon的包
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-amqp</artifactId>
</dependency>
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>fastjson</artifactId>
<version>1.2.3</version>
</dependency>
<dependency>
<groupId>com.baomidou</groupId>
<artifactId>mybatis-plus-boot-starter</artifactId>
<version>${mybatis.plus.version}</version>
</dependency>
application.yml配置文件
spring:
rabbitmq:
virtual-host: canal
host: 127.0.0.1
publisher-confirms: true
#数据源
datasource:
url: jdbc:mysql://127.0.0.1:3306/test?useUnicode=true&characterEncoding=utf8&useSSL=false&serverTimezone=UTC
username: root
password: root
driver-class-name: com.mysql.jdbc.Driver
redis:
host: 127.0.0.1
RabbitmqConfig配置
@Configuration
public class RabbitMqConfig {
@Bean
public Queue TestDirectQueue() {
return new Queue("exchange.canal.queue",true);
}
//Direct交换机 起名:exchange.trade
@Bean
DirectExchange TestDirectExchange() {
return new DirectExchange("exchange.canal");
}
//绑定 队列和交换机绑定
@Bean
Binding bindingDirect() {
return BindingBuilder.bind(TestDirectQueue()).to(TestDirectExchange()).with("example");
}
}
RabbitMqListener监听消息异步处理 canal拉取的binlog日志
@Component
@Slf4j
public class RabbitMqListener {
@Autowired
private StringRedisTemplate redisTemplate;
@RabbitListener(queues = "exchange.canal.queue")
public void process(Message message) {
log.info("canal queue消费的消息" + message.getBody());
Map map = JSON.parseObject(message.getBody(), Map.class);
JSONArray array = null;
String sqlType = (String) map.get("type");
//如果是查询,则去获取data数据
if (StringUtils.endsWithIgnoreCase("SELECT", sqlType)) {
array = JSONArray.parseArray((String) map.get("data"));
}
if (null == array) {
return;
}
JSONObject jsonObject = array.getJSONObject(0);
//如果是update、insert 其中一个则去更新缓存
if (StringUtils.endsWithIgnoreCase("UPDATE", sqlType)
|| StringUtils.endsWithIgnoreCase("INSERT", sqlType)) {
redisTemplate.boundValueOps(jsonObject.get("code").toString()).set(jsonObject.toString());
//反之类型为"delete"则去删除缓存
} else if (StringUtils.endsWithIgnoreCase("DELETE", sqlType)) {
redisTemplate.delete(jsonObject.get("code").toString());
}
//查询到新的数据去更新缓存 ,反之再去删除对应的缓存,这里进行二次删除
if (StringUtils.endsWithIgnoreCase("SELECT", sqlType)) {
redisTemplate.boundValueOps(jsonObject.get("code").toString()).set(jsonObject.toString());
} else {
redisTemplate.delete(jsonObject.get("code").toString());
}
}
}
总结
在高并发的场景下缓存和数据库的一致性的问题,永远是个比较大的问题,在请求量很大的情况下,我们必须使用缓存来减少数据库的压力,但是我们需要对数据库进行频繁更新,其实基本保证不了瞬间的一致性,只能在最终保证一致性,通过消息异步的方式可以有效的控制缓存更新、删除的可靠性。