赞
踩
MQ(message queue),从字面意思上看,本质是个队列,FIFO先入先出,只不过队列中存放的内容是message而已,还是一种跨进程的通信机制,用于上下游传递消息。在互联网架构中,MQ是一种非常常见的上下游“逻辑解耦+物理解耦”的消息通信服务。使用了MQ之后,消息发送上游只需要依赖MQ,不用依赖其他服务。
举个例子,如果订单系统最多能处理一万次订单,这个处理能力应付正常时段的下单时绰绰有余,正常时段我们下单一秒后就能返回结果。但是在高峰期,如果有两万次下单操作系统是处理不了的,只能限制订单超过一万后不允许用户下单。使用消息队列做缓冲,我们可以取消这个限制,把一秒内下的订单分散成一段时间来处理,这时有些用户可能在下单十几秒后才能收到下单成功的操作,但是比不能下单的体验要好。
以电商应用为例,应用中有订单系统,库存系统,物流系统,支付系统。用户创建订单后,如果耦合调用库存系统,物流系统,支付系统,任何一个子系统出了故障,都会造成下单操作异常。当转变成基于消息队列方式后,系统间调用的问题会减少很多,比如物流系统因为发生故障,需要几分钟来修复,在这几分钟的时间里,物流系统要处理的内存被缓存在消息队列中,用户的下单操作可以正常完成。当物流系统恢复后,继续处理订单信息即可,中单用户感受不到物流系统的故障,提示系统的可用性
3.异步处理
有些服务间调用是异步的,例如A调用B,B需要花费很长时间执行,但是A需要知道B什么时候可以执行完,以前一般有两种方式,A过一段时间去调用B的查询Api查询。或者A提供一个callback api,B执行完之后调用api通知A服务。这两种方式都不是很优雅,使用消息总线,可以很方便解决这个问题,A调用B服务后,只需要监听B处理完成的消息,当B处理完成后,会发送一条消息给MQ,MQ会将此消息转发给A服务,这样A服务既不用虚幻调用B的查询API,也不用提供callback api。同样B服务也不会做这些操作,A服务还能及时的得到异步处理成功的消息
1.ActiveMQ
优点:单机吞吐量万级,时效性 ms 级,可用性高,基于主从架构实现高可用性,消息可靠性较低的概率丢失数据
缺点:官方社区现在对 ActiveMQ 5.x 维护越来越少,高吞吐量场景较少使用。
2.Kafka
大数据的杀手锏,谈到大数据领域内的消息传输,则绕不开 Kafka,这款为大数据而生的消息中间件,以其百万级 TPS 的吞吐量名声大噪,迅速成为大数据领域的宠儿,在数据采集、传输、存储的过程中发挥着举足轻重的作用。目前已经被 LinkedIn,Uber, Twitter, Netflix 等大公司所采纳。
优点: 性能卓越,单机写入 TPS 约在百万条/秒,最大的优点,就是吞吐量高。时效性 ms 级可用性非常高,kafka 是分布式的,一个数据多个副本,少数机器宕机,不会丢失数据,不会导致不可用,消费者采用 Pull 方式获取消息, 消息有序, 通过控制能够保证所有消息被消费且仅被消费一次;有优秀的第三方
Kafka Web 管理界面 Kafka-Manager;在日志领域比较成熟,被多家公司和多个开源项目使用;功能支持:功能较为简单,主要支持简单的 MQ 功能,在大数据领域的实时计算以及日志采集被大规模使用
缺点:Kafka 单机超过 64 个队列/分区,Load 会发生明显的飙高现象,队列越多,load 越高,发送消息响应时间变长,使用短轮询方式,实时性取决于轮询间隔时间,消费失败不支持重试;支持消息顺序,但是一台代理宕机后,就会产生消息乱序,社区更新较慢;
3.RocketMQ
RocketMQ 出自阿里巴巴的开源产品,用 Java 语言实现,在设计时参考了 Kafka,并做出了自己的一些改进。被阿里巴巴广泛应用在订单,交易,充值,流计算,消息推送,日志流式处理,binglog 分发等场景。
优点:单机吞吐量十万级,可用性非常高,分布式架构,消息可以做到 0 丢失,MQ 功能较为完善,还是分
布式的,扩展性好,支持 10 亿级别的消息堆积,不会因为堆积导致性能下降,源码是 java 我们可以自己阅读源码,定制自己公司的 MQ
缺点:支持的客户端语言不多,目前是 java 及 c++,其中 c++不成熟;社区活跃度一般,没有在 MQ核心中去实现 JMS 等接口,有些系统要迁移需要修改大量代码
4.RabbitMQ
2007年发布,是一个在AMQP(高级消息队列协议)基础上完成的,可复用的企业消息系统,是当前最主流的消息中间件之一
优点:由于erlang语言的高并发特性,性能较好;吞吐量到万级,MQ功能比较完备,健壮,稳定,易用,跨平台,支持多种语言 如:Python,Rudy,.Net,Java,JMS,C,PHP,ActionScript,XMPP,Stomp等,支持AJAX文档齐全;开源提供的管理界面非常棒,用起来很好用,社区活跃度高;更新频率相当高
缺点:商业版需要收费,学习成本较高
1.Kafka
Kafka主要特点是基于PULL的模式来处理消息消费,追求吞吐量,一开始的目的就是用于日志收集和传输,适合产生大量数据的互联网服务的数据收集业务。大型公司建议可以选用,如果有日志采集功能,肯定是首选kafka了。
2.RocketMQ
天生为金融互联网领域而生,对于可靠性要求很高的场景,尤其是电商里面的订单扣款,以及业务削峰,在大量交易涌入时,后端可能无法及时处理的情况。RocketMQ在稳定性上可能更值得信赖,这些业务场景在阿里双11已经经历了多次考验,如果你的业务有上述并发场景,建议可以选择RocketMQ
3.RabbitMQ
结合erlang语言本身的并发优势,性能好时效性微秒级,社区活跃度也比较高,管理界面用起来十分方便,如果你的数据量没有那么大,中小型公司优先选择功能比较完备的RabbitMQ
RabbitMQ是一个消息中间件:它接受并转发消息。你可以把它当做一个快递站点,当你要发送一个包裹时,你把你的包裹放到快递点,快递员最终会把你的快递送到收件人那里,按照这种逻辑RabbitMQ是一个快递站,一个快递员帮你传递快件。RabbitMQ与快递站的主要区别在于,它不处理快件而是接收,存储和转发消息数据
1.2.2 四大核心概率
生产者:产生数据发送消息的程序是生产者
交换机:交换机是RabbitMQ非常重要的一个部件,一方面它接收来自生产者的消息,另一方面它将消息推送到队列中。交换机必须要确切知道如何处理它接收到的消息,是将这些消息推送到特定队列还是推送到多个队列,亦或者是把消息丢弃,这个得有交换机类型决定
队列:队列是RabbitMQ内部使用的一种数据结构,尽管消息流经RabbitMQ和应用程序,但它们只能存储在队列中。队列仅受主机的内存和磁盘限制的约束,本质上是一个大的消息缓冲区。许多生产者可以将消息发送到一个队列,许多消费者可以尝试从一个队列接收数据。这就是我们使用队列的方式
消费者:消费与接收具有相似的含义。消费者大多时候是一个等待接收消息的程序。请注意生产者,消费者和消息中间件很多时候并不在同一机器上。同一个应用程序既可以是生产者又是可以是消费者
Broker:接收和分发消息的应用,RabbitMQ Server 就是Message Broker
Virtual host: 出于多租户和安全因素设计的,把AMQP的基本组件划分到一个虚拟的分组中,类似于网络中的namespace概率。当多个不同的用户使用同一个RabbitMQ server 提供的服务时,可以划分出多个vhost,每个用户在自己的vhost,每个用户在自己的vhost创建exchange/queue等
Connection: publisher/consumer和broker之间的TCP连接
Channel:如果每一次访问RabbitMQ 都建立一个Connection,在消息量大的时候建立TCP Connection的开销将是巨大的,效率也较低。Channel是在connection内部建立的逻辑连接,如果应用程序支持多线程,通常每个thread创建单独的channel进行通讯,AMQP method包含了channel id 帮助客户端和message broker 识别channel,所以channel之间是完全隔离的。Channel 作为轻量级的Connection极大减少了操作系统建立TCP connection的开销
Exchange: message 到达 broker 的第一站,根据分发规律,匹配查询表中的routing key,分发消息到queue 中去。常用的类型有:direct,topic ,fanout
Queue: 消息最终被送到这里等待consumer取走
Binding:exchange和queue之间的虚拟连接,binding中可以包含routing key,Binding信息被保存到exchange中的查询表中,用于message的分发依据
1.官网地址
https://www.rabbitmq.com/download.html
2.文件上传
上传到/usr/local/software目录下(如果没有software需要自己创建)
3.安装文件(分别按照以下顺序安装)
rpm -ivh erlang-21.3-1.el7.x86_64.rpm
yum install socat -y
rpm -ivh rabbitmq-server-3.8.8-1.el7.noarch.rpm
4.常用命令
添加开启启动RabbitMQ服务:chkconfig rabbitmq-server on
启动服务:/sbin/service rabbitmq-server start
查看服务状态:/sbin/service rabbitmq-server status
停止服务(选择执行):/sbin/service rabbitmq-server stop
开启 web 管理插件:rabbitmq-plugins enable rabbitmq_management用默认账号密码(guest)访问地址 http://47.115.185.244:15672/出现权限问题:
5.添加一个新的用户:
创建账号:rabbitmqctl add_user admin 123
设置用户角色: rabbitmqctl set_user_tags admin administrator
设置用户权限:set_permissions [-p ]
rabbitmqctl set_permissions -p “/” admin “." ".” “.*”
用户 user_admin 具有/vhost1 这个 virtual host 中所有资源的配置、写、读权限
当前用户和角色:rabbitmqctl list_users
6.再次利用admin用户登录
7.重置命令
关闭应用的命令为:rabbitmqctl stop_app
清除的命令为:rabbitmqctl reset
重新启动命令为:rabbitmqctl start_app
将用java编写两个程序。发送单个消息的生产者和接收消息并打印出来的消费者,我们将介绍JAVA API 中的一些细节
在下图中,“P”是我们的生产者,“C”是我们的消费者,中间的框是一个队列-RabbitMQ代表使用者保留的消息缓冲区
<!--指定 jdk 编译版本--> <build> <plugins> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-compiler-plugin</artifactId> <configuration> <source>8</source> <target>8</target> </configuration> </plugin> </plugins> </build> <dependencies> <!--rabbitmq 依赖客户端--> <dependency> <groupId>com.rabbitmq</groupId> <artifactId>amqp-client</artifactId> <version>5.8.0</version> </dependency> <!--操作文件流的一个依赖--> <dependency> <groupId>commons-io</groupId> <artifactId>commons-io</artifactId> <version>2.6</version> </dependency> </dependencies>
package com.atguigu.rabbitmq.one; import com.rabbitmq.client.Channel; import com.rabbitmq.client.Connection; import com.rabbitmq.client.ConnectionFactory; import java.io.IOException; import java.util.concurrent.TimeoutException; /** * rabbitmq生产者代码 */ public class Producer { //队列名称 public static final String QUEUE_NAME="hello"; //发消息 public static void main(String[] args) throws IOException, TimeoutException { //创建一个链接工厂 ConnectionFactory factory=new ConnectionFactory(); //工厂IP,连接RabbitMQ的队列 factory.setHost("192.168.187.100"); //用户名 factory.setUsername("admin"); //密码 factory.setPassword("123"); //创建连接 Connection connection=factory.newConnection(); //创建信道 Channel channel=connection.createChannel(); /** * 生成一个队列 * 1.队列名称 * 2.队列里面的消息是否持久化,默认情况消息存储在内存中 * 3.该队列是否只供一个消费者进行消费,是否进行消息共享,true可以多个消费者消费,false 只能一个消费者消费 * 4.是否自动删除 最后一个消费者端开连接以后 该队列是否自动删除 true自动删除 false不自动删除 * 5.其他参数 */ channel.queueDeclare(QUEUE_NAME,false,false,false,null); //发消息 String message = "hello world";//初次使用 /** * 发送一个消息 * 1.发送到哪个交换机 * 2.路由的Key值是哪个 本次是队列的名称 * 3. 其他参数信息 * 4. 发送消息的消息体 */ channel.basicPublish("",QUEUE_NAME,null,message.getBytes()); System.out.println("发送消息完毕"); } }
package com.atguigu.rabbitmq.one; import com.rabbitmq.client.*; import java.io.IOException; import java.util.concurrent.TimeoutException; /** * 消费者 接受消息 */ public class Consumer { //队列的名称 public static final String QUEUE_NAME="hello"; //接收消息 public static void main(String[] args) throws IOException, TimeoutException { //创建连接工厂 ConnectionFactory connectionFactory=new ConnectionFactory(); connectionFactory.setHost("192.168.187.100"); connectionFactory.setUsername("admin"); connectionFactory.setPassword("123"); Connection connection = connectionFactory.newConnection(); Channel channel = connection.createChannel(); //声明 接收消息 DeliverCallback deliverCallback=(consumerTag,message) ->{ System.out.println(new String(message.getBody())); }; //取消消息时的回调 CancelCallback cancelCallback= consumerTag ->{ System.out.println("消息消费被中断"); }; /** * 消费者 消费消息 * 1.消费哪个队列 * 2.消费成功之后是否要自动应答 true 代表的自动应答 false 代表手动应答 * 3.消费者未成功消费的回调 * 4.消费者取消消费的回调 */ channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback); } }
工作队列(又称任务队列)的主要思想是避免立即执行资源密集型任务,而不得不等待它完成。相反我们安排任务在之后执行。我们把任务封装为消息并将其发送到队列。在后台运行的工作进程将弹出任务并最终执行作业。当有多个工作线程时,这些工作线程将一起处理这些任务。
在这个案列中我们会启动两个线程,一个消息发送线程,我们来看看他们两个工作线程是如何工作的
package com.atguigu.rabbitmq.utils; import com.rabbitmq.client.Channel; import com.rabbitmq.client.Connection; import com.rabbitmq.client.ConnectionFactory; /** * 此类为连接工厂创建信道的工具类 */ public class RabbitMqUtils { //得到一个连接的 channel public static Channel getChannel() throws Exception{ //创建一个连接工厂 ConnectionFactory factory = new ConnectionFactory(); factory.setHost("192.168.187.100"); factory.setUsername("admin"); factory.setPassword("123"); Connection connection = factory.newConnection(); Channel channel = connection.createChannel(); return channel; } }
package com.atguigu.rabbitmq.two; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.CancelCallback; import com.rabbitmq.client.Channel; import com.rabbitmq.client.DeliverCallback; /** * 这是一个工作线程(相当于之前消费者) */ public class Worker01 { //队列的名称 public static final String QUEUE_NAME= "hello"; //接收消息 public static void main(String[] args) throws Exception { Channel channel = RabbitMqUtils.getChannel(); //声明 接收消息 DeliverCallback deliverCallback=(consumerTag, message) ->{ System.out.println("接收到的消息:"+new String(message.getBody())); }; //取消消息时的回调 CancelCallback cancelCallback= consumerTag ->{ System.out.println(consumerTag+"消息者取消消费接口的回调逻辑"); }; System.out.println("C2等待接收消息......"); /** * 消费者 消费消息 * 1.消费哪个队列 * 2.消费成功之后是否要自动应答 true 代表的自动应答 false 代表手动应答 * 3.消费者未成功消费的回调 * 4.消费者取消消费的回调 */ //消息的接收 channel.basicConsume(QUEUE_NAME,true,deliverCallback,cancelCallback); } }
package com.atguigu.rabbitmq.two; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.Channel; import java.util.Scanner; /** * 生产者 发送大量的消息 */ public class Task01 { //队列的名称 public static final String QUEUE_NAME = "hello"; //发送大量的消息 public static void main(String[] args) throws Exception { Channel channel = RabbitMqUtils.getChannel(); //队列的声明 /** * 生成一个队列 * 1.队列名称 * 2.队列里面的消息是否持久化,默认情况消息存储在内存中 * 3.该队列是否只供一个消费者进行消费,是否进行消息共享,true可以多个消费者消费,false 只能一个消费者消费 * 4.是否自动删除 最后一个消费者端开连接以后 该队列是否自动删除 true自动删除 false不自动删除 * 5.其他参数 */ channel.queueDeclare(QUEUE_NAME,false,false,false,null); //从控制台当中接收信息 Scanner scanner=new Scanner(System.in); while (scanner.hasNext()){ String message = scanner.next(); channel.basicPublish("",QUEUE_NAME,null,message.getBytes()); System.out.println("发送消息完成:"+message); } } }
通过程序执行发现生产者总共发送4个消息,消费者1和消费者2分别两个消息,并且是按照有序的一个接收一次消息
消费者完成一个任务可能需要一段时间,如果其中一个消费者处理一个长的任务并仅只完成了部分突然它挂掉了,会发生什么情况。RabbitMQ一旦向消费者传递了一条消息,便立即将该消息标记为删除。在这种情况下,突然有个消费者挂掉了,我们将丢失正在处理的消息。以及后续发送给该消费者的消息,因此它无法接收到
为了保证消息在发送过程中不丢失,rabbitmq引入消息应答机制,消息应答就是:消费者在接收到消息并且处理该消息之后,告诉rabbitmq它已经处理了,rabbitmq可以把该消息删除了。
消息发送后立即被认为已经传送成功,这种模式需要在高吞吐量和数据传输安全性方面做权衡,因为这种模式如果消息在接收到之前,消费者那边出现连接或者channel关闭,那么消息就丢失了,当然另一方面这种模式消费者那边可以传递过载的消息,没有对传递的消息数量进行限制,当然这样有可能使得消费者这边由于接收太多还来不及处理的消息,导致这些消息的积压,最终使得内存耗尽,最终这些消费者线程被操作系统杀死,所以这种模式仅适用在消费者可以高效并以某种速率能够处理这些消息的情况下使用
Rabbitmq已经知道该消息并且成功的处理消息,可以将其丢弃了
与Channel.basicNack相比少一个参数
不处理该消息了直接拒绝,可以将其丢弃了
手动应答的好处是可以批量应答并且减少网络拥堵
1.multiple 的 true 和false代表不同意思
1.1 true代表批量应答channel上未应答的消息
比如说channel上有传送tag的消息5,6,7,8 当前tag是8那么此时5-8的这些还未应答的消息都会被确认收到消息应答
1.2 false 同上面相比
只会应答tag=8的消息,5,6,7这三个消息依然不会被确认收到消息应答
如果消费者由于某些原因失去连接(其通道已关闭,连接已关闭或TCP连接丢失),导致消息未发送ACK确认,RabbitMQ将了解到消息未完成处理,并将对其重新排队。如果此时其他消费者可以处理,它将很快将其重新分发给另一个消费者。这样,即使某个消费者偶尔死亡,也可以确保不会丢失任何消息。
默认消息采用的是自动应答,所以我们要想实现消息消费过程中不丢失,需要把自动应答改为手动应答,消费者在上面代码的基础上增加下面画红色部分的代码
消息生产者
package com.atguigu.rabbitmq.three; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.Channel; import com.rabbitmq.client.MessageProperties; import com.sun.org.apache.xerces.internal.util.XMLInputSourceAdaptor; import java.util.Scanner; /** * 消息在手动应答时是不丢失的,放回队列中重新消费 */ public class Task2 { //队列名称 public static final String TASK_QUEUE_NAME="ack_queue"; public static void main(String[] args) throws Exception { Channel channel= RabbitMqUtils.getChannel(); //开启发布确认 channel.confirmSelect(); //声明队列 boolean durable = true; //需要让Queue持久化 channel.queueDeclare(TASK_QUEUE_NAME,durable,false,false,null); //从控制台中输入信息 Scanner scanner=new Scanner(System.in); while (scanner.hasNext()){ String message=scanner.next(); //设置生产者发送消息为持久化消息(要求保存到磁盘上)保存在内存中 channel.basicPublish("",TASK_QUEUE_NAME, MessageProperties.PERSISTENT_TEXT_PLAIN,message.getBytes()); System.out.println("生产者发出信息:"+message); } } }
消费者01
package com.atguigu.rabbitmq.three; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.atguigu.rabbitmq.utils.SleepUtils; import com.rabbitmq.client.Channel; import com.rabbitmq.client.DeliverCallback; /** * 消息在手动应答时是不丢失,放回队列中重新消费 */ public class Work03 { //队列名称 public static final String TASK_QUEUE_NAME="ack_queue"; //接收消息 public static void main(String[] args) throws Exception { Channel channel = RabbitMqUtils.getChannel(); System.out.println("C3等待接收消息处理时间较短"); DeliverCallback deliverCallback=(consumerTag,message)->{ //沉睡1S SleepUtils.sleep(1); System.out.println("接收到的消息:"+new String(message.getBody(),"UTF-8")); //手动应答 /** * 1.消息标记 tag * 2.是否批量应答 false:不披露应答信道的消息 true 批量 */ channel.basicAck(message.getEnvelope().getDeliveryTag(),false); }; //设置不公平分发 // int prefetchCount = 1; //预取值 int prefetchCount = 2; channel.basicQos(prefetchCount); //采用手动应答 boolean autoAck = false; channel.basicConsume(TASK_QUEUE_NAME,autoAck,deliverCallback,consumerTag->{ System.out.println(consumerTag+"消费者取消消费接口"); }); } }
消费者02
package com.atguigu.rabbitmq.three; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.atguigu.rabbitmq.utils.SleepUtils; import com.rabbitmq.client.Channel; import com.rabbitmq.client.DeliverCallback; /** * 消息在手动应答时是不丢失,放回队列中重新消费 */ public class Work04 { //队列名称 public static final String TASK_QUEUE_NAME="ack_queue"; //接收消息 public static void main(String[] args) throws Exception { Channel channel = RabbitMqUtils.getChannel(); System.out.println("C4等待接收消息处理时间较长"); DeliverCallback deliverCallback=(consumerTag,message)->{ //沉睡1S SleepUtils.sleep(30); System.out.println("接收到的消息:"+new String(message.getBody(),"UTF-8")); //手动应答 /** * 1.消息标记 tag * 2.是否批量应答 false:不披露应答信道的消息 true 批量 */ channel.basicAck(message.getEnvelope().getDeliveryTag(),false); }; //设置不公平分发 // int prefetchCount = 1; //预取值 int prefetchCount = 5; channel.basicQos(prefetchCount); //采用手动应答 boolean autoAck = false; channel.basicConsume(TASK_QUEUE_NAME,autoAck,deliverCallback,consumerTag->{ System.out.println(consumerTag+"消费者取消消费接口"); }); } }
睡眠工具类
package com.atguigu.rabbitmq.utils;
/**
* 睡眠工具类
*/
public class SleepUtils {
public static void sleep(int second){
try {
Thread.sleep(1000*second);
} catch (InterruptedException e) {
Thread.currentThread().interrupt();
}
}
}
正常情况下消息发送两个消息c1和c2分别接收到消息并进行处理
在发送者发送消息dd,发出消息之后的把c2消费者停掉,按理说该C2来处理该消息,但是由于它处理时间较长,在未处理完,也就是说c2还没有执行ack代码的时候,C2被停掉了,此时会看到消息被C1接收到了,说明消息dd被重新入队,然后分配给能处理消息的C1处理了
刚刚我们已经看到了如何处理任务不丢失的情况,但是如何保障当RabbitMQ服务停掉以后消息生产者发送过来的消息不丢失。默认情况下RabbitMQ退出或由于某种原因崩溃时,它忽视队列和消息,除非告知它不要这样做。确保消息不会丢失需要做两件事情:我们需要将队列和消息都标记为持久化
之前我们创建的队列都是非持久化的,rabbitmq如果重启的话,该队列就会被删除,如果要队列实现持久化,需要在声明队列的时候把durable参数设置为持久化
但是需要注意的就是如果之前声明的队列不是持久化的,需要把原先队列先删除,或者重新创建一个持久化队列,不然就会出现错误
以下为控制台中持久化与非持久化队列的UI显示区
这个时候即使重启rabbitmq队列也依然存在
要想让消息实现持久化需要在消息生产者修改代码,MessageProperties.PERSISTENT_TEXT_PLAN添加这个属性
将消息标记为持久化并不能完全保证不会丢失消息,尽管它告诉RabbitMQ将消息保存到磁盘,但是这里依然存在当消息刚准备存储在磁盘的时候,但是还没有存储完,消息还在缓存的一个间隔点。此时并没有真正写入磁盘。持久性保证并不强,但是对于我们的简单任务队列而言,这已经绰绰有余了,如果需要更强有力的持久化策略,参考后边课件发布确认章节
在最开始的时候我们学习到RabbitMQ分发消息采用的是轮询分发,但是在某种场景下这种策略并不是很好,比如说有两个消费者在处理任务,其中有个消费者1处理任务的速度非常块,而另外一个消费者2处理速度却很慢,这个时候我们还是采用轮询分发的话就会导致处理速度快的这个消费者很大一部分时间处于空闲状态,而处理慢的那个消费者一直在干活,这种分配方式在这种情况下其实就不太好,但是RabbitMQ并不知道这种情况它依然很公平的进行分发
为了避免这种情况,我们可以设置参数channel.basicQos(1)
意思就是如果这个任务我还没有处理完或者我还没有应答你,你先别分配给我,我目前只能处理一个任务,然后rabbitmq就会把该任务分配给没有那么忙的那个空闲消费者,当然如果所有的消费者都没有完成手上任务,队列还在不停的添加新任务,队列有可能就会遇到队列被撑满的情况,这个时候就只能添加新的worker或者改变其他存储任务的策略
本身消息的发送就是异步发送的,所以在任何时候,channel上肯定不止只有一个消息,另外来自消费者的手动确认本质也是异步的。因此这里就存在一个未确认的消息缓冲区,因此希望开发人员能限制此缓冲区的大小,以避免缓冲区里面无限制的未确认消息问题。这个时候就可以通过使用basic.qos方法设置“预取计数”值来完成的。该值定义通道上允许的未确认消息的最大数量。一旦数量达到配置的数量,RabbitMQ将停止在通道上传递更多消息,除非至少有一个未处理的消息被确认,例如,假设在通道上有未确认的消息5,6,7,8,并且通道的预取计数设置为4,此时RabbitMQ将不会在该通道上再传递任何消息,除非至少有一个未应答的消息被ack。比如说tag=6这个消息刚刚被确认ACK,RabbitMQ将会感知这个情况到并再发送一条消息。消息应答和Qos预取值对用户吞吐量有重大影响。通常,增加预取将提高向消费者传递消息的速度,虽然自动应答传输消息速率是最佳的,但是,在这种情况下已传递但尚未处理的消息数量也会增加,从而增加了消费者的RAM消耗(随机存取存储器)应该小心使用具有无限预处理的自动确认模式或手动处理模式,消费者消费了大量的消息如果没有确认的话,会导致消费者连接节点的内存消耗变大,所以找到合适的预取值是一个反复实验的过程,不同的负载该值也不同100到300范围内的值通常可提供最佳的吞吐量,并且不会给消费者带来太大的风险。预取值为1是最保守的。当然这将使吞吐量变的很低,特别是消费者连接延迟很严重的情况下,特别是在消费者连接等待时间较长的环境中,对于大多数应用来说,稍微高一点的值将是最佳的
生产者将信道设置成confirm模式,一旦信道进入confirm模式,所有在该信道上面发布的消息都会被指派一个唯一的ID(从1开始),一旦消息被投递到所有匹配的队列之后,broker就会发送一个确认给生产者(包含消息的唯一ID),这就使得生产者知道消息已经正确到达目的队列了,如果消息和队列是可持久化的,那么确认消息会在将消息写入磁盘之后发出,borker回传给生产者的确认消息中delivery-tag域包含了确认消息的序列号,此外broker也可以设置basic.ack的multiple域,表示到这个序列号之前的所有消息都已经得到了处理。
confirm模式最大的好处在于它是异步的,一旦发布一条消息,生产者应用程序就可以在等信道返回确认的同时继续发送下一条消息,当消息最终得到确认之后,生产者应用便可以通过回调方法来处理该确认消息,当消息最终得到确认之后,生产者应用便可以通过回调方法来处理该确认消息,如果RabbitMQ因为自身内部错误导致消息丢失,就会发送一条nack消息,生产者应用程序同样可以在回调方法中处理nack消息
发布确认默认是没有开启的,如果要开启需要调用方法confirmSelect,每当你要想使用发布确认,都需要在channel上调用该方法
这是一种简单的确认方式,它是一种同步确认发布的方式,也就是发布一个消息之后只有它被确认发布,后续的消息才能继续发布,waitForConfirmsOrDie(long)这个方法只有在消息被确认的时候才返回,如果在指定时间范围内这个消息没有被确认那么它将抛出异常
这种确认方式有一个最大的缺点就是:发布速度特别的慢,因为如果没有确认发布的消息就会阻塞所有后续消息的发布,这种方式最多提供每秒不超过数百条发布消息的吞吐量。当然对于某些应用程序来说这可能已经足够了
//单个确认 public static void publishMessageIndividually()throws Exception{ Channel channel = RabbitMqUtils.getChannel(); //队列的声明 String queueName = UUID.randomUUID().toString(); channel.queueDeclare(queueName,true,false,false,null); //开启发布确认 channel.confirmSelect(); //开始时间 long begin = System.currentTimeMillis(); //批量发消息 for(int i=0;i<MESSAGE_COUNT;i++){ String message=i+""; channel.basicPublish("",queueName,null,message.getBytes()); //单个消息就马上进行发布确认 boolean flag=channel.waitForConfirms(); if (flag){ System.out.println("消息发送成功"); } } long end = System.currentTimeMillis(); System.out.println("发布"+MESSAGE_COUNT+"个单独确认消息,耗时"+(end-begin)+"ms"); }
上面哪种方式非常慢,与单给等待确认消息相比,先发布一批消息然后一起确认可以极大地提高吞吐量,当然这种方式的缺点就是:当发生故障导致发布出现问题时,不知道是哪个消息出现问题了,我们必须将整个批处理保存在内存中,以记录重要的信息而后重新发布消息。当然这种方案仍然是同步的,也一样阻塞消息的发布。
//批量发布确认 public static void publishMessageBatch()throws Exception{ Channel channel = RabbitMqUtils.getChannel(); //队列的声明 String queueName = UUID.randomUUID().toString(); channel.queueDeclare(queueName,true,false,false,null); //开启发布确认 channel.confirmSelect(); //开始时间 long begin = System.currentTimeMillis(); //批量确认消息的大小 int batchSize=100; //批量发消息 for(int i=0;i<MESSAGE_COUNT;i++){ String message=i+""; channel.basicPublish("",queueName,null,message.getBytes()); //发布确认 //判断达到100条消息的时候,批量确认一次 if (i%batchSize == 0){ channel.waitForConfirms(); } } long end = System.currentTimeMillis(); System.out.println("发布"+MESSAGE_COUNT+"个批量确认消息,耗时"+(end-begin)+"ms"); }
异步确认虽然编程逻辑比上两个要复杂,但是性价比要高,无论是可靠性还是效率都没得说,他是利用回调函数来达到消息可靠性传递的,这个中间件也是通过函数回调来保证是否投递成功,下面就让我们来详细讲解异步确认是怎么实现的
//异步发布确认 public static void publishMessageAsync()throws Exception{ Channel channel = RabbitMqUtils.getChannel(); //队列的声明 String queueName = UUID.randomUUID().toString(); channel.queueDeclare(queueName,true,false,false,null); //开启发布确认 channel.confirmSelect(); /** * 线程安全有序的一个哈希表,适用于高并发的情况下 * 1.轻松的将序号与消息进行关联 * 2.轻松的批量删除条目,只要给到序号 * 3.支持高并发 */ ConcurrentSkipListMap<Long,String> outstandingConfirms = new ConcurrentSkipListMap<>(); //开始时间 long begin = System.currentTimeMillis(); //消息成功回调 ConfirmCallback askCallback = (deliveryTag,multiple)->{ if (multiple){ //3.打印哪些未确认的消息 ConcurrentNavigableMap<Long, String> confirmed = outstandingConfirms.headMap(deliveryTag); confirmed.clear(); }else{ outstandingConfirms.remove(deliveryTag); } //2.删除到已经确认的消息,剩下的是未确认的消息 System.out.println("确认的消息"+deliveryTag); }; //消息失败回调 /** * 1.消息的标识 * 2.是否为批量确认 */ ConfirmCallback nackCallback = (deliveryTag,multiple)->{ String message = outstandingConfirms.get(deliveryTag); System.out.println("未确认的消息是:"+message+"未确认的消息"+deliveryTag); }; /** * 1.监听哪些消息成功了 * 2.监听哪些消息失败了 */ //准备消息的监听器 监听哪些消息成功了,哪些消息失败了 channel.addConfirmListener(askCallback,nackCallback);//异步通知 //批量发送消息 for (int i=0;i<MESSAGE_COUNT;i++){ String message="消息"+i; channel.basicPublish("",queueName,null,message.getBytes()); //1:此处记录下所有要发送的消息 消息的总和 outstandingConfirms.put(channel.getNextPublishSeqNo(),message); } long end = System.currentTimeMillis(); System.out.println("发布"+MESSAGE_COUNT+"个异步发布确认消息,耗时"+(end-begin)+"ms"); }
最好的解决的解决方案就是把未确认的消息放到一个基于内存的能被发布线程访问的队列,比如说用 ConcurrentLinkedQueue 这个队列在 confirm callbacks 与发布线程之间进行消息的传递。
单独发布消息
同步等待确认,简单,但吞吐量非常有限。
批量发布消息
批量同步等待确认,简单,合理的吞吐量,一旦出现问题但很难推断出是那条
消息出现了问题。
异步处理:
最佳性能和资源使用,在出现错误的情况下可以很好地控制,但是实现起来稍微难些
在上一节,我们创建了一个工作队列。我们假设的是工作队列背后,每个任务都恰好交付给一个消费者(工作进程)。在这一部分中,我们将做一些完全不同的事情-我们将消息传达给多个消费者。这种模式称为“发布/订阅”
为了说明这种模式,我们将构建一个简单的日志系统。它将由两个程序组成:第一个程序将发出日志消息,第二个程序是消费者。其中我们会启动两个消费者,其中一个消费者接收到消息后把日志存储在磁盘,另一个消费者接收到消息后把消息打印在屏幕上,事实上第一个程序发出的日志消息将广播给所有消费者
RabbitMQ消息传递模型的核心思想是:生产者生产的消息从不会直接发送到队列。实际上,通常生产者甚至都不知道这些消息传递到了哪些队列中
相反,生产者只能将消息发送到交换机(exchange),交换机工作的内容非常简单,一方面它接收来自生产者的消息,另一方面将它们推入队列。交换机必须确切知道如何处理收到的消息。是应该把这些消息放到特定队列还是说把他们放到许多队列中还是说应该丢弃它们。这就得由交换机的类型来决定了
总共由以下类型:
在本教程的前面我们对exchange一无所知,但仍然能够将消息发送到队列。之前能实现的原因是我们使用的是默认交换机,我们通过空字符串(“”)进行标识
第一个参数是交换机的名称。空字符串标识默认或无名交换机:消息能路由发送到队列中其实是由routingKey(bindingkey)绑定key指定的,如果它存在的话
之前的章节我们使用的是具有特定名称的队列(还记得hello和ack_queue吗?)队列的名称对我们来说至关重要-我们需要指定我们的消费者去消费哪个队列的消息
每当我们连接到Rabbit时,我们都需要一个全新的空队列,为此我们可以创建一个具有随机名称的队列,或者额能让服务器为我们选择一个随机队列名称那就更好了。其次一旦我们断开了消费者的连接,队列将被自动删除
什么是bingding呢,binding其实是exchange和queue之间的桥梁,它告诉我们exchange和那个队列进行绑定关系。比如说下面这张图告诉我们的就是X与Q1和Q2进行了绑定
Fanout 这种类型非常简单。正如从名称中猜到的那样,它是将接收到的所有消息广播到它知道的所有队列中。系统中默认有些exchange类型
Logs 和临时队列的绑定关系如下图
ReceiveLogs01将接收到的消息打印在控制台
package com.atguigu.rabbitmq.five; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.Channel; import com.rabbitmq.client.DeliverCallback; public class ReceiveLogs01 { //交换机的名称 public static final String EXCHANGE_NAME="logs"; public static void main(String[] args) throws Exception { Channel channel= RabbitMqUtils.getChannel(); //声明一个交换机 channel.exchangeDeclare(EXCHANGE_NAME,"fanout"); //声明一个队列 临时队列 /** * 生成一个临时队列,队列的名称是随机的 * 当消费者断开与队列的连接的时候,队列就自动删除 */ String queueName=channel.queueDeclare().getQueue(); /** * 绑定交换机与队列 * */ channel.queueBind(queueName,EXCHANGE_NAME,""); System.out.println("等待接收消息,把接收到的消息打印在屏幕上...."); //接收消息 //消费者取消消息时回调接口 DeliverCallback deliverCallback=(consumerTag,message) ->{ System.out.println("01控制台打印接收到的消息:"+new String(message.getBody(),"UTF-8")); }; channel.basicConsume(queueName,true,deliverCallback,consumerTag->{}); } }
ReceiveLogs02将接收到的消息打印
package com.atguigu.rabbitmq.five; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.Channel; import com.rabbitmq.client.DeliverCallback; public class ReceiveLogs02 { //交换机的名称 public static final String EXCHANGE_NAME="logs"; public static void main(String[] args) throws Exception { Channel channel= RabbitMqUtils.getChannel(); //声明一个交换机 channel.exchangeDeclare(EXCHANGE_NAME,"fanout"); //声明一个队列 临时队列 /** * 生成一个临时队列,队列的名称是随机的 * 当消费者断开与队列的连接的时候,队列就自动删除 */ String queueName=channel.queueDeclare().getQueue(); /** * 绑定交换机与队列 * */ channel.queueBind(queueName,EXCHANGE_NAME,""); System.out.println("等待接收消息,把接收到的消息打印在屏幕上...."); //接收消息 //消费者取消消息时回调接口 DeliverCallback deliverCallback=(consumerTag,message) ->{ System.out.println("02控制台打印接收到的消息:"+new String(message.getBody(),"UTF-8")); }; channel.basicConsume(queueName,true,deliverCallback,consumerTag->{}); } }
EmitLog发送消息给两个消费者接收
package com.atguigu.rabbitmq.five; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.Channel; import java.util.Scanner; /** * 发消息 交换机 */ public class EmitLog { //交换机的名称 public static final String EXCHANGE_NAME="logs"; public static void main(String[] args) throws Exception { Channel channel= RabbitMqUtils.getChannel(); channel.exchangeDeclare(EXCHANGE_NAME,"fanout"); Scanner scanner=new Scanner(System.in); while (scanner.hasNext()){ String message = scanner.next(); channel.basicPublish(EXCHANGE_NAME,"",null,message.getBytes("UTF-8")); System.out.println("生产者发出消息:" + message); } } }
在上一节中,我们构建了一个简单的日志记录系统。我们能够向许多接收者广播日志消息。在本节我们将向其中添加一些特别的功能-比方说我们只让某个消费者订阅发布的部分消息。例如我们只把严重错误消息打印错误日志,同时仍然能够在控制台上打印所有日志消息
我们再来回顾一下什么是bindings,绑定是交换机和队列之间的桥梁关系。也可以这么理解:队列只对它绑定的交换机的消息感兴趣。绑定用参数:routing key来表示也可称该参数为 binding key,创建绑定我们用代码: channe.queueBind(queueName,EXCHANGE_NAME,“routing key”);绑定之后意义由其交换类型决定
上一节中的我们的日志系统将所有消息广播给所有消费者,对此我们想做一些改变,例如我们希望将日志消息c1打印严重错误,c2打印日志。Fanout这种交换类型并不能给我们带来很大的灵活性-它只能进行无意识的广播,在这里我们将使用direct这种类型来进行替换,这种类型的工作方式是,消息只去到它绑定的routingKey队列中
在上面这张图中,我们可以看到X绑定了两个队列,绑定类型是direct。队列Q1绑定键为orange,队列Q2绑定键有两个:一个绑定键为black,另一个绑定键为green
在这种绑定情况下,生产者发布消息到exchange上,绑定键位orange的消息会被发布到队列Q1。绑定键位black和green的消息会被发布到队列Q2,其他消息类型的消息将被丢弃
当然如果exchange的绑定类型是direct,但是它绑定的多个队列的key如果都相同,在这种情况下虽然绑定类型是direct 但是它表现的就和fanout有点类似了,就跟广播差不多了,如上图所示。
package com.atguigu.rabbitmq.six; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.BuiltinExchangeType; import com.rabbitmq.client.Channel; import com.rabbitmq.client.DeliverCallback; public class ReceiveLogsDirect01 { public static final String EXCHANGE_NAME= "direct_logs"; public static void main(String[] args) throws Exception { Channel channel= RabbitMqUtils.getChannel(); //声明一个交换机 channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT); //声明一个队列 channel.queueDeclare("console",false,false,false,null); channel.queueBind("console",EXCHANGE_NAME,"info"); channel.queueBind("console",EXCHANGE_NAME,"warning"); //消费者取消消息时回调接口 DeliverCallback deliverCallback=(consumerTag, message) ->{ System.out.println("ReceiveLogsDirect01控制台打印接收到的消息:"+new String(message.getBody(),"UTF-8")); }; channel.basicConsume("console",true,deliverCallback,consumerTag->{}); } }
package com.atguigu.rabbitmq.six; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.BuiltinExchangeType; import com.rabbitmq.client.Channel; import com.rabbitmq.client.DeliverCallback; public class ReceiveLogsDirect02 { public static final String EXCHANGE_NAME= "direct_logs"; public static void main(String[] args) throws Exception { Channel channel= RabbitMqUtils.getChannel(); //声明一个交换机 channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.DIRECT); //声明一个队列 channel.queueDeclare("disk",false,false,false,null); channel.queueBind("disk",EXCHANGE_NAME,"error"); //消费者取消消息时回调接口 DeliverCallback deliverCallback=(consumerTag, message) ->{ System.out.println("ReceiveLogsDirect02控制台打印接收到的消息:"+new String(message.getBody(),"UTF-8")); }; channel.basicConsume("disk",true,deliverCallback,consumerTag->{}); } }
package com.atguigu.rabbitmq.six; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.Channel; import java.util.Scanner; /** * 发消息 交换机 */ public class DirectLogs { //交换机的名称 public static final String EXCHANGE_NAME="direct_logs"; public static void main(String[] args) throws Exception { Channel channel= RabbitMqUtils.getChannel(); Scanner scanner=new Scanner(System.in); while (scanner.hasNext()){ String message = scanner.next(); channel.basicPublish(EXCHANGE_NAME,"error",null,message.getBytes("UTF-8")); System.out.println("生产者发出消息:" + message); } } }
在上一节中,我们改进了日志记录系统,我们没有使用只能进行随意广播的fanout交换机,而是使用了direct交换机,从而有能实现有选择性地接收日志
尽管使用direct交换机改进了我们的系统,但是它仍然存在局限性-比方说我们想接收的日志类型有info.base和info.advantage,某个队列只想info.base的消息,那这个时候direct就办不到了。这个时候就只能使用topic类型
发送到类型是topic交换机的消息的routingkey不能随意写,必须满足一定的要求,它必须是一个单词列表,以点好分隔开。这些单词可以是任意单词,比如说:”stock.usd.nyse“,“nyse.vmw”,“quick.orange.rabbit” .这种类型的。当然这个单词列表不能超过255个字节
*(星号)可以代替一个单词
(井号)可以代替零个或多个单词
下图绑定关系如下
Q1 -->绑定的是
中间带orange带3个单词的字符串(.orange.)
Q2 -->绑定的是
最后一个单词是rabbit的三个单词(..rabbit)
第一个单词是lazy的多个单词(lazy.#)
上图是一个队列绑定关系图,我们来看看它们之间数据接收情况是怎么样的
quick.orange.rabbit 被队列 Q1Q2 接收到
lazy.orange.elephant 被队列 Q1Q2 接收到
quick.orange.fox 被队列 Q1 接收到
lazy.brown.fox 被队列 Q2 接收到
lazy.pink.rabbit 虽然满足两个绑定但只被队列 Q2 接收一次
quick.brown.fox 不匹配任何绑定不会被任何队列接收到会被丢弃
quick.orange.male.rabbit 是四个单词不匹配任何绑定会被丢弃
lazy.orange.male.rabbit 是四个单词但匹配 Q2
当队列绑定关系是下列这种情况时需要引起注意
当一个队列绑定键时#,那么这个队列将接收所有数据,就有点像fanout了
如果队列绑定键当中没有#和*出现,那么该队列绑定类型就是direct了
package com.atguigu.rabbitmq.seven; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.Channel; import java.util.HashMap; import java.util.Map; /** * 生产者 */ public class EmitLogTopic { //交换机的名称 public static final String EXCHANGE_NAME = "topic_logs"; public static void main(String[] args) throws Exception { Channel channel=RabbitMqUtils.getChannel(); /** * 下图绑定关系如下 * Q1 -> 绑定的是 * 中间带orange带3个单词的字符串(*.orange.*) * Q2 -> 绑定的是 * 最后一个单词是rabbit的3个单词(*.*.rabbit) * 第一个单词是lazy的多个单词(lazy.#) */ Map<String,String> bindingKeyMap = new HashMap<>(); bindingKeyMap.put("quick.orange.rabbit","被队列 Q1Q2 接收到"); bindingKeyMap.put("lazy.orange.elephant","被队列 Q1Q2 接收到"); bindingKeyMap.put("quick.orange.fox","被队列 Q1 接收到"); bindingKeyMap.put("lazy.brown.fox","被队列 Q2 接收到"); bindingKeyMap.put("lazy.pink.rabbit","虽然满足两个绑定但只被队列 Q2 接收一次"); bindingKeyMap.put("quick.brown.fox","不匹配任何绑定不会被任何队列接收到会被丢弃"); bindingKeyMap.put("quick.orange.male.rabbit","是四个单词不匹配任何绑定会被丢弃"); bindingKeyMap.put("lazy.orange.male.rabbit","是四个单词但匹配 Q2"); for (Map.Entry<String,String> bindingKeyEntry:bindingKeyMap.entrySet()){ String routing = bindingKeyEntry.getKey(); String message = bindingKeyEntry.getValue(); channel.basicPublish(EXCHANGE_NAME,routing,null,message.getBytes("UTF-8")); System.out.println("生产者发出消息:"+message); } } }
package com.atguigu.rabbitmq.seven; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.BuiltinExchangeType; import com.rabbitmq.client.Channel; import com.rabbitmq.client.DeliverCallback; /** * 声明主题交换机 相关队列 * * 消费者c1 */ public class ReceiveLogsTopic01 { //交换机的名称 public static final String EXCHANGE_NAME="topic_logs"; //接收消息 public static void main(String[] args) throws Exception { Channel channel = RabbitMqUtils.getChannel(); //声明交换机 channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.TOPIC); //声明队列 String queueName = "Q1"; channel.queueDeclare(queueName,false,false,false,null); channel.queueBind(queueName,EXCHANGE_NAME,"*.orange.*"); System.out.println("等待接收消息..."); DeliverCallback deliverCallback=(consumerTag,message)->{ System.out.println(new String(message.getBody(),"UTF-8")); System.out.println("接收队列:"+queueName + " 绑定键:"+message.getEnvelope().getRoutingKey()); }; //接收消息 channel.basicConsume(queueName,true,deliverCallback,consumerTag->{}); } }
package com.atguigu.rabbitmq.seven; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.BuiltinExchangeType; import com.rabbitmq.client.Channel; import com.rabbitmq.client.DeliverCallback; /** * 声明主题交换机 相关队列 * * 消费者c2 */ public class ReceiveLogsTopic02 { //交换机的名称 public static final String EXCHANGE_NAME="topic_logs"; //接收消息 public static void main(String[] args) throws Exception { Channel channel = RabbitMqUtils.getChannel(); //声明交换机 channel.exchangeDeclare(EXCHANGE_NAME, BuiltinExchangeType.TOPIC); //声明队列 String queueName = "Q2"; channel.queueDeclare(queueName,false,false,false,null); channel.queueBind(queueName,EXCHANGE_NAME,"*.*.rabbit"); channel.queueBind(queueName,EXCHANGE_NAME,"lazy.#"); System.out.println("等待接收消息..."); DeliverCallback deliverCallback=(consumerTag,message)->{ System.out.println(new String(message.getBody(),"UTF-8")); System.out.println("接收队列:"+queueName + " 绑定键:"+message.getEnvelope().getRoutingKey()); }; //接收消息 channel.basicConsume(queueName,true,deliverCallback,consumerTag->{}); } }
先从概念解释上搞清楚这个定义,死信,顾名思义就是无法被消费的消息,字面意思可以这样理解,一般来说,producer将消息投递到broker或直接到queue里了,consumer从queue取出消息进行消费,但某些时候由于特定的原因导致queue中某些消息无法被消费,这样的消息如果没有后续的处理,就变成了死信,有死信自然就有了死信队列。
应用场景:为了保证订单业务的消息数据不丢失,需要使用到RabbitMQ的死信队列机制,当消息消费发生异常时,将消息投入到死信队列中,还有比如说:用户在商城下单成功并点击去支付后在指定时间未支付时自动失效
消息TTL过期
队列达到最大长度(队列满了,无法添加数据到mq中)
消息被拒绝(basic.reject或basic.nack)并且requeue=false
生产者代码
package com.atguigu.rabbitmq.eight; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.AMQP; import com.rabbitmq.client.BuiltinExchangeType; import com.rabbitmq.client.Channel; /** * 死信队列 之 生产者 代码 */ public class Producer { //普通交换机的名称 public static final String NORMAL_EXCHANGE = "normal_exchange"; public static void main(String[] args) throws Exception { Channel channel = RabbitMqUtils.getChannel(); //死信消息,设置TTL时间 AMQP.BasicProperties properties = new AMQP.BasicProperties().builder().expiration("10000").build(); //死信消息,设置TTL时间 for (int i = 0; i < 11; i++) { String message = "info" + i; channel.basicPublish(NORMAL_EXCHANGE,"zhangsan",properties,message.getBytes()); } } }
消费者C1代码(启动之后关闭该消费者 模拟其接收不到消息)
package com.atguigu.rabbitmq.eight; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.BuiltinExchangeType; import com.rabbitmq.client.Channel; import com.rabbitmq.client.DeliverCallback; import java.util.HashMap; import java.util.Map; /** * 死信队列 * */ public class Consumer01 { //普通交换机的名称 public static final String NORMAL_EXCHANGE = "normal_exchange"; //死信交换机的名称 public static final String DEAD_EXCHANGE = "dead_exchange"; //普通队列的名称 public static final String NORMAL_QUEUE = "normal_queue"; //死信队列的名称 public static final String DEAD_QUEUE = "dead_queue"; public static void main(String[] args) throws Exception { Channel channel = RabbitMqUtils.getChannel(); //声明死信和普通的交换机 类型为direct channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT); channel.exchangeDeclare(DEAD_EXCHANGE,BuiltinExchangeType.DIRECT); //声明普通队列 Map<String,Object> arguments = new HashMap<>(); //过期时间 // arguments.put("x-message-ttl",100000); //正常队列设置死信交换机 arguments.put("x-dead-letter-exchange",DEAD_EXCHANGE); //要设置死信RoutingKey arguments.put("x-dead-letter-routing-key","lisi"); //设置正常队列长度的限制 // arguments.put("x-max-length",6); channel.queueDeclare(NORMAL_QUEUE,false,false,false,arguments); //声明死信队列 channel.queueDeclare(DEAD_QUEUE,false,false,false,null); //绑定普通的交换机与队列 channel.queueBind(NORMAL_QUEUE,NORMAL_EXCHANGE,"zhangsan"); //绑定死信的交换机与死信的队列 channel.queueBind(DEAD_QUEUE,DEAD_EXCHANGE,"lisi"); System.out.println("等待接收消息。。。"); DeliverCallback deliverCallback = (consumerTag,message)->{ String msg=new String(message.getBody(),"UTF-8"); if (msg.equals("info5")){ System.out.println("Consumer01接收的消息是:"+new String(message.getBody(),"UTF-8")+"此消息是被拒绝的"); channel.basicReject(message.getEnvelope().getDeliveryTag(),false); }else{ System.out.println("Consumer01接收的消息是:"+new String(message.getBody(),"UTF-8")); channel.basicAck(message.getEnvelope().getDeliveryTag(),false); } }; //开启手动应答 channel.basicConsume(NORMAL_QUEUE,false,deliverCallback,consumerTag->{} ); } }
消费者C1代码(启动之后关闭该消费者 模拟其接收不到消息)
package com.atguigu.rabbitmq.eight; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.BuiltinExchangeType; import com.rabbitmq.client.Channel; import com.rabbitmq.client.DeliverCallback; import java.util.HashMap; import java.util.Map; /** * 死信队列 * * 消费者2 */ public class Consumer02 { //死信队列的名称 public static final String DEAD_QUEUE = "dead_queue"; public static void main(String[] args) throws Exception { Channel channel = RabbitMqUtils.getChannel(); System.out.println("等待接收消息。。。"); DeliverCallback deliverCallback = (consumerTag,message)->{ System.out.println("Consumer02接收的消息是:"+new String(message.getBody(),"UTF-8")); }; channel.basicConsume(DEAD_QUEUE,true,deliverCallback,consumerTag->{} ); } }
1.消息生产者代码去掉TTL属性
package com.atguigu.rabbitmq.eight; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.AMQP; import com.rabbitmq.client.BuiltinExchangeType; import com.rabbitmq.client.Channel; /** * 死信队列 之 生产者 代码 */ public class Producer { //普通交换机的名称 public static final String NORMAL_EXCHANGE = "normal_exchange"; public static void main(String[] args) throws Exception { Channel channel = RabbitMqUtils.getChannel(); //死信消息,设置TTL时间 // AMQP.BasicProperties properties = new AMQP.BasicProperties().builder().expiration("10000").build(); //死信消息,设置TTL时间 for (int i = 0; i < 11; i++) { String message = "info" + i; channel.basicPublish(NORMAL_EXCHANGE,"zhangsan",null,message.getBytes()); } } }
2.C1消费者修改以下代码(启动之后关闭该消费者 模拟其接收不到消息)
package com.atguigu.rabbitmq.eight; import com.atguigu.rabbitmq.utils.RabbitMqUtils; import com.rabbitmq.client.BuiltinExchangeType; import com.rabbitmq.client.Channel; import com.rabbitmq.client.DeliverCallback; import java.util.HashMap; import java.util.Map; /** * 死信队列 * */ public class Consumer01 { //普通交换机的名称 public static final String NORMAL_EXCHANGE = "normal_exchange"; //死信交换机的名称 public static final String DEAD_EXCHANGE = "dead_exchange"; //普通队列的名称 public static final String NORMAL_QUEUE = "normal_queue"; //死信队列的名称 public static final String DEAD_QUEUE = "dead_queue"; public static void main(String[] args) throws Exception { Channel channel = RabbitMqUtils.getChannel(); //声明死信和普通的交换机 类型为direct channel.exchangeDeclare(NORMAL_EXCHANGE, BuiltinExchangeType.DIRECT); channel.exchangeDeclare(DEAD_EXCHANGE,BuiltinExchangeType.DIRECT); //声明普通队列 Map<String,Object> arguments = new HashMap<>(); //过期时间 // arguments.put("x-message-ttl",100000); //正常队列设置死信交换机 arguments.put("x-dead-letter-exchange",DEAD_EXCHANGE); //要设置死信RoutingKey arguments.put("x-dead-letter-routing-key","lisi"); //设置正常队列长度的限制 arguments.put("x-max-length",6); channel.queueDeclare(NORMAL_QUEUE,false,false,false,arguments); //声明死信队列 channel.queueDeclare(DEAD_QUEUE,false,false,false,null); //绑定普通的交换机与队列 channel.queueBind(NORMAL_QUEUE,NORMAL_EXCHANGE,"zhangsan"); //绑定死信的交换机与死信的队列 channel.queueBind(DEAD_QUEUE,DEAD_EXCHANGE,"lisi"); System.out.println("等待接收消息。。。"); DeliverCallback deliverCallback = (consumerTag,message)->{ String msg=new String(message.getBody(),"UTF-8"); if (msg.equals("info5")){ System.out.println("Consumer01接收的消息是:"+new String(message.getBody(),"UTF-8")+"此消息是被拒绝的"); channel.basicReject(message.getEnvelope().getDeliveryTag(),false); }else{ System.out.println("Consumer01接收的消息是:"+new String(message.getBody(),"UTF-8")); channel.basicAck(message.getEnvelope().getDeliveryTag(),false); } }; //开启手动应答 channel.basicConsume(NORMAL_QUEUE,false,deliverCallback,consumerTag->{} ); } }
注意此时需要把原先队列删除,因为参数改变了
3.c2消费者代码不变(启动C2消费者)
代码同上面一样
延迟队列,队列内部是有序的,最重要的特性就体现在它的延时属性上,延时队列中的元素是希望在指定时间到了以后或之前取出和处理,简单来说,延迟队列就是用来存放需要在指定时间被处理的元素队列
1.订单在十分钟之内未支付则自动取消
2.新创建的店铺,如果在十天内都没有上传过商品,则自动发送消息提醒。
3.用户注册成功后,如果三天内没有登录则进行短信提醒。
4.用户发起退款,如果三天内没有得到处理则通知相关运营人员
5.预定会议后,需要在预定时间点前十分钟通知各个与会人员参加会议
这些场景都有一个特点,需要在某个事件发生之后或者之前的指定事件点完成某一项任务,如:发生订单生产事件,在十分钟之后检查该订单支付状态,然后将未支付的订单进行关闭;看起来似乎使用定时任务,一直轮询数据,每秒查一次,取出需要被处理的数据,然后处理不就完事了吗?如果数据量比较少,确实可以这样做,比如:对于“如果账单一周内未支付则进行自动结算”这样的需求,如果对于事件不是严格限制,而是宽松意义上的一周,那么每天晚上跑个定时任务检查一下所有未支付的账单,确实也是可行的方案。但对于数据量比较大,并且时效性较强的场景,如:“订单十分钟未支付则关闭”,短期内未支付的订单数据可能会很多,活动期间甚至会达到百万甚至千万级别,对这么庞大的数据量仍旧使用轮询的方式显然是不可取的,很可能在一秒内无法完成所有订单的检查,同时会给数据库带来很大的压力,无法满足业务要求而且性能低下。
TTL是什么呢?TTL是RabbitMQ中一个消息或者队列的属性,表明一条消息或者该队列中的所有消息的最大存活时间,单位是毫秒。换句话说,如果一条消息设置了TTL属性或者进入设置TTL属性的队列,那么这条消息如果在TTL设置的时间内没有被消费,则会变成"死信"。如果同时配置了队列的TTL和消息的TTL,那么较小的那个值将会被使用,有两种设置TTL
另一种方式便是针对每条消息设置TTL
第一种是在创建队列的时候设置队列的“x-message-ttl”属性
如果设置了队列的TTL属性,那么一旦消息过期,就会被队列丢弃(如果配置了死信队列被丢到死信队列中),而第二种方式,消息即使过期,也不一定会被马上丢弃,因为消息是否过期是在即将投递到消费者之前判定的,如果当前队列有严重的消息积压情况,则已过期的消息也许还能存活较长时间;另外,还需要注意的一点是,如果不设置TTL,表示消息永不过期,如果将ttl设置为0,则表示除非此时可以直接投递该消息到消费者,否则该消息将会被丢弃
前一小节我们介绍了死信队列,刚刚又介绍了TTL,至此利用RabbitMQ实现延时队列的两大要素已经集齐,接下来只需要将它们进行融合,再加一点点调味料,延时队列就可以新鲜出炉了。想想看,延时队列,不就是想要消息延迟多久被处理吗,TTL则刚好能让消息在延迟多久之后成为死信,另一方面,成为死信的消息都会被投递到死信队列里,这样只需要消费者一直消费死信队列里的消息就完事了,因为里面的消息都是希望被立即处理的消息
<dependencies> <!--RabbitMQ 依赖--> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-amqp</artifactId> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-test</artifactId> <scope>test</scope> </dependency> <dependency> <groupId>com.alibaba</groupId> <artifactId>fastjson</artifactId> <version>1.2.47</version> </dependency> <dependency> <groupId>org.projectlombok</groupId> <artifactId>lombok</artifactId> </dependency> <!--swagger--> <dependency> <groupId>io.springfox</groupId> <artifactId>springfox-swagger2</artifactId> <version>2.9.2</version> </dependency> <dependency> <groupId>io.springfox</groupId> <artifactId>springfox-swagger-ui</artifactId> <version>2.9.2</version> </dependency> <!--RabbitMQ 测试依赖--> <dependency> <groupId>org.springframework.amqp</groupId> <artifactId>spring-rabbit-test</artifactId> <scope>test</scope> </dependency> </dependencies>
spring.rabbitmq.host=182.92.234.71
spring.rabbitmq.port=5672
spring.rabbitmq.username=admin
spring.rabbitmq.password=123
import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import springfox.documentation.builders.ApiInfoBuilder; import springfox.documentation.service.ApiInfo; import springfox.documentation.service.Contact; import springfox.documentation.spi.DocumentationType; import springfox.documentation.spring.web.plugins.Docket; import springfox.documentation.swagger2.annotations.EnableSwagger2; @Configuration @EnableSwagger2 public class SwaggerConfig { @Bean public Docket webApiConfig(){ return new Docket(DocumentationType.SWAGGER_2) .groupName("webApi") .apiInfo(webApiInfo()) .select() .build(); } private ApiInfo webApiInfo(){ return new ApiInfoBuilder() .title("rabbitmq 接口文档") .description("本文档描述了 rabbitmq 微服务接口定义") .version("1.0") .contact(new Contact("enjoy6288", "http://atguigu.com", "1551388580@qq.com")) .build(); }
创建两个队列QA和QB,两者队列TTL分别设置为10S和40S,然后在创建一个交换机X和死信交换机Y,它们的类型都是direct,创建一个死信队列QD,它们的绑定关系如下:
package com.atguigu.rabbitmq.springbootrabbitmq.config; import org.springframework.amqp.core.*; import org.springframework.beans.factory.annotation.Qualifier; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import java.util.HashMap; import java.util.Map; /** * TTL队列 配置文件类代码 */ @Configuration public class TtlQueueConfig { //普通交换机的名称 public static final String X_EXCHANGE = "X"; //死信交换机的名称 public static final String Y_DEAD_LETTER_EXCHANGE = "Y"; //普通队列的名称 public static final String QUEUE_A = "QA"; public static final String QUEUE_B = "QB"; //死信队列的名称 public static final String DEAD_LETTER_QUEUE = "QD"; //普通队列的名称 public static final String QUEUE_C = "QC"; //声明队列 @Bean("queueC") public Queue queueC(){ Map<String,Object> arguments = new HashMap<>(3); //设置死信交换机 arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER_EXCHANGE); //设置死信RoutingKey arguments.put("x-dead-letter-routing-key","YD"); //设置TTL return QueueBuilder.durable(QUEUE_C).withArguments(arguments).build(); } @Bean public Binding queueCBindingX(@Qualifier("queueC")Queue queueC,@Qualifier("xExchange")DirectExchange exchange){ return BindingBuilder.bind(queueC).to(xExchange()).with("XC"); } //声明xExchange @Bean("xExchange") public DirectExchange xExchange(){ return new DirectExchange(X_EXCHANGE); } @Bean("yExchange") public DirectExchange yExchange(){ return new DirectExchange(Y_DEAD_LETTER_EXCHANGE); } //声明队列 @Bean("queueA") public Queue queueA(){ Map<String,Object> arguments = new HashMap<>(3); //设置交换机 arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER_EXCHANGE); //设置死信RoutingKey arguments.put("x-dead-letter-routing-key","YD"); //设置TTL arguments.put("x-message-ttl",10000); return QueueBuilder.durable(QUEUE_A).withArguments(arguments).build(); } //声明队列 @Bean("queueB") public Queue queueB(){ Map<String,Object> arguments = new HashMap<>(3); //设置交换机 arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER_EXCHANGE); //设置死信RoutingKey arguments.put("x-dead-letter-routing-key","YD"); //设置TTL arguments.put("x-message-ttl",40000); return QueueBuilder.durable(QUEUE_B).withArguments(arguments).build(); } //死信队列 @Bean("queueD") public Queue queueD(){ return QueueBuilder.durable(DEAD_LETTER_QUEUE).build(); } //绑定 @Bean public Binding queueABindingX(@Qualifier("queueA") Queue queueA, @Qualifier("xExchange") DirectExchange xExchange){ return BindingBuilder.bind(queueA).to(xExchange).with("XA"); } //绑定 @Bean public Binding queueBBindingX(@Qualifier("queueB") Queue queueB, @Qualifier("xExchange") DirectExchange xExchange){ return BindingBuilder.bind(queueB).to(xExchange).with("XB"); } //绑定 @Bean public Binding queueDBindingX(@Qualifier("queueD") Queue queueD, @Qualifier("yExchange") DirectExchange yExchange){ return BindingBuilder.bind(queueD).to(yExchange).with("YD"); } }
/** * 发送延迟消息 */ @RestController @RequestMapping("/ttl") @Slf4j public class SendMessageController { @Autowired private RabbitTemplate rabbitTemplate; //开始发消息 @GetMapping("/sendMsg/{message}") public void sendMsg(@PathVariable String message) { log.info("当前时间:{},发送一条信息给两个TTL队列:{}", new Date().toString(), message); rabbitTemplate.convertAndSend("X", "XA", "消息来自ttl为10s的队列:" + message); rabbitTemplate.convertAndSend("X", "XB", "消息来自ttl为40s的队列:" + message); } }
package com.atguigu.rabbitmq.springbootrabbitmq.consumer; import com.rabbitmq.client.Channel; import lombok.extern.slf4j.Slf4j; import org.springframework.amqp.core.Message; import org.springframework.amqp.rabbit.annotation.RabbitListener; import org.springframework.stereotype.Component; import java.util.Date; @Slf4j @Component public class DeadLetterQueueConsumer { //接收消息 @RabbitListener(queues = "QD") public void receiveD(Message message, Channel channel){ String msg = new String(message.getBody()); log.info("当前时间:{},收到死信队列的消息:{}",new Date().toString(),msg); } }
第一条消息在10S后变成了死信消息,然后被消费者消费掉,第二条消息在40S之后变成了死信消息,然后被消费掉,这样一个延时队列就打造完成了。
不过,如果这样使用的话,岂不是每增加一个新的时间需求,就要新增一个队列,这里只有10S和40S两个时间选项,如果需要一个小时后处理,那么就需要增加TTL为一个小时的队列,如果是预定会议室然后提前通知这样的场景,岂不是要增加无数个队列才能满足需求?
在这里新增了一个队列QC,绑定关系如下,该队列不设置TTL时间
//声明队列 @Bean("queueC") public Queue queueC(){ Map<String,Object> arguments = new HashMap<>(3); //设置死信交换机 arguments.put("x-dead-letter-exchange",Y_DEAD_LETTER_EXCHANGE); //设置死信RoutingKey arguments.put("x-dead-letter-routing-key","YD"); //设置TTL return QueueBuilder.durable(QUEUE_C).withArguments(arguments).build(); } @Bean public Binding queueCBindingX(@Qualifier("queueC")Queue queueC,@Qualifier("xExchange")DirectExchange exchange){ return BindingBuilder.bind(queueC).to(xExchange()).with("XC"); }
//开始发消息 消息TTL
@GetMapping("/sendExpirationMsg/{message}/{ttlTime}")
public void sendMsg(@PathVariable String message, @PathVariable String ttlTime) {
log.info("当前时间:{},发送一条时长{}毫秒ttl信息给队列QC:{}", new Date().toString(), ttlTime, message);
rabbitTemplate.convertAndSend("X", "XC", message, (msg) -> {
//发送消息的时候 延迟时长
msg.getMessageProperties().setExpiration(ttlTime);
return msg;
});
}
看起来似乎没有什么问题,但是在最开始的时候,就介绍过如果使用在消息属性上设置TTL的方式,消息可能不会按时"死亡”,因为RabbitMQ只会检查第一个消息是否过期,如果过期则丢到死信队列,如果第一个消息的延时时长很长,而第二个消息的延时时长很短,第二个消息并不会优先得到执行。
上文中提到的问题,确实是一个问题,如果不能实现在消息粒度上的TTL,并使其在设置TTL时间及时死亡,就无法设计成一个通用的延时队列。那如何解决呢,接下来我们就去解决该问题
在官网上下载 https://www.rabbitmq.com/community-plugins.html,下载
rabbitmq_delayed_message_exchange 插件,然后解压放置到 RabbitMQ 的插件目录。
进入 RabbitMQ 的安装目录下的 plgins 目录,执行下面命令让该插件生效,然后重启 RabbitMQ
/usr/lib/rabbitmq/lib/rabbitmq_server-3.8.8/plugins
rabbitmq-plugins enable rabbitmq_delayed_message_exchange
在这里新增了一个队列delayed.queue,一个自定义交换机delayed.exchange,绑定关系如下:
在我们自定义的交换机中,这是一种新的交换机类型,该类型消息支持延迟投递机制,消息传递后并不会立即投递到目标队列中,而是存储在mnesia(一个分布式数据系统)表中,当达到投递时间时,才投递到目标队列中
package com.atguigu.rabbitmq.springbootrabbitmq.config; import org.springframework.amqp.core.Binding; import org.springframework.amqp.core.BindingBuilder; import org.springframework.amqp.core.CustomExchange; import org.springframework.amqp.core.Queue; import org.springframework.beans.factory.annotation.Qualifier; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import java.util.HashMap; import java.util.Map; @Configuration public class DelayedQueueConfig { //队列 public static final String DELAYED_QUEUE_NAME = "delayed.queue"; //交换机 public static final String DELAYED_EXCHANGE_NAME = "delayed.exchange"; //routingKey public static final String DELAYED_ROUTING_KEY = "delayed.routingkey"; @Bean public Queue delayedQueue(){ return new Queue(DELAYED_QUEUE_NAME); } @Bean public CustomExchange delayedExchange(){ Map<String,Object> arguments = new HashMap<>(); arguments.put("x-delayed-type","direct"); /** * 1.交换机的名称 * 2.交换机的类型 * 3.是否需要持久化 * 4.是否需要自动删除 * 5.其他的参数 */ return new CustomExchange(DELAYED_EXCHANGE_NAME,"x-delayed-message", true,false,arguments); } //绑定 @Bean public Binding delayedQueueBindingDelayedExchange(@Qualifier("delayedQueue")Queue delayedQueue, @Qualifier("delayedExchange")CustomExchange customExchange){ return BindingBuilder.bind(delayedQueue).to(customExchange).with(DELAYED_ROUTING_KEY).noargs(); } }
//开始发消息 基于插件的 消息 及 延迟时间
@GetMapping("/sendDelayMsg/{message}/{delayTime}")
public void sendMsg(@PathVariable String message,@PathVariable Integer delayTime){
log.info("当前时间:{},发送一条时长{}毫秒信息给延迟队列delayed.queue:{}", new Date().toString(), delayTime, message);
rabbitTemplate.convertAndSend(DelayedQueueConfig.DELAYED_EXCHANGE_NAME,
DelayedQueueConfig.DELAYED_ROUTING_KEY,message,msg -> {
//发送消息的时候 延迟时长 单位 ms
msg.getMessageProperties().setDelay(delayTime);
return msg;
});
}
package com.atguigu.rabbitmq.springbootrabbitmq.consumer; import com.atguigu.rabbitmq.springbootrabbitmq.config.DelayedQueueConfig; import lombok.extern.slf4j.Slf4j; import org.springframework.amqp.core.Message; import org.springframework.amqp.rabbit.annotation.RabbitListener; import org.springframework.stereotype.Component; import java.util.Date; /** * 消费者 基于插件的延迟消息 */ @Component @Slf4j public class DelayQueueConsumer { //监听消息 @RabbitListener(queues = DelayedQueueConfig.DELAYED_QUEUE_NAME) public void receiveDelayQueue(Message message){ String msg = new String(message.getBody()); log.info("当前时间:{},收到延迟队列的消息:{}",new Date(),msg); } }
延时队列在需要延时处理的场景下非常有用,使用rabbitMQ来实现延时队列可以很好的利用RabbitMQ的特性,如:消息可靠发送,消息可靠投递,死信队列来保障消息至少被消费一次以及未被正确处理的消息不会被丢弃。另外,通过RabbitMQ集群的特性,可以很好的解决单点故障问题,不会因为单个节点挂掉导致延时队列不可用或者消息丢失
当然,延时队列还有很多其他选择,比如利用java的DelayQueue,利用Redis的zset,利用Quartz或者利用kafka的时间轮,这些方式各有特点,看需要使用场景
在生产环境中由于一些不明原因,导致rabbitmq重启,在rabbitMq重启期间生产者消息投递失败,导致消息丢失,需要手动处理和恢复。于是,我们开始思考,如何才能进行RabbitMQ的消息可靠投递呢?特别是在这样极端的情况,RabbitMQ集群不可用的时候,无法投递的消息该如何处理呢:
应 用 [xxx] 在 [08-1516:36:04] 发 生 [ 错误日志异常 ] , alertId=[xxx] 。 由
[org.springframework.amqp.rabbit.listener.BlockingQueueConsumer:start:620] 触发。
应用 xxx 可能原因如下
服务名为:
异常为: org.springframework.amqp.rabbit.listener.BlockingQueueConsumer:start:620,
产 生 原 因 如 下 :1.org.springframework.amqp.rabbit.listener.QueuesNotAvailableException:
Cannot prepare queue for listener. Either the queue doesn’t exist or the broker will not
allow us to use it.||Consumer received fatal=false exception on startup:
在配置文件当中需要添加
spring.rabbitmq.publisher-confirm-type = correlated
需要在Springboot 2.0.0版本以上
NONE
禁用发布确认模式,是默认值
CORRELATED
发布消息成功到交换机后会触发回调方法
SIMPLE
经测试有两种效果,其一效果和CORRELATED值一样会触发回调方法,其二在发布消息成功后使用rabbitTemplate调用waitForConfirms或waitForConfirmsOsDie方法等待broker节点返回发送结果,根据返回结果来判定下一步的逻辑,要注意的点是waitForConfirmsOrDie方法如果返回false则会关闭channel,则接下来无法发送消息到broker
package com.atguigu.rabbitmq.springbootrabbitmq.config; import org.springframework.amqp.core.*; import org.springframework.beans.factory.annotation.Qualifier; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import org.springframework.stereotype.Component; /** * 配置类 发布确认(高级) */ @Configuration public class ConfirmConfig { //交换机 public static final String CONFIRM_EXCHANGE_NAME="confirm_exchange"; //队列 public static final String CONFIRM_QUEUE_NAME = "confirm_queue"; //roukingkey public static final String CONFIRM_ROUTING_KEY = "key1"; //声明交换机 @Bean("confirmExchange") public DirectExchange confirmExchange(){ return new DirectExchange(CONFIRM_EXCHANGE_NAME); } @Bean("confirmQueue") public Queue confirmQueue(){ return QueueBuilder.durable(CONFIRM_QUEUE_NAME).build(); } //绑定 @Bean public Binding queueBindingExchange(@Qualifier("confirmQueue")Queue confirmQueue, @Qualifier("confirmExchange")DirectExchange confirmExchange){ return BindingBuilder.bind(confirmQueue).to(confirmExchange).with(CONFIRM_ROUTING_KEY); } }
package com.atguigu.rabbitmq.springbootrabbitmq.controller; import com.atguigu.rabbitmq.springbootrabbitmq.config.ConfirmConfig; import lombok.extern.slf4j.Slf4j; import org.springframework.amqp.core.Correlation; import org.springframework.amqp.rabbit.connection.CorrelationData; import org.springframework.amqp.rabbit.core.RabbitTemplate; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.stereotype.Controller; import org.springframework.web.bind.annotation.GetMapping; import org.springframework.web.bind.annotation.PathVariable; import org.springframework.web.bind.annotation.RequestMapping; import org.springframework.web.bind.annotation.RestController; /** * 开始发消息 开始确认 */ @RestController @Slf4j @RequestMapping("/confirm") public class ProducerController { @Autowired private RabbitTemplate rabbitTemplate; //发消息 @GetMapping("/sendMessage/{message}") public void sendMessage(@PathVariable String message){ CorrelationData correlationData = new CorrelationData("1"); rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE_NAME,ConfirmConfig.CONFIRM_ROUTING_KEY,message+"key1",correlationData); log.info("发送消息内容:{}",message+"key1"); CorrelationData correlationData2 = new CorrelationData("2"); rabbitTemplate.convertAndSend(ConfirmConfig.CONFIRM_EXCHANGE_NAME,ConfirmConfig.CONFIRM_ROUTING_KEY+"2",message+"key12",correlationData2); log.info("发送消息内容:{}",message+"key12"); }
package com.atguigu.rabbitmq.springbootrabbitmq.config; import lombok.extern.slf4j.Slf4j; import org.springframework.amqp.core.Message; import org.springframework.amqp.rabbit.connection.CorrelationData; import org.springframework.amqp.rabbit.core.RabbitTemplate; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.stereotype.Component; import javax.annotation.PostConstruct; /** * 回调接口 */ @Component @Slf4j public class MyCallBack implements RabbitTemplate.ConfirmCallback, RabbitTemplate.ReturnCallback { @Autowired private RabbitTemplate rabbitTemplate; //注入 @PostConstruct public void init() { rabbitTemplate.setConfirmCallback(this); rabbitTemplate.setReturnCallback(this); } /** * 交换机确认回调方法 * 1.发消息 交换机接收到了 回调 * 1.1 correlationData 保存回调消息的ID及相关信息 * 1.2 交换机收到消息 true * 1.3 cause null * 2.发消息 交换机接收失败了 回调 * 2.1 correlationData保存回掉消息的ID及相关信 * 2.2 交换机收到消息 ack=false * 2.3 cause 失败的原因 */ @Override public void confirm(CorrelationData correlationData, boolean ack, String cause) { String id = correlationData != null ? correlationData.getId() : ""; if (ack) { log.info("交换机已经收到Id为:{}的消息", id); } else { log.info("交换机还未收到Id为:{}的消息,由于原因:{}", id, cause); } } //可以在当消息传递过程中不可达目的地时将消息返回给生产者 //只有不可达目的地的时候,才进行回退 @Override public void returnedMessage(Message message, int replyCode, String replyText, String exchange, String routingKey) { log.error("消息{},被交换机{}退回,退回原因:{},路由Key:{}",new String(message.getBody()),exchange,replyText,routingKey); } }
package com.atguigu.rabbitmq.springbootrabbitmq.consumer; import com.atguigu.rabbitmq.springbootrabbitmq.config.ConfirmConfig; import lombok.extern.slf4j.Slf4j; import org.springframework.amqp.core.Message; import org.springframework.amqp.rabbit.annotation.RabbitListener; import org.springframework.stereotype.Component; /** * 接收消息 */ @Component @Slf4j public class Consumer { @RabbitListener(queues = ConfirmConfig.CONFIRM_QUEUE_NAME) public void receiveConfirmMessage(Message message){ System.out.println(new String(message.getBody())); log.info("接收到队列confirm.queue消息:{}",message); } }
可以看到,发送了两条消息,第一条消息的RoutingKey为"key1",第二条消息的RoutingKey为“key2”,两条消息都成功被交换机接收,也收到了交换机的确认回调,但消费者只收到了一条消息,因为第二条消息的RoutingKey与队列的BindingKey不一致,也没有其他队列能接收这个消息,所有第二条消息被直接丢弃了
同上
有了mandatory参数和回退消息,我们获得了对无法投递消息的感知能力,有机会在生产者的消息无法被投递时发现并处理。但有时候,我们并不知道该如何处理这些无法路由的消息,最多打个日志,然后触发报警,再来手动处理。而通过日志来处理这些无法路由的消息是很不优雅的做法,特别是当生产者所在的服务有多台机器的时候,手动复制日志会更加麻烦而且容易出错。而且设置mandatory参数会增加生产者的复杂性,需要添加处理这些被退回的消息的逻辑。如果既不想丢失消息,又不想增加生产者的复杂性,该怎么做呢?前面在设置死信队列的文章中,我们提到,可以为队列设置死信交换机来保存消息。在RabbitMQ中,有一种备份交换机的机制存在,可以很好的应对这个问题。什么是备份交换机呢?备份交换机可以理解为RabbitMQ中交换机的“备胎”,当我们为某一个交换机声明一个对应的备份交换机时,就是为它创建一个备胎,当交换机接收到一条不可路由消息时,将会把这条消息转发到备份交换机中,由备份交换机来进行转发和处理,通常备份交换机的类型为Fanout,这样就能把所有消息都投递到与其绑定的队列中,然后我们在备份交换机下绑定一个队列,这样所有那些原交换机无法被路由的消息,就会都进入这个队列了,当然,我们还可以建立一个报警队列,用独立的消费者来进行监督和报警。
package com.atguigu.rabbitmq.springbootrabbitmq.config; import org.springframework.amqp.core.*; import org.springframework.beans.factory.annotation.Qualifier; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import org.springframework.stereotype.Component; /** * 配置类 发布确认(高级) */ @Configuration public class ConfirmConfig { //交换机 public static final String CONFIRM_EXCHANGE_NAME="confirm_exchange"; //队列 public static final String CONFIRM_QUEUE_NAME = "confirm_queue"; //roukingkey public static final String CONFIRM_ROUTING_KEY = "key1"; //备份交换机 public static final String BACKUP_EXCHANGE_NAME = "backup_exchange"; //备份队列 public static final String BACKUP_QUEUE_NAME="backup_queue"; //报警队列 public static final String WARNING_QUEUE_NAME = "warning_queue"; //声明交换机 @Bean("confirmExchange") public DirectExchange confirmExchange(){ return ExchangeBuilder.directExchange(CONFIRM_EXCHANGE_NAME).durable(true) .withArgument("alternate-exchange",BACKUP_EXCHANGE_NAME).build(); } @Bean("confirmQueue") public Queue confirmQueue(){ return QueueBuilder.durable(CONFIRM_QUEUE_NAME).build(); } //绑定 @Bean public Binding queueBindingExchange(@Qualifier("confirmQueue")Queue confirmQueue, @Qualifier("confirmExchange")DirectExchange confirmExchange){ return BindingBuilder.bind(confirmQueue).to(confirmExchange).with(CONFIRM_ROUTING_KEY); } //备份交换机 @Bean("backupExchange") public FanoutExchange backupExchange(){ return new FanoutExchange(BACKUP_EXCHANGE_NAME); } @Bean("backupQueue") public Queue backupQueue(){ return QueueBuilder.durable(BACKUP_QUEUE_NAME).build(); } @Bean("warningQueue") public Queue warningQueue(){ return QueueBuilder.durable(WARNING_QUEUE_NAME).build(); } @Bean public Binding backupQueueBingingBackupExchange(@Qualifier("backupQueue")Queue backupQueue, @Qualifier("backupExchange")FanoutExchange backupExchange){ return BindingBuilder.bind(backupQueue).to(backupExchange); } @Bean public Binding warningQueueBingingBackupExchange(@Qualifier("warningQueue")Queue warningQueue, @Qualifier("backupExchange")FanoutExchange backupExchange){ return BindingBuilder.bind(warningQueue).to(backupExchange); } }
package com.atguigu.rabbitmq.springbootrabbitmq.consumer; import com.atguigu.rabbitmq.springbootrabbitmq.config.ConfirmConfig; import lombok.extern.slf4j.Slf4j; import org.springframework.amqp.core.Message; import org.springframework.amqp.rabbit.annotation.RabbitListener; import org.springframework.stereotype.Component; /** * 报警消费者 */ @Component @Slf4j public class WarningConsumer { //接收报警消息 @RabbitListener(queues = ConfirmConfig.WARNING_QUEUE_NAME) public void receiveWarningMsg(Message message){ String msg=new String(message.getBody()); log.error("报警发现不可路由消息:{}",msg); } }
重新启动项目的时候需要把原来的confirm.exchange删除因为我们修改了其绑定属性,不然报以下错误
mandatory参数与备份交换机可以一起使用的时候,如果两者同时开启,消息究竟何去何从?谁优先级高,经过上面结果显示答案是备份交换机优先级高
用户对于同一操作发起的一次请求或者多次请求的结果是一致的,不会因为多次点击而产生了副作用。举个最简单的例子,那就是支付,用户购买商品后支付,支付扣款成功,但是返回结果的时候网络异常,此时钱已经扣了,用户再次点击按钮,此时会进行第二次扣款,返回结果成功,用户查询余额发现多扣钱了,流水记录也变成了两条。在以前的单应用系统中,我们只需要把数据操作放入事务中即可,发生错误立即回滚,但是再响应客户端的时候也有可能出现网络中断或者异常等待
消费者在消费MQ中消息时,MQ已把消息发送给消费者,消费者在给MQ返回ACK时网络中断,故MQ未收到确认信息,该条消息回重新发给其他消费者,或者在网络重连后再次发送给该消费者,单实际上该消费者已成功消费了该条消息,造成消费者消费了重复的消息
MQ消费者的幂等性的解决一般使用全局ID或者写个唯一标识比如时间戳或者UUID或者订单消费者消费MQ中的消息也可利用MQ的该id来判断,或者可按自己的规则生成一个全局唯一ID,每次消费消息时用该ID先判断该消息是否已消费过
在海量订单生成的业务高峰期,生产端有可能就会重复发生了消息,这时候消费端就要实现幂等性,这就意味着我们的消息永远不会被消费多次,即使我们收到了一样的消息。业界主流的幂等性有两种操作:a。唯一ID+指纹码机制,利用数据库主键去重,b利用redis的原子性去实现
指纹码:我们的一些规则或者时间戳加别的服务给到的唯一信息码,它并不一定是我们系统生成的,基本都是由我们的业务规则拼接而来,但是一定要保证唯一性,然后就利用查询语句进行判断这个id是否存在数据库中,优势就是实现简单就一个拼接,然后查询判断是否重复;劣势就是在高并发时,如果时单个数据库就会有写入性能瓶颈当然也可以采用分库分表提升性能,但也不是我们最推荐的方式
利用redi执行setnx命令,天然具有幂等性。从而实现不重复消费
在我们系统中有一个订单催付的场景,我们的客户在天猫下的订单,淘宝会及时将订单推送给我们,如果在用户设定的时间内未付款那么就会给用户推送一条短信提醒,很简单的一个功能对吧,但是,tmall商家对我们来说,肯定是要分大客户和小客户的对吧,比如像苹果,小米这样的大商家一年起码能给我们创造很大的利润,所以理所应当,他们的订单必须得到优先处理,而曾经我们的后端系统是使用redis来存放的定时轮询,大家都知道redis只能用List做一个简简单单的消息队列,并不能实现一个优先级的场景,所以订单量大了后采用RabbitMQ进行改造和优化,如果发现是大客户的订单给一个相对比较高的优先级,否则就是默认优先级。
public class Producer { private static final String QUEUE_NAME="hello"; public static void main(String[] args) throws Exception { try (Channel channel = RabbitMqUtils.getChannel();) { //给消息赋予一个 priority 属性 AMQP.BasicProperties properties = new AMQP.BasicProperties().builder().priority(5).build(); for (int i = 1; i <11; i++) { String message = "info"+i; if(i==5){ channel.basicPublish("", QUEUE_NAME, properties, message.getBytes()); }else{ channel.basicPublish("", QUEUE_NAME, null, message.getBytes()); } System.out.println("发送消息完成:" + message); } } } }
b.消息消费者
public class Consumer { private static final String QUEUE_NAME="hello"; public static void main(String[] args) throws Exception { Channel channel = RabbitMqUtils.getChannel(); //设置队列的最大优先级 最大可以设置到 255 官网推荐 1-10 如果设置太高比较吃内存和 CPU Map<String, Object> params = new HashMap(); params.put("x-max-priority", 10); channel.queueDeclare(QUEUE_NAME, true, false, false, params); System.out.println("消费者启动等待消费......"); DeliverCallback deliverCallback=(consumerTag, delivery)->{ String receivedMessage = new String(delivery.getBody()); System.out.println("接收到消息:"+receivedMessage); }; channel.basicConsume(QUEUE_NAME,true,deliverCallback,(consumerTag)->{ System.out.println("消费者无法消费消息时调用,如队列被删除"); }); } }
RabbitMQ从3.6.0版本开始引入了惰性队列的概念。惰性队列会尽可能的将消息存入磁盘中,而在消费者消费到响应的消息时才会被加载到内存中,它的一个重要的设计目标是能够支持更长的队列,即支持更多的消息存储。当消费者由于各种各样的原因(比如消费者下线,宕机亦或者是由于维护而关闭等)而致使长时间内不能消费消息造成堆积时,惰性队列就很有必要了。
默认情况下,当生产者将消息发送到RabbitMQ的时候,队列中的消息会尽可能的存储在内存之中,这样可以更加快速的将消息发送给消费者。即使是持久化的消息,在被写入磁盘的同时也会在内存中驻留一份备份。当RabbitMQ需要释放内存的时候,会将内存中的消息换页至磁盘中,这个操作会耗费较长的时间,也会阻塞队列的操作,进而无法接收新的消息。虽然RabbitMQ的开发者们一直在升级相关的算法,但是效果始终不太理想,尤其是在消息量特别大的时候。
队列具备两种模式:default 和lazy。默认的为default模式,在3.6.0之前的版本无需做任何变更。lazy模式即为惰性队列的模式,可以通过调用channel.queueDeclare的方式的时候在参数中设置,也可以通过Policy的方式设置,如果一个队列同时使用这两种方式设置的话,那么Policy的方式具备更高的优先级,如果要通过声明的方式改变已有队列的模式的话,那么只能先删除队列,然后再重新声明一个新的
在队列声明的时候可以通过“x-queue-mode”参数来设置队列的模式,取值为“default”和“lazy”。下面示例中演示了一个惰性队列的声明细节:
在发送一百万条消息,每条消息大概占1KB的情况下,普通队列占用内存的是1.2GB,而惰性队列仅仅占用1.5MB
最开始我们介绍了如果安装及运行RabbitMQ服务,不过这些是单机版的,无法满足目前真实应用的要求。如果RabbitMQ服务器遇到内存崩溃,机器掉电或者主板故障等情况,该怎么办?单台RabbitMQ服务器可以满足每秒1000条消息的吞吐量,那么如果应用需要RabbitMQ服务满足每秒10万条消息的吞吐量呢?购买昂贵的服务器来增加单机RabbitMQ服务的性能显得捉襟见肘,搭建一个RabbitMQ集群才是解决实际问题的关键
1.修改 3 台机器的主机名称
vim /etc/hostname
2.配置各个节点的 hosts 文件,让各个节点都能互相识别对方
vim /etc/hosts
10.211.55.74 node1
10.211.55.75 node2
10.211.55.76 node3
3.以确保各个节点的 cookie 文件使用的是同一个值
在 node1 上执行远程操作命令
scp /var/lib/rabbitmq/.erlang.cookie root@node2:/var/lib/rabbitmq/.erlang.cookie
scp /var/lib/rabbitmq/.erlang.cookie root@node3:/var/lib/rabbitmq/.erlang.cookie
4.启动 RabbitMQ 服务,顺带启动 Erlang 虚拟机和 RbbitMQ 应用服务(在三台节点上分别执行以
下命令)
rabbitmq-server -detached
5.在节点 2 执行
rabbitmqctl stop_app
(rabbitmqctl stop 会将 Erlang 虚拟机关闭,rabbitmqctl stop_app 只关闭 RabbitMQ 服务)
rabbitmqctl reset
rabbitmqctl join_cluster rabbit@node1
rabbitmqctl start_app(只启动应用服务)
6.在节点 3 执行
rabbitmqctl stop_app
rabbitmqctl reset
rabbitmqctl join_cluster rabbit@node2
rabbitmqctl start_app
7.集群状态
rabbitmqctl cluster_status
8.需要重新设置用户
创建账号
rabbitmqctl add_user admin 123
设置用户角色
rabbitmqctl set_user_tags admin administrator
设置用户权限
rabbitmqctl set_permissions -p “/” admin “." ".” “.*”
9.解除集群节点(node2 和 node3 机器分别执行)
rabbitmqctl stop_app
rabbitmqctl reset
rabbitmqctl start_app
rabbitmqctl cluster_status
rabbitmqctl forget_cluster_node rabbit@node2(node1 机器上执行)
如果RabbitMQ集群中只有一个Broker节点,那么该节点的失效将导致整体服务的临时性不可用,并且也可能会导致消息的丢失。可以将所有消息都设置为持久化,并且对应队列的durable属性也设置为true,但是这样仍然无法避免由于缓存导致的问题:因为的消息在发送之后和被写入磁盘并执行刷盘动作之间存在一个短暂却会产生问题的时间窗。通过publisher confirm机制能够确保客户端知道哪些消息已经存入磁盘,尽管如此,一般不希望遇到因单点故障导致的服务不可用
引入镜像队列的机制,可以将队列镜像到集群中的其他broker节点之上,如果集群中一个节点失效了,队列能自动地切换到镜像中的另一个节点上以保证服务的可用性
1.启动三台集群节点
2.随便找一个节点添加 policy
3.在 node1 上创建一个队列发送一条消息,队列存在镜像队列
4.停掉 node1 之后发现 node2 成为镜像队列
5.就算整个集群只剩下一台机器了 依然能消费队列里面的消息
说明队列里面的消息被镜像队列传递到相应机器里面了
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。