当前位置:   article > 正文

Kafka的producer生产者发送到Broker分区策略(中级篇一)_kafka 同时指定key和partition会走哪个规则

kafka 同时指定key和partition会走哪个规则

一、生产者发送到broker里面的流程是怎样的,一个 topic 有多个 partition分区,每个分区又有多个副本

二、生产者到broker发送流程

三、生产者常见配置

四、代码封装配置属性

五、第四步骤中发送消息使用到了ProducerRecord(简称PR)

六、生产者发送消息是异步调用,怎么知道是否有异常

八、Kafka 生产者自定义partition分区规则

导读:本博文重点介绍了生产者发送消息是怎么发得,发送得流程又是什么,生产者配置有哪些常见得配置,代码异步调用得时候怎么知道有没有异常,消息怎么顺序发送和kafka自定义分区规则,让你知其然再知其所以然。

一、生产者发送到broker里面的流程是怎样的,一个 topic 有多个 partition分区,每个分区又有多个副本

  1. 如果指定Partition ID,则PR被发送至指定Partition (ProducerRecord)
  2. 如果未指定Partition ID,但指定了Key, PR会按照hash(key)发送至对应Partition
  3. 如果未指定Partition ID也没指定Key,PR会按照默认 round-robin轮训模式发送到每个Partition
  4. 消费者消费partition分区默认是range模式
  5. 如果同时指定了Partition ID和Key, PR只会发送到指定的Partition (Key不起作用,代码逻辑决定)
  6. 注意:Partition有多个副本,但只有一个replicationLeader负责该Partition和生产者消费者交互

二、生产者到broker发送流程

Kafka的客户端发送数据到服务器,不是来一条就发一条,会经过内存缓冲区(默认是16KB),
通过KafkaProducer发送出去的消息都是先进入到客户端本地的内存缓冲里,然后把很多消息收集到的Batch里面,再一次性发送到Broker上去的,这样性能才可能提高


三、生产者常见配置

    官方文档 http://kafka.apache.org/documentation/#producerconfigs

  1. #kafka地址,即broker地址
  2. bootstrap.servers
  3. #当producer向leader发送数据时,可以通过request.required.acks参数来设置数据可靠性的级别,分别是0, 1all
  4. acks
  5. #请求失败,生产者会自动重试,指定是0次,如果启用重试,则会有重复消息的可能性
  6. retries
  7. #每个分区未发送消息总字节大小,单位:字节,超过设置的值就会提交数据到服务端,默认值是16KB
  8. batch.size
  9. # 默认值就是0,消息是立刻发送的,即便batch.size缓冲空间还没有满,如果想减少请求的数量,可以设置 linger.ms 大于#0,即消息在缓冲区保留的时间,超过设置的值就会被提交到服务端
  10. # 通俗解释是,本该早就发出去的消息被迫至少等待了linger.ms时间,相对于这时间内积累了更多消息,批量发送 减少请求
  11. #如果batch被填满或者linger.ms达到上限,满足其中一个就会被发送
  12. linger.ms
  13. # buffer.memory的用来约束Kafka Producer能够使用的内存缓冲的大小的,默认值32MB。
  14. # 如果buffer.memory设置的太小,可能导致消息快速的写入内存缓冲里,但Sender线程来不及把消息发送到Kafka服务器
  15. # 会造成内存缓冲很快就被写满,而一旦被写满,就会阻塞用户线程,不让继续往Kafka写消息了
  16. # buffer.memory要大于batch.size,否则会报申请内存不足的错误,不要超过物理内存,根据实际情况调整
  17. buffer.memory
  18. # key的序列化器,将用户提供的 keyvalue对象ProducerRecord 进行序列化处理,key.serializer必须被设置,即使
  19. #消息中没有指定key,序列化器必须是一个实现org.apache.kafka.common.serialization.Serializer接口的类,将#key序列化成字节数组。
  20. key.serializer
  21. value.serializer

四、代码封装配置属性

  1. public static Properties getProperties(){
  2. Properties props = new Properties();
  3. props.put("bootstrap.servers", "xxx.xxx.xxx.xx:9092");
  4. //props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "xxx.xxx.xxx.x:9092");
  5. // 当producer向leader发送数据时,可以通过request.required.acks参数来设置数据可靠性的级别,分别是0, 1,all。
  6. props.put("acks", "all");
  7. //props.put(ProducerConfig.ACKS_CONFIG, "all");
  8. // 请求失败,生产者会自动重试,指定是0次,如果启用重试,则会有重复消息的可能性
  9. props.put("retries", 0);
  10. //props.put(ProducerConfig.RETRIES_CONFIG, 0);
  11. // 生产者缓存每个分区未发送的消息,缓存的大小是通过 batch.size 配置指定的,默认值是16KB
  12. props.put("batch.size", 16384);
  13. /**
  14. * 默认值就是0,消息是立刻发送的,即便batch.size缓冲空间还没有满
  15. * 如果想减少请求的数量,可以设置 linger.ms 大于0,即消息在缓冲区保留的时间,超过设置的值就会被提交到服务端
  16. * 通俗解释是,本该早就发出去的消息被迫至少等待了linger.ms时间,相对于这时间内积累了更多消息,批量发送减少请求
  17. * 如果batch被填满或者linger.ms达到上限,满足其中一个就会被发送
  18. */
  19. props.put("linger.ms", 5);
  20. /**
  21. * buffer.memory的用来约束Kafka Producer能够使用的内存缓冲的大小的,默认值32MB。
  22. * 如果buffer.memory设置的太小,可能导致消息快速的写入内存缓冲里,但Sender线程来不及把消息发送到Kafka服务器
  23. * 会造成内存缓冲很快就被写满,而一旦被写满,就会阻塞用户线程,不让继续往Kafka写消息了
  24. * buffer.memory要大于batch.size,否则会报申请内存不#足的错误,不要超过物理内存,根据实际情况调整
  25. * 需要结合实际业务情况压测进行配置
  26. */
  27. props.put("buffer.memory", 33554432);
  28. /**
  29. * key的序列化器,将用户提供的 key和value对象ProducerRecord 进行序列化处理,key.serializer必须被设置,
  30. * 即使消息中没有指定key,序列化器必须是一个实
  31. org.apache.kafka.common.serialization.Serializer接口的类,
  32. * 将key序列化成字节数组。
  33. */
  34. props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
  35. props.put("value.serializer","org.apache.kafka.common.serialization.StringSerializer");
  36. return props;
  37. }

发送消息

  1. /**
  2. * send()方法是异步的,添加消息到缓冲区等待发送,并立即返回
  3. * 生产者将单个的消息批量在一起发送来提高效率,即 batch.size和linger.ms结合
  4. *
  5. * 实现同步发送:一条消息发送之后,会阻塞当前线程,直至返回 ack
  6. * 发送消息后返回的一个 Future 对象,调用get即可
  7. *
  8. * 消息发送主要是两个线程:一个是Main用户主线程,一个是Sender线程
  9. * 1)main线程发送消息到RecordAccumulator即返回
  10. * 2)sender线程从RecordAccumulator拉取信息发送到broker
  11. * 3) batch.size和linger.ms两个参数可以影响 sender 线程发送次数
  12. *
  13. *
  14. */
  15. @Test
  16. public void testSend(){
  17. Properties properties = getProperties();
  18. Producer<String,String> producer = new KafkaProducer<>(properties);
  19. for(int i=0;i<3 ;i++){
  20. Future<RecordMetadata> future = producer.send(new ProducerRecord<>(TOPIC_NAME,"wnn-key"+i, "wnn-content-value"+i));
  21. try {
  22. //不关心结果则不用写这些内容
  23. RecordMetadata recordMetadata = future.get();
  24. // topic - 分区编号@offset
  25. System.err.println("发送状态:"+recordMetadata.toString());
  26. } catch (InterruptedException e) {
  27. e.printStackTrace();
  28. } catch (ExecutionException e) {
  29. e.printStackTrace();
  30. }
  31. }
  32. producer.close();
  33. }

 五、第四步骤中发送消息使用到了ProducerRecord(简称PR)

PR主要用来 发送给Kafka Broker的key/value 值对, 封装基础数据信息Topic(名字)PartitionID(可选) Key(可选)-- Value

key默认是null,大多数应用程序会用到key

如果key为空,kafka使用默认的partitioner,使用RoundRobin算法将消息均衡地分布在各个partition上

如果key不为空,kafka使用自己实现的hash方法对key进行散列,决定消息该被写到Topic的哪个partition,拥有相同key的消息会被写到同一个partition,实现顺序消息

六、生产者发送消息是异步调用,怎么知道是否有异常

 发送消息配置回调函数即可, 该回调方法会在 Producer 收到 ack 时被调用,为异步调用
回调函数有两个参数 RecordMetadata 和 Exception,如果 Exception 是 null,则消息发送成功,否则失败

  1. /**
  2. * 发送消息携带回调函数
  3. */
  4. @Test
  5. public void testSendWithCallback(){
  6. Properties properties = getProperties();
  7. Producer<String,String> producer = new KafkaProducer<>(properties);
  8. for(int i=0;i<3 ;i++) {
  9. producer.send(new ProducerRecord<>(TOPIC_NAME, "wnn-key" + i, "wnn-content-value" + i), new Callback() {
  10. @Override
  11. public void onCompletion(RecordMetadata metadata, Exception exception) {
  12. if(exception == null){
  13. System.err.println("发送状态:"+metadata.toString());
  14. } else {
  15. exception.printStackTrace();
  16. }
  17. }
  18. });
  19. }
  20. producer.close();
  21. }

 七、producer生产者发送指定分区

创建topic,配置5个分区,1个副本 

  1. /**
  2. * 发送消息携带回调函数,指定某个分区
  3. *
  4. * 实现顺序消息
  5. */
  6. @Test
  7. public void testSendWithCallbackAndPartition(){
  8. Properties properties = getProperties();
  9. Producer<String,String> producer = new KafkaProducer<>(properties);
  10. for(int i=0;i<10 ;i++) {
  11. producer.send(new ProducerRecord<>("wnn-topic-test-12.18-fenqu", 4,"wnn-key" + i, "wnn-content-value" + i), new Callback() {
  12. @Override
  13. public void onCompletion(RecordMetadata metadata, Exception exception) {
  14. if(exception == null){
  15. System.err.println("发送状态:"+metadata.toString());
  16. } else {
  17. exception.printStackTrace();
  18. }
  19. }
  20. });
  21. }
  22. producer.close();
  23. }

八、Kafka 生产者自定义partition分区规则

源码解读默认分区器
org.apache.kafka.clients.producer.internals.DefaultPartitioner

 更改后的  可以根据业务需求获取到对应参数后进行更改

  1. import org.apache.kafka.clients.producer.Partitioner;
  2. import org.apache.kafka.common.Cluster;
  3. import org.apache.kafka.common.PartitionInfo;
  4. import org.apache.kafka.common.utils.Utils;
  5. import java.util.List;
  6. import java.util.Map;
  7. public class WnnPartitioner implements Partitioner {
  8. @Override
  9. public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {
  10. if (keyBytes == null) {
  11. throw new IllegalArgumentException("key 参数不能为空");
  12. }
  13. if("wnn".equals(key)){
  14. return 0;
  15. }
  16. List<PartitionInfo> partitions = cluster.partitionsForTopic(topic);
  17. int numPartitions = partitions.size();
  18. // hash the keyBytes to choose a partition
  19. return Utils.toPositive(Utils.murmur2(keyBytes)) % numPartitions;
  20. }
  21. @Override
  22. public void close() {
  23. }
  24. @Override
  25. public void configure(Map<String, ?> configs) {
  26. }
  27. }

调用代码

  1. /**
  2. *
  3. * 自定义分区策略
  4. */
  5. @Test
  6. public void testSendWithPartitionStrategy(){
  7. Properties properties = getProperties();
  8. properties.put("partitioner.class", "net.wnn.wnnkafka.config.WnnPartitioner");
  9. Producer<String,String> producer = new KafkaProducer<>(properties);
  10. for(int i=0;i<10 ;i++) {
  11. producer.send(new ProducerRecord<>("wnn-topic-test-12.18-fenqu", null, "wnn-value" + i), new Callback() {
  12. @Override
  13. public void onCompletion(RecordMetadata metadata, Exception exception) {
  14. if(exception == null){
  15. System.err.println("发送状态:"+metadata.toString());
  16. } else {
  17. exception.printStackTrace();
  18. }
  19. }
  20. });
  21. }
  22. producer.close();
  23. }

声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号