티스토리 뷰
Kafka SpringBoot Quick Start with Partition Key
- 이번에는 kafka 메시지에 key를 할당하고, 이 key에 따라 파티션이 선택되도록 해보자.
- 기본적으로 kafka는 key가 설정되지 않은경우, 메시지는 reound robin 방식으로 파티션을 선택하여 메시지가 전달된다.
- key가 있다면 key값을 hashing하고 해싱 결과를 이용하여 파티션을 선택하도록 하고 있다.
- 만약 특정 메시지의 키에 따라 들어온 순서가 중요한 서비스라면, 키를 반드시 할당하고, 이들이 특정 파티션으로 분배되도록 지정해주는 용도로 사용할 수 있다.
메시지 키가 없는경우

- 메시지가 들어오면 파티셔너가 메시지 키를 확인하고 메시지를 분산한다.
- 위와 같이 메시지 키가 없는경우 라운드로빈 방식으로 한번씩 파티션에 메시지를 할당한다.
- 메시지 번호를 보면 한번에 하나씩 메시지가 파티션에 할당됨을 확인할 수 있다.
메시지 키가 있는경우

- 동일하게 파티셔너는 해싱을 통해서 메시지를 보낸다.
- 위와 같이 메시지 키가 있는경우 해싱을 위한 방식으로 파티션에 메시지를 할당한다.
- 메시지 번호가 서로 다르며, 키에 따라 들어온 순서대로 메시지가 적재 된다.
기본사항
- 기본적으로 Kafka 클러스터가 구축되어 있어야한다.
- Kafka SpringBoot Quick Start 를 참조하여 가장 기본적인 Kafka 어플리케이션을 구축하자.
Key 할당을 위한 설정 생성하기.
- application.properties 에 다음과 같이 토픽을 추가한다.
# 토픽 키를 이용할수 있도록 한다.
kafka.topic-with-key=topic-key
Topic 설정 코드 추가하기.
- 이제는 신규 추가한 토픽을 이용할 수 있도록 KafkaTopicConfig.java 파일을 수정하자.
package com.schooldevops.kafkatutorials.configs;
import org.apache.kafka.clients.admin.NewTopic;
import org.apache.kafka.common.config.TopicConfig;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Configuration;
import org.springframework.kafka.config.TopicBuilder;
import org.springframework.kafka.core.KafkaAdmin;
import javax.annotation.PostConstruct;
@Configuration
public class KafkaTopicConfig {
public final static String DEFAULT_TOPIC = "DEF_TOPIC";
@Value("${kafka.topic-with-key}")
public String TOPIC_WITH_KEY;
@Autowired
private KafkaAdmin kafkaAdmin;
private NewTopic defaultTopic() {
return TopicBuilder.name(DEFAULT_TOPIC)
.partitions(2)
.replicas(2)
.build();
}
private NewTopic topicWithKey() {
return TopicBuilder.name(TOPIC_WITH_KEY)
.partitions(2)
.replicas(2)
.build();
}
@PostConstruct
public void init() {
kafkaAdmin.createOrModifyTopics(defaultTopic());
kafkaAdmin.createOrModifyTopics(topicWithKey());
}
}
- public String TOPIC_WITH_KEY: 으로 조금전 지정한 토픽 이름을 @Value로 가져왔다.
- NewTopic topicWithKey() 메소드를 화용하여 토픽을 신규로 생성했다. 파티션은 2개이며 복제 계수는 1로 잡았다.
- kafkaAdmin.createOrModifyTopics(topicWithKey()); 로 어플리케이션이 기동될때 토픽이 있다면 수정하고, 없다면 새로 생성하도록 한다.
Listener 등록하기.
- 토픽을 생성했다면 해당 토픽으로 메시지를 수힌할 수 있도록 Listener작업이 필요하다.
- MessageListener.java 파일에 다음 메소드를 추가하자.
... 생략
@KafkaListener(topics = "${kafka.topic-with-key}", containerFactory = "defaultKafkaListenerContainerFactory")
public void listenTopicWithKey(Object record) {
log.info("Receive Message from {}, values {} with key", record);
}
... 생략
- KafkaListener어노테이션을 이용하여 토픽과 컨테이너를 등록했다.
- topics는 프로퍼티에 있는 값을 그대로 읽을 수 있도록 SpEL을 지원한다.
- containerFactory는 기본 프로그램에서 생성한 컨테이너 팩토리를 그대로 지정했다.
- 메시지를 수신하면 단순하게 로깅하는 코드이다.
Key 를 할당한 Producer 작성하기.
- 메시지에 키를 담아 전송할 수 있도록 Controller를 다음과 같이 작성하자.
- ProcedureController.java 파일에 엔드포인트를 다음과 같이 추가하자.
...생략
@Value("${kafka.topic-with-key}")
public String TOPIC_WITH_KEY;
@PostMapping("produce-with-key/{key}")
public ResponseEntity<?> produceMessageWithKey(@PathVariable("key") String key, @RequestBody TestEntity testEntity) {
testEntity.setTime(LocalDateTime.now());
ListenableFuture<SendResult<String, Object>> future = kafkaProducerTemplate.send(TOPIC_WITH_KEY, key, testEntity);
future.addCallback(new ListenableFutureCallback<SendResult<String, Object>>() {
@Override
public void onFailure(Throwable ex) {
log.error("Unable to send message: {}", ex.getMessage());
}
@Override
public void onSuccess(SendResult<String, Object> result) {
log.info("Sent message with key: {}, offset: {}, partition: {}", key, result.getRecordMetadata().offset(), result.getRecordMetadata().partition());
}
});
return ResponseEntity.ok(testEntity);
}
...생략
- TOPIC_WITH_KEY: properties에 지정한 속성이다.
- produce-with-key/{key} 로 URI를 지정했다.
- 기본 프로그램과 차이접은 kafkaProducerTemplate.send(TOPIC_WITH_KEY, key, testEntity) 이 부분이 다르다.
- key: 를 전달하여 키에 의한 파티셔닝을 수행하도록 작업했다.
테스트하기
- 파티션 키 1번으로 보낸경우
curl -X POST localhost:8080/api/produce-with-key/key1 -H "Content-Type: application/json" -d '{"title": "TestSendKey1", "contents": "contents"}'
Sent message with key: key1, offset: 1, partition: 0
Receive Message from ConsumerRecord(topic = topic-key, partition = 0, leaderEpoch = 0, offset = 1, CreateTime = 1646022629916, serialized key size = 4, serialized value size = 84, headers = RecordHeaders(headers = [], isReadOnly = false), key = key1, value = TestEntity(title=TestSendKey1, contents=contents, time=2022-02-28T13:30:29.889397)), values {} with key
- 파티션 키 3번으로 보낸경우
curl -X POST localhost:8080/api/produce-with-key/key2 -H "Content-Type: application/json" -d '{"title": "TestSendKey2", "contents": "contents"}'
Sent message with key: key3, offset: 0, partition: 1
Receive Message from ConsumerRecord(topic = topic-key, partition = 1, leaderEpoch = 0, offset = 0, CreateTime = 1646022736311, serialized key size = 4, serialized value size = 84, headers = RecordHeaders(headers = [], isReadOnly = false), key = key3, value = TestEntity(title=TestSendKey3, contents=contents, time=2022-02-28T13:32:16.311240)), values {} with key
WrapUp
- 지금가지 키를 통해서 파티션 분배를 수행해 보았다.
- 기본적으로 Kafka는 키가 부여되면 Round Robin으로 파티션을 분배한다.
- 키가 존재하면 키를 기주으로 해싱을 통해서 해시된 값에 따라 파티션으로 분배 된다.
- 특정 키에 대해서 우선순위가 중요하다면 꼭 파티션 키를 이용하자.
'Kafka' 카테고리의 다른 글
[Kafka] 스프링부트 Kafka 5 - Error Handling (0) | 2022.04.11 |
---|---|
[Kafka] 스프링부트 Kafka 4 - 우선순위 Queue (0) | 2022.04.11 |
[Kafka] 스프링부트 Kafka 2 - 수동 컨슈밍하기 (0) | 2022.04.11 |
[Kafka] 스프링부트 Kafka 1 - 기본편 (0) | 2022.04.11 |
[Kafka] Docker Compose로 멀티 클러스터 설치하기 (0) | 2022.04.11 |
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- jenkins
- docker-compose
- springboot
- CI
- MySQL
- AWS
- D3
- NodeSelector
- mapping
- CD
- go
- Spring
- kubernetes
- java
- kubectl
- Terraform
- Kafka
- tfsec
- kafka-springboot
- declative
- Database
- deploy
- jpa
- MongoDB
- docker
- Golang
- argocd
- Gorilla
- mongo
- gitops
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
글 보관함