저는 전체 10M 레코드가있는 50 개의 파티션으로 거대한 주제를 사용하고 있습니다. 따라서 파티션 당 200,000 개가 필요합니다. 라운드 로빈 방식의 간단한 파티셔를 사용하여 50 개 이상의 파티션에 10M을 할당했습니다.카프카에서 거대한 파티션을 사용합니다.
소비자 그룹을 실행할 때 데이터가 각 스레드와 일부 스레드에서 200K 미만인 것으로 나타났습니다. 소비하는 단일 메시지가 없습니다. 누락 된 것이 있습니까?
점수는 내가 1.3M에 ~ 800K 사이 어딘가 만
이 내 소비자 설정입니다
props.put("zookeeper.session.timeout.ms", "60000");
props.put("zookeeper.sync.time.ms", "2000");
props.put("auto.commit.interval.ms", "1000");
props.put("consumer.timeout.ms", "5000");
props.put("auto.offset.reset", "smallest");
props.put("session.timeout.ms", "5000");
시간을내어 주셔서 감사합니다 Manav. Consumer Threads는 consumertimeoutexception을 초과 할 때까지 남았습니다. 숫자는 단지 레코드 수이며 취한 시간과 아무 관련이 없습니다. 이것은 절대적인 숫자입니다. 내 소비자 코드는 https://cwiki.apache.org/confluence/display/KAFKA/Consumer+Group+Example과 매우 유사합니다. –