버로우 설치를 설정하고 내 Kafka 서버를 가리 킵니다. (브로커 1 명과 사육사 1 명)./v2/kafka/kafka1/consumer, 응답이없고 소비자는 입니다. 나는 카프카 버전 0.10.0을 사용하고 소비자 커밋 오프셋/v2/kafka/(클러스터)/소비자를 통해 나열되지 않음
[general]
logdir=burrowlogs
logconfig=config/logging.cfg
pidfile=burrow.pid
client-id=burrow-lagchecker
group-blacklist=^(console-consumer-|python-kafka-consumer-).*$
[zookeeper]
hostname=
port=2181
timeout=6
lock-path=/burrow/notifier
[kafka "local"]
broker=
broker-port=9092
zookeeper=
zookeeper-port=2181
zookeeper-path=/
offsets-topic=__consumer_offsets
[storm "local"]
#zookeeper=zkhost01.example.com
#zookeeper=zkhost02.example.com
#zookeeper=zkhost03.example.com
#zookeeper-port=2181
#zookeeper-path=/kafka-cluster/stormconsumers
[tickers]
broker-offsets=60
[lagcheck]
intervals=10
expire-group=604800
[httpserver]
server=on
port=8080
[smtp]
server=mailserver.example.com
port=25
[email protected]
template=config/default-email.tmpl
[email "[email protected]"]
group=local,critical-consumer-group
group=local,other-consumer-group
interval=60
[httpnotifier]
url=http://notification.server.example.com:9000/v1/alert
interval=60
extra=app=burrow
extra=tier=STG
template-post=config/default-http-post.tmpl
template-delete=config/default-http-delete.tmpl
timeout=5
keepalive=30
My burrow.out is
Started Burrow at June 30, 2016 at 3:07pm (UTC)
2016/06/30 15:10:27 http: multiple response.WriteHeader calls
2016/06/30 15:10:29 http: multiple response.WriteHeader calls
2016/06/30 15:10:38 http: multiple response.WriteHeader calls
2016/06/30 15:10:39 http: multiple response.WriteHeader calls
2016/06/30 15:10:40 http: multiple response.WriteHeader calls
2016/06/30 15:10:41 http: multiple response.WriteHeader calls
2016/06/30 15:10:42 http: multiple response.WriteHeader calls
2016/06/30 15:10:44 http: multiple response.WriteHeader calls
2016/06/30 15:10:45 http: multiple response.WriteHeader calls
2016/06/30 15:10:45 http: multiple response.WriteHeader calls
2016/06/30 15:10:47 http: multiple response.WriteHeader calls
로
즉 {"error": false,"message": "consumer list returned","consumers": [],"request": {"url": "/v2/kafka/local/consumer/","host": "", "cluster": "local","group": "","topic": ""}}
내 burrow.cfg이 표시됩니다.
내 offset.storage = kafka.
나는 클러스터가 소비자와 연결되어 있고 메시지를 처리하고 있음을 알고 있습니다. 소비자 수준이 아닌 다른 모든 엔드 포인트는 정상적으로 작동하는 것으로 보입니다.
해결책을 찾았습니까? 이전 소비자 API를 사용하고 있습니까? 나는 똑같은 문제가 있었고 KafkaConsumer로 전환했고 소비자 관련 종점에서 데이터를 표시하기 시작했습니다. – lotusdragon
안녕하세요 ^^ 나는 카프카에 대해 처음이야 카푸 카가 무엇인지 말해 줄 수 있니? – Abhimanyu
새로운 소비자 API를 살펴보십시오. http://kafka.apache.org/documentation.html#consumerapi – lotusdragon