2016-11-02 3 views
1

저는 filebeat 및 elasticsearch에 새로 도입되었습니다. 취미 프로젝트를하고 있는데 데이터 파일을 파싱하고 싶습니다. 각 데이터 파일은 filebeat에서 로그의 서식을 지정하는 방법

<name> 
<question> 
<ans1> 
<ans2> 
<ans3> 
..etc 

내가

{ 
id : <separate_id_for_each_file>, 
name: <name>, 
question: <question>, 
ans1: <ans1>, ..etc 
} 

어떻게 filebeat하여이 작업을 수행 할 수 있습니다와 같은 ES에서이 데이터 저장을 읽을 수, 형식 아래에 언급 한 바와 같이 정보의 포함?

+0

당신이 그것을 발견 했는가? – prabello

+0

@prabello 아니,이 작업을 수행 할 사용자 지정 응용 프로그램을 작성했습니다. –

답변

1

현재로서는 filebeat로는이 작업을 수행 할 수 없습니다. 로그를 logstash으로 보낸 다음 grok과 같은 플러그인을 변환 한 다음 탄성으로 보내야합니다. 로그에 ID를 추가하려면 groch로 보내기 전에 uuid 플러그인을 사용할 수 있습니다 . 당신이 grok 수 패턴의 예를해야하는 경우> ElasticSearch

을 filebeat> LOGSTASH [UUID, grok 수] : Filebeat 수확 마녀 로그를 읽고 앞으로 다음

그래서 흐름이 될 것 같은 것을 보낼 수 만 목표 이들은 유용 할 수 있습니다 : grok 수 패턴의 컬렉션 : https://github.com/logstash-plugins/logstash-patterns-core/blob/master/patterns/grok-patterns

grok 수 패턴 테스터 : http://grokconstructor.appspot.com/do/match

관련 문제