2017-04-11 4 views
-3

데이터가 logstash 버전 5.0에서 많은 것을 놓친다. 구성 파일을 여러 번 설정하면 쓸데없는 버그가 발생하고 쓸데없는 데이터 손실이 다시 발생하고 로그 이벤트 속성을 수집하는 방법은?데이터가 Logstash에 누락 되었습니까?

어떤 응답은

+0

처럼 사용할 수있는 많은 웹 사이트를 던져 갈 수있어합니다. –

답변

0

Logstash 특정 위치에서 로그를 읽기에 관하여 전부이다 thankness하고 당신을 당신이 탄성 검색이나 다른 출력 할 수있는 인덱스를 생성 할 수 있습니다 관심있는 정보를 기반으로. logstash의 conf

input { 
file { 
# PLEASE SET APPROPRIATE PATH WHERE LOG FILE AVAILABLE 
     #type => "java" 
     type => "json-log" 
     path => "d:/vox/logs/logs/vox.json" 
     start_position => "beginning" 
      codec => json 
    } 
} 

filter { 
if [type] == "json-log" { 
    grok { 
     match => { "message" => "UserName:%{JAVALOGMESSAGE:UserName} -DL_JobID:%{JAVALOGMESSAGE:DL_JobID} -DL_EntityID:%{JAVALOGMESSAGE:DL_EntityID} -BatchesPerJob:%{JAVALOGMESSAGE:BatchesPerJob} -RecordsInInputFile:%{JAVALOGMESSAGE:RecordsInInputFile} -TimeTakenToProcess:%{JAVALOGMESSAGE:TimeTakenToProcess} -DocsUpdatedInSOLR:%{JAVALOGMESSAGE:DocsUpdatedInSOLR} -Failed:%{JAVALOGMESSAGE:Failed} -RecordsSavedInDSE:%{JAVALOGMESSAGE:RecordsSavedInDSE} -FileLoadStartTime:%{JAVALOGMESSAGE:FileLoadStartTime} -FileLoadEndTime:%{JAVALOGMESSAGE:FileLoadEndTime}" } 
     add_field => ["STATS_TYPE", "FILE_LOADED"] 
    } 

} 
} 
filter { 

    mutate { 
    # here converting data type 

     convert => { "FileLoadStartTime" => "integer" } 
     convert => { "RecordsInInputFile" => "integer" } 




    } 
} 

output { 
elasticsearch { 
# PLEASE CONFIGURE ES IP AND PORT WHERE LOG DOCs HAS TO PUSH 

document_type => "json-log" 
hosts => ["localhost:9200"] 
     # action => "index"  
     # host => "localhost" 
     index => "locallogstashdx_new" 
     # workers => 1 
} 
    stdout { codec => rubydebug } 
    #stdout { debug => true } 
} 

의 예는 더이 지역 사회의 도움을 수 있도록하기 위해 자세한 내용을 추가하십시오 https://www.elastic.co/guide/en/logstash/current/first-event.html

관련 문제