2015-01-13 3 views
0

안녕하세요, Solr 검색 엔진을 사용하여 레일 웹 애플리케이션을 개발하고 있습니다. 검색 결과를 얻는 경로는 '/ search/results'입니다.스 프라크에서 최대 요청 시간을 얻는 방법

사용자는 무언가를 검색 할 때 많은 요청을하고, 모든 시간 동안 intime 검색 요청의 최대 개수를 얻고 자합니다 (최적화를 수행하거나 RAM을 늘려야하는지 확인하기 위해). 로드가 중요하고 검색이 느리게 작동하는 최고 시간대가 있다는 것을 알고 있습니다.

Splunk 서비스를 사용하여 응용 프로그램 로그를 수집하고 로그에서이 요청 수를 얻는 것이 가능하지만 필요한 데이터를 얻기 위해 어떻게 Splunk 쿼리를 작성하는지 잘 모릅니다.

그렇다면 날짜 범위에 대한 '/ 검색/결과'경로에 대한 최대 요청 수는 어떻게하나요?

친절하게 감사드립니다!

답변

1

예제 데이터 & 또는 견본 검색을 게시 할 수 있다면 알아 내기가 훨씬 쉽습니다. 나는 여러분에게 올바른 방향으로 인도 할 수 있다고 생각하는 몇 가지 예를 게시 할 것입니다.


는의가 '/ 검색/결과'는 "URI_PATH"라는 필드에있는 가정 해 봅시다.

earliest=-2w latest=-1w sourcetype=app_logs uri_path='/search/results' 
| stats count(uri_path) by date_hour 

은 지난 주 동안 시간당 계산 (합계)을 제공합니다.

earliest=-2w latest=-1w sourcetype=app_logs uri_path=* 
| stats count by uri_path, hour 

다른 uri_paths로 테이블을 분할합니다 ('그룹 기준'이라고 생각할 수 있음).

시간 범위 약어를 사용하지 않으려면 검색 막대의 오른쪽에있는 시간 범위 선택 도구를 사용하여 GUI를 사용하여 시간을 선택하십시오 (w = 주, 월 = m = 분 등).

그 다음에는 | 파이프를 stats 명령에 연결하면 date_hour (자동 생성 된 필드)로 계산할 수 있습니다.



참고 : 이미 추출 된 URI_PATH 필드가없는 경우, rex 명령을 정말 쉽게 할 수 있습니다. 경우

... | rex "matching stuff before uri path (?<uri_path>\/\w+\/\w+) stuff after' 
| uri_path='/search/results' 
| stats count(uri_path) by date_hour 

당신은 더 많은 것을 배우고 싶다 :

  1. Stats Functions (in Splunk)
  2. Field Extractor - 영구 추출
에 대한