기본적으로 trec_eval의 경우 (사람이 생성 한) 지상 진실이 필요합니다. 쿼리 번호 따라서 쿼리를 식별
query-number 0 document-id relevance
101Categories (wikipedia entry) 같은 컬렉션을 감안할 때
Q1046 0 PNGImages/dolphin/image_0041.png 0
Q1046 0 PNGImages/airplanes/image_0671.png 128
Q1046 0 PNGImages/crab/image_0048.png 0
같은 일 것에서 (예를 들면 사진을 : 그것은 특별한 형식이어야합니다 비슷한 카테고리를 찾는 특정 카테고리). 검색 엔진의 결과는 다음
query-number Q0 document-id rank score Exp
처럼 또는 현실 기술 here로
Q1046 0 PNGImages/airplanes/image_0671.png 1 1 srfiletop10
Q1046 0 PNGImages/airplanes/image_0489.png 2 0.974935 srfiletop10
Q1046 0 PNGImages/airplanes/image_0686.png 3 0.974023 srfiletop10
에보고 변화되어야한다. "document-id"에 대한 경로 이름을 조정해야 할 수도 있습니다. 그런 다음 표준 측정 항목 을 계산할 수 있습니다. trec_eval --help
은 논문에 필요한 측정을 사용하기위한 올바른 매개 변수를 선택하기위한 몇 가지 아이디어를 제공해야합니다.
trec_eval
은 검색어를 보내지 않으므로 직접 작성해야합니다. trec_eval
은 분석 결과와 근거를 제공합니다.
일부 기본 정보는 here 및 here입니다.
출처
2011-11-17 22:35:06
mbx
이 주제에 관심이 있으십니까? – shellter
비 이진 관련 레이블을 처리하는 방법과 관련하여 의심의 여지가 있습니까? – Shashank