2016-12-30 3 views
0

분류를 위해 WKEA를 사용하고 있습니다. 내가 adaboost 및 RBFNetwork 두 알고리즘을 사용하고 있습니다. 놀랍게도 이러한 알고리즘 모두 내 데이터에서 잘 수행하고 포기하지 않는 다음과 같은 결과 :ROC 결과 해석

    Adaboost  RBFNetwrok 
     Precision : 0    0 

     Recall  : 0    0 

     F1-score : 0    0 

    Accuracy : 91.36   91.36 

    ROC_AUC : 77.11   64.26 

우리는 알고리즘 모두가 같은 값을주고있는 것을 볼 수있다 4 미터 (정밀, 리콜, F1-점수, 정확성) 그러나 그들은 ROC_AUC에 대해 다른 결과를 제공합니다.

어떻게 이해할 수 있습니까? 오류가 있습니까?

알려 주시기 바랍니다.

답변

2

이것은 정상적인 현상입니다. AUC는 모든 임계 값에 걸쳐 통합되지만 정확도는 단일 임계 값으로 측정됩니다. 이것은 ROC 곡선은 다른 AUC와 매우 다를 수 있지만, 여전히 몇 가지 임계 값 (빨간색 원)에서 공통의 정확성을 공유 할 수 있습니다 : 분류에서

A smooth ROC curve and one with a single threshold

+0

우리는 0.5의 임계 값을. 이제 인스턴스의 신뢰도 값이 0.5보다 크면 긍정적 인 인스턴스로 예측합니다. 그렇지 않은 경우 인스턴스를 음의 인스턴스로 예측합니다. 즉, 서로 다른 임계 값을 사용함으로써 정확도가 다른 값을 가질 수 있습니다. ROC-AUC에도 사실입니까? – Sangeeta

+1

분류를 위해 임계 값 0.5를 사용하지 않아도됩니다. 그것은 전적으로 당신에게 달려 있습니다. 이것은 ROC 분석의 요점입니다 : 임계 값을 변경하고, 민감도와 특이성이 어떻게 변하는 지보고, 모든 임계 값을 평균합니다. – Calimo