2013-03-31 3 views
1

NLTK의 Bernoulli Naive Bayes 알고리즘과 scikit-learn 모듈의 텍스트를 분류 할 때 매우 다른 결과가 나타납니다. 비록 전체적인 정확도가 2 가지 (비록 동일하지는 않지만) 사이에서 비교 될지라도, 유형 I 및 유형 II 오차의 차이는 중요하다. 특히, NLTK Naive Bayes 분류기는 유형 II 오류보다 더 많은 유형 1 오류를 제공하는 반면, scikit-learn은 반대입니다. 이 '이상 현상'은 다양한 기능과 다양한 교육 샘플에서 일관된 것처럼 보입니다. 이것에 대한 이유가 있습니까? 두 가지 중 어느 것이 더 신뢰할 수 있습니까?NLTK의 Bernoulli Naive Bayes와 scikit-learn의 결과가 다릅니다

답변

1

NLTK는 Bernoulli Naive Bayes를 구현하지 않습니다. 다국적 Naive Bayes를 구현하지만 바이너리 기능 만 허용합니다.

관련 문제