6

우리는 수천 개의 분류기가 있다는 것을 알고 있습니다. 최근에 나는 adaboost과 비슷하다고이라고 말했습니다.최첨단 분류 알고리즘

  • 는 classifiers.Do 당신이 예를 의 예술의 상태 무엇을 가지고있다
  • (투표 아이디어 포함)가 더 나은 알고리즘 있습니까?

답변

1

Hastie et al. (2013, The Statistical Learning의 요소)는 Gradient Boosting Machine이 최고의 "기성품"방법이라고 결론지었습니다. 당신이 가진 문제와는 독립적입니다. 정의 (페이지 352) : "기성품"방법은 많은 시간을 소비하는 데이터 사전 처리 또는 학습 절차의 신중한 조정 없이도 을 데이터에 직접 적용 할 수있는 방법입니다.

좀 더 오래된 의미 : 사실, Breiman (NIPS Workshop, 1996)은 AdaBoost를 "세계 최고의 분류업자"(Breiman (1998) 참조)라고 불렀습니다.

5

첫 번째로, adaboost는 좋아하는 분류 기준과 함께 사용되는 메타 알고리즘입니다. 둘째, 한 문제 영역에서 잘 작동하는 분류 기준은 종종 다른 문제 영역에서 잘 작동하지 않습니다. 위키 백과 페이지 No Free Lunch을 참조하십시오. 따라서 귀하의 질문에 대한 대답은 없을 것입니다. 아직도 사람들이 실제로 사용하고있는 것을 아는 것은 흥미로울 것입니다.

+0

그래서 사람들이 무엇을 사용합니까 ??? – cMinor

2

Apache Mahout (오픈 소스, 자바) 많은 증기를 집어 올리는 것 같습니다.

2

Weka은 매우 널리 사용되고 안정적인 기계 학습 라이브러리입니다. 꽤 오래 동안 있었고 Java로 작성되었습니다.

+0

최근에 나는 이것을 사용하는 Dr.를 보았습니다. 그래서 당신이 그렇게 빨리 대답했다는 것을 인정해야합니다. – cMinor

3

Weka와 Mahout은 알고리즘이 아니며 기계 학습 라이브러리입니다. 여기에는 광범위한 알고리즘 구현이 포함됩니다. 그러므로 가장 좋은 방법은 라이브러리를 선택하고 특정 알고리즘에 가장 적합한 알고리즘을 선택하는 것입니다 ("가장 잘 작동하는"부분은 교육 비용, 분류 비용 및 분류 정확도의 함수가 될 것입니다).

나인 경우, 순진한 베이 즈, k- 가장 가까운 이웃 및 벡터 머신을 지원할 것입니다. 그것들은 잘 정립되고 잘 이해 된 방법들과 매우 다른 절충점을 가지고 있습니다. Naive Bayes는 저렴하지만 특히 정확하지는 않습니다. K-NN은 훈련 중 저렴하지만 분류 중에 비용이 많이 들며 일반적으로 매우 정확하지만 과도하게 훈련 될 수 있습니다. SVM은 훈련하는 데 많은 비용이 들며 조정할 메타 매개 변수가 많지만 적용하기가 쉽고 일반적으로 적어도 k-NN만큼 정확합니다.

해결하려는 문제에 대해 더 자세히 알려 주시면보다 집중된 조언을 드릴 수 있습니다. 그러나 만약 당신이 단지 하나의 진정한 알고리즘을 찾고 있다면, 그 중 하나가 없습니다. - No Free Lunch theorem이 그것을 보장합니다.