우리는 수천 개의 분류기가 있다는 것을 알고 있습니다. 최근에 나는 adaboost
이 과 비슷하다고이라고 말했습니다.최첨단 분류 알고리즘
- 는 classifiers.Do 당신이 예를 의 예술의 상태 무엇을 가지고있다
- (투표 아이디어 포함)가 더 나은 알고리즘 있습니까?
우리는 수천 개의 분류기가 있다는 것을 알고 있습니다. 최근에 나는 adaboost
이 과 비슷하다고이라고 말했습니다.최첨단 분류 알고리즘
Hastie et al. (2013, The Statistical Learning의 요소)는 Gradient Boosting Machine이 최고의 "기성품"방법이라고 결론지었습니다. 당신이 가진 문제와는 독립적입니다. 정의 (페이지 352) : "기성품"방법은 많은 시간을 소비하는 데이터 사전 처리 또는 학습 절차의 신중한 조정 없이도 을 데이터에 직접 적용 할 수있는 방법입니다.
좀 더 오래된 의미 : 사실, Breiman (NIPS Workshop, 1996)은 AdaBoost를 "세계 최고의 분류업자"(Breiman (1998) 참조)라고 불렀습니다.
첫 번째로, adaboost는 좋아하는 분류 기준과 함께 사용되는 메타 알고리즘입니다. 둘째, 한 문제 영역에서 잘 작동하는 분류 기준은 종종 다른 문제 영역에서 잘 작동하지 않습니다. 위키 백과 페이지 No Free Lunch을 참조하십시오. 따라서 귀하의 질문에 대한 대답은 없을 것입니다. 아직도 사람들이 실제로 사용하고있는 것을 아는 것은 흥미로울 것입니다.
Apache Mahout (오픈 소스, 자바) 많은 증기를 집어 올리는 것 같습니다.
Weka와 Mahout은 알고리즘이 아니며 기계 학습 라이브러리입니다. 여기에는 광범위한 알고리즘 구현이 포함됩니다. 그러므로 가장 좋은 방법은 라이브러리를 선택하고 특정 알고리즘에 가장 적합한 알고리즘을 선택하는 것입니다 ("가장 잘 작동하는"부분은 교육 비용, 분류 비용 및 분류 정확도의 함수가 될 것입니다).
나인 경우, 순진한 베이 즈, k- 가장 가까운 이웃 및 벡터 머신을 지원할 것입니다. 그것들은 잘 정립되고 잘 이해 된 방법들과 매우 다른 절충점을 가지고 있습니다. Naive Bayes는 저렴하지만 특히 정확하지는 않습니다. K-NN은 훈련 중 저렴하지만 분류 중에 비용이 많이 들며 일반적으로 매우 정확하지만 과도하게 훈련 될 수 있습니다. SVM은 훈련하는 데 많은 비용이 들며 조정할 메타 매개 변수가 많지만 적용하기가 쉽고 일반적으로 적어도 k-NN만큼 정확합니다.
해결하려는 문제에 대해 더 자세히 알려 주시면보다 집중된 조언을 드릴 수 있습니다. 그러나 만약 당신이 단지 하나의 진정한 알고리즘을 찾고 있다면, 그 중 하나가 없습니다. - No Free Lunch theorem이 그것을 보장합니다.
그래서 사람들이 무엇을 사용합니까 ??? – cMinor