2012-11-17 3 views
0

앙상블 학습 (viting, stacking ... 등)을 사용하여 여러 분류 자 ​​(ANN, SVM, kNN 등 ...)를 결합하려고합니다.래퍼 메서드가있는 앙상블 분류 자 ​​

분류자를 만들기 위해 20 가지 이상의 설명 변수를 사용하고 있습니다. 그러나 각 분류 기준에는 설명 변수 중 가장 적합한 하위 집합이 있습니다. 따라서 래퍼 메서드에서 각 분류 자에 대한 설명 변수의 최상의 조합을 찾으려면 앙상블 학습 (viting, stacking ... 등)을 사용하여 여러 분류 자 ​​(ANN, SVM, kNN 등 ...)를 결합하고 싶습니다. .

weka로 메타 학습을 사용하면 앙상블 자체를 사용할 수 있습니다. 그러나 래퍼 메서드는 각 분류 자의 예측을 요약하므로 설명 변수의 최상의 조합을 얻을 수 없습니다. 그것은 어쩌면 매트랩 쉽게 또는 R.

앙상블 방식으로
+3

1) 추측이 아닌 명쾌한 질문을 올리십시오. 2) 문제에 도움이 필요하면 코드를 입력하십시오. 그래서 문제 해결을위한 것입니다. 싱크 탱크가 아닙니다. –

답변

1

해결 될 수 있을지는 WEKA에 붙어 있지 않다

은 최상의 결과를 매우 간단한 분류 달성했다. 다른 한편으로는 앙상블 비용을 보충하기 위해 꽤 빠를 수 있습니다.

이것은 처음에는 반 직관적으로 보일 수 있습니다. 더 나은 출력을 내기 위해 더 나은 입력 분류기를 사용해야합니다. 그러나 이것이 작동하지 않는 데는 두 가지 이유가 있습니다.

우선, 간단한 분류 기준을 사용하여 더 다양한 유형의 입력 분류 ​​기준을 얻을 수 있습니다. 전 체적 인 방법 + 기능 포기는 다양한 분류 기준을 제공합니다. 내부적으로 기능 선택 또는 축소를 수행하는 분류 자 ​​(classifier)는 다양한 기능을 수행하는 데있어서 기능상의 방해를 크게 불쾌하게 만듭니다. 두 번째로, SVM과 같은 복잡한 방법은 동일한 결과를 향하여 최적화/수렴 할 가능성이 더 큽니다. 결국, 복잡한 방법은 훨씬 더 큰 검색 공간을 통과하고이 검색 공간에서 최상의 결과를 찾는다. 그러나 그것은 또한 동일한 결과를 다시 얻는 경향이 있음을 의미합니다. 마지막으로 중요한 것은 매우 원시적 인 분류자를 사용할 때 오류가 더 잘 발생하고 앙상블 조합에서 벗어날 가능성이 더 높다는 것입니다.

+0

정중하게 대답 해 주셔서 감사합니다. 늦게 답장을 드려서 죄송합니다. –

관련 문제