일반적으로 역 전파 NN에는 사라지는 그라데이션 문제가 있습니다. Convolutional NN (CNN)에서이 사라지는 그라디언트 문제를 제거하는 방법 (왜?)을 발견했습니다.왜 컨볼 루션 신경 네트워크에 대한 사전 학습
또한 일부 논문에서는 CNN에 대한 몇 가지 사전 훈련 방법에 대해 논의했습니다. 누군가 나에게 다음을 설명 할 수 있습니까?
(1) the resons for pretraining in CNN and
(2) what are the problems/limitations with CNN?
(3) any relavent papers talking about the limitation of CNN?
미리 감사드립니다.
단지 첫 번째 지점에 관한 것입니다. 다른 유형의 심층 학습 방법으로 CNN은 많은 노드와 레이어를 배워서 역 전파 알고리즘의 성능을 저하시킵니다. 출력 노드에서 10 %의 오차 차는 제 1 층에서 0.000001 %의 업데이트로 이어질 수있다. Pretraining (감독되지 않은 방법)은이 문제를 겪지 않으며 미세 조정을 위해 backpropagation을 사용하기 전에 의미있는 가중치를 갖도록 네트워크를 업데이트하는 데 사용될 수 있습니다 (패턴을 원하는 출력과 연관 시킴). – ASantosRibeiro
교차 유효성 검사를 시도해보십시오. http://stats.stackexchange.com/search?q=cnn – killogre