이것은 깊은 학습 개념상의 문제이며, 이것이 올바른 플랫폼이 아니라면 다른 곳으로 가져 가겠습니다.파이썬 Keras LSTM 학습이 고 손실로 너무 빠르게 수렴합니다.
저는 Keras LSTM 순차 모델을 사용하여 텍스트 시퀀스를 학습하고 숫자 값 (회귀 문제)에 매핑하려고합니다.
문제는 학습이 항상 높은 손실 (교육과 테스트 모두)에 너무 빠르게 수렴한다는 것입니다. 가능한 모든 하이퍼 매개 변수를 시도했는데 모델의 높은 바이어스를 유발하는 로컬 미니 마 문제라고 느낍니다.
내 질문은 기본적으로 다음과 같습니다
- 방법이 문제 주어진 무게와 편견을 초기화?
- 사용할 최적화 도구는 무엇입니까?
- 네트워크를 얼마나 깊이 확장해야합니까? (매우 깊은 네트워크를 사용하면 교육 시간이 길어지고 모델 차이가 커질 수 있습니다)
- 교육 데이터를 더 추가해야합니까?
입력 및 출력은 minmax로 정규화됩니다.
내가 모멘텀 SGD를 사용하고, 현재 3 개 LSTM 층 (126,256,128) 및 2 개 조밀 한 층 (200 및 1 출력 뉴런)
나는 몇 신 (新) 시대 이후에 가중치를 인쇄 많은 무게 이 나타났습니다 제로 나머지는 기본적으로 1 (또는 매우 근접한 값)입니다. 여기
는 tensorboard에서 약간의 플롯이다 : 매우 높은 손실
"adam"최적화 도구를 사용하는 것이 좋으며 종종 자동으로 해당 방법을 찾습니다. 그러나 많은 시험과 세부 사항없이 답을 줄 수는 없습니다. 학습률이 너무 높을 수는 있지만 가능한 유일한 원인은 아닐 수도 있습니다. –
정품 인증 기능은 무엇입니까? –