Tensorflow의 DropoutWrapper
은 셀의 입력, 출력 또는 상태 중 하나에 드롭 아웃을 적용 할 수 있습니다. 그러나, 나는 원래의 LSTM 공식에 사용 된 8 개의 다른 매트릭스 중 4 개의 셀의 반복 무게에 대해 동일한 작업을 수행하는 옵션을 보지 못했습니다. 난 그냥 내 자신의 래퍼를 구현하기 전에 이것이 사실인지 확인하고 싶었는데, 나는 이것이 아주 간단 할 것이라고 믿는다.LSTM에 대한 누락 텐서 흐름의 반복 가중치
1
A
답변
0
원래 LSTM 모델 만이 용지 강하와 LSTM를 설명하는 "교과서"으로 간주된다 (단지 비재 레이어.) 입력 및 출력 레이어에 전압 강하를인가하기 때문이다 : 최근 https://arxiv.org/pdf/1409.2329.pdf
일부 사람들은 반복적 인 레이어에서도 드롭 아웃을 적용하려고했습니다. 구현과 그 뒤에있는 수학을보고 싶다면 야 린 갈 (Yarin Gal)이 "재귀 신경 회로망에서 이론적으로 기초가 된 응용 프로그램"을 검색하십시오. 나는 Tensorflow 또는 Keras가 이미이 접근법을 구현했는지 확신 할 수 없다.
관련 문제
- 1. 텐서 흐름의 루프 가변 범위
- 2. 텐서 흐름의 시퀀스 마스크
- 3. 텐서 흐름의 선형 모델
- 4. word2vec에 대한 텐서 흐름의 데이터 형식
- 5. 텐서 흐름의 텐서 부분에 대한 포인터를 얻을 수 있습니까?
- 6. 텐서 흐름의 2 차원 인덱싱
- 7. 텐서 흐름의 그리드에서 이미지를 바둑판 식으로 배열하십시오.
- 8. 텐서 흐름의 컨볼 루션 구현은 어디에 있습니까
- 9. 텐서 흐름의 이진 임계 값 활성화 함수
- 10. 텐서 흐름의 텐서에서 새로운 행렬 만들기
- 11. 분산 텐서 흐름의 검사 점 복원
- 12. 텐서 흐름의 변수가 루프에서 오류를 생성 함
- 13. 반복 시간에 대한 텐서 흐름 손실 요약
- 14. 기본 분산 텐서 흐름 1.0에 대한 스파크의 텐서 흐름의 차이점은 무엇입니까?
- 15. 텐서 흐름을 이용한 텐서 슬라이스의 반복 업데이트
- 16. for 루프에서 텐서 반복?
- 17. tflearn의 LSTM에 대한 치수 오류
- 18. CNTK LSTM에 대한 데이터 준비
- 19. 로지스틱 회귀에 대한 반복 가중치 반복 가중치 알고리즘의 가중치가 항상 NaN으로 끝나는 이유는 무엇입니까?
- 20. SGD는 수렴하지만 일괄 학습은 수행하지 않습니다. 텐서 흐름의 단순 회귀
- 21. 텐서 흐름의 자동 엔큐와 비동기 io의 대기열 합계
- 22. Conv2d_Transpose/deconv2d가 텐서 흐름의 원래 입력을 반환하지 않는 이유는 무엇입니까?
- 23. 텐서 흐름의 5D 텐서로 3D 이미지 크기 조정
- 24. Windows의 Docker를 통해 텐서 플로우를 사용할 때 설치된 텐서 흐름의 루트 디렉토리는 어디입니까?
- 25. 분배 된 텐서 흐름의 마스터에 대한 매개 변수 서버의 좋은 비율은 무엇입니까?
- 26. const 부스트 :: 그래프의 에지 가중치 반복
- 27. 누락 된 값이있는 가중치 데이터에서 speedlm 실행
- 28. 그라디언트 값의 텐서 흐름에 대한 정지 조건
- 29. 가중치 가중치 가중치 가중치 최대 값 : 각 그래프의 순서가 유지됩니다.
- 30. 텐서 분할하기