다른 소스로 구성된 대용량 데이터 세트에서 RNN을 교육하고 있습니다. 나는 한 세트의 역사가 다음으로 넘치기를 원하지 않는다. 즉, 다음 세트를 보내기 전에 한 세트의 끝에서 숨겨진 상태를 재설정하려고합니다. Keras로 어떻게 할 수 있습니까? 의사는 낮은 수준의 구성에 들어갈 수 있다고 주장합니다.Keras의 입력 데이터 세트 사이에서 RNN의 숨겨진 상태를 재설정 할 수 있습니까?
내가하려는 것은 새로운 데이터 세트가 입력 될 때마다 lstm 숨김 상태를 재설정하는 것이므로 이전 데이터 세트의 영향은 이월됩니다. Karpathy의 간단한 파이썬 구현에서
prevh = Hout[t-1] if t > 0 else h0
라인을 참조 https://gist.github.com/karpathy/587454dc0146a6ae21fc 라인 (45) 나는 lstm 층을 발견하고 그것을 다시 호출하면
, 나는 그 무게와 편견의 전체 훈련을 쓸어 것입니다 걱정 뿐만 아니라 Hout의
다음는 교육 루프 코드
for iteration in range(1, 10):
for key in X_dict:
X = X_dict[key]
y = y_dict[key]
history=model.fit(X, y, batch_size=batch_size, callbacks=cbks, nb_epoch=1,verbose=0)
에게 있습니다 루프의 각 순서는 단일 시장의 데이터를 제공합니다. 그것은 내가 처음에 개자식을 다시 시작하는 곳입니다.
왜 숨겨진 상태를 다시 설정 하시겠습니까? 이것은 잠재 기능을 배우는 곳입니다. –