2016-06-23 1 views
0

수천 개의 timestep을 가진 RNN을 만들고 싶습니다. 따라서 적절한 방법은 for 루프에서 for GPU 메모리가 부족하기 때문에 while_loop 함수를 사용하는 것입니다.tensorflow가있는 while_loop을 사용하여 모든 단계에서 출력을 저장하는 방법은 무엇입니까?

그러나 모든 단계에서 rnn 출력을 저장하는 방법을 찾을 수 없습니다. 전역 목록을 사용하거나 tf.concat()을 사용하여 출력을 누적하려고했습니다. 어느 쪽도 효과가 없었다. while_loop()는 최종 출력을 얻기 위해서만 사용될 수있는 것처럼 보입니다.

모든 출력을 얻는 방법은 있습니까?

답변

1

while_loopTensorArray 개체를 사용하여 정확하게 수행하는 tf.nn.dynamic_rnn을 시도해보십시오.

관련 문제