사전 훈련 된 단어 벡터를 사용하여 LSTM으로 분류 할 때 텐서 흐름에서 2GB보다 큰 룩업 테이블을 포함하는 방법을 처리하는 방법을 궁금해했습니다. tensorflow에서 큰 (> 2GB) 임베디드 찾아보기 테이블을 다루는 방법은 무엇입니까?
는data = tf.nn.embedding_lookup(vector_array, input_data)
ValueError: Cannot create a tensor proto whose content is larger than 2GB
vector_array 변수는 NumPy와 배열이며, 약 1400 만 고유 토큰 각 단어를 100 단어 차원 벡터를 포함한다.
귀하의 도움에 감사드립니다.
불편을 끼쳐 드려 죄송합니다. 내가 그것을 시도했을 때, 나는 대화 형 세션을 사용하여 개인 가중치를 확인했고, 모두 0이 아니었다. 또한, 나는 단지 Stackoverflow에 대한 답변을 Google의 직원이 제공 한 93 개 이상의 upvotes로 인용했기 때문에 무엇이 잘못되었는지 확실하지 않습니다. 코드 또는 사용자의 오타가있을 수 있습니다. 변수를 사용하지 말고 제안한 것을 확실히 할 수는 있지만, 그런 식으로 텐서를 유지할 수는 없을 것이라고 생각합니다. 미래에이 메모리 소비 프로세스를 실행할 필요가 없도록 변수를 저장합니다. 저장된 변수 만 복원합니다. – ltt