특수 단어 임베딩을 사용하여 LSTM을 작성하고 싶습니다. 그러나 이것이 작동하는 방법에 대해 몇 가지 질문이 있습니다.LSTM (중첩 된) 내의 Tensorflow 시퀀스 - 시퀀스 LSTM
아시다시피 일부 LSTM은 문자를 처리하므로 일부 문자는 문자로 출력됩니다. 약간의 문자 수준 오류에 내성을 갖기 위해 중첩 된 LSTM을 사용하여 단어를 추상화하여 강력한 임베딩을 배우기 위해 동일한 작업을 수행하려고합니다.
그래서 작은 LSTM이 단어의 모든 문자를 펼치면이 단어가 삽입됩니다. 문장에있는 각각의 임베디드 단어는 더 높은 레벨의 LSTM에 대한 입력으로 공급되며, 이는 문자가 아닌 매 시간 단계에서 단어 수준에서 작동합니다.
질문 : - 그것에 대해 언급 한 연구 보고서를 더 이상 찾을 수 없습니다. 내가 말하는 것에 대해 알고 있다면, 내가하고 싶은 것에 이름을 쓰고 싶습니다. - 일부 TensorFlow 오픈 소스 코드가 이미 존재합니까? - 다른 방법으로 구현하는 방법에 대한 아이디어가 있습니까? 신경망 출력은 처리하기가 더 어려울 수 있습니다. 출력 중첩 된 LSTM을 사용하여 문자에 대한 교육을 위해 단어 포함을 취소해야하기 때문입니다. 모든 것은 한 번에 하나의 단위로 훈련되어야합니다 (워크 플로 : LSTM 문자, LSTM 단어, LSTM 문자).
내 생각 엔 rnn_cell.MultiRNNCell
은 LSTM을 중첩하지 않고 위에 겹쳐 놓을 것입니다.
그렇지 않으면 기본 LSTM 외부에 자동 인코딩으로 (삽입 및 삽입) 교육하는 것이 좋습니다?