3
나는 tensorflow에 익숙하지 않으며 튜토리얼에 따라 "seq2seq"모델을 구현하려고합니다. func "embedding_attention_seq2seq"의 인수 "num_heads"(기본값 = 1)에 대해 확실하지 않습니다. 그것이 무엇을 나타내는가? 나는 관련 논문에서 그것을 찾지 못했습니다.tensorflow의 seq2seq.embedding_attention_seq2seq의 "attention heads"
디코더에서 하나의 단위에 대해 계산 한주의 벡터가 몇 개인가요? 주의 개수를 변경하는 방법은 무엇입니까? 우리가 인코더 상태를 두 번 실행하는 것입니까? –
예, 다음 코드에서 확인할 수 있습니다. 특히 [이 줄] (https://github.com/tensorflow/tensorflow/blob/r1.1/tensorflow/contrib/legacy_seq2seq/python/ops/seq2seq.py# L683). – lerner
예. 하지만이 문제가 있습니다. 두 가지주의 사항이 있다면 어떻게 될까요? –