https://github.com/silicon-valley-data-science/RNN-Tutorial에있는 모델을 학습하려고합니다. https://github.com/jupiter126/Create_Speech_Dataset (녹음본과 함께 약 340000 개의 작은 wav 오디오 샘플)을 통해 생성 된 데이터 세트를 사용합니다.
내가 GPU로 훈련 할 때 훈련은 비교적 빠르지 만 OOM에 도달하지 않으면 batch_train_size를 25 이상으로 설정할 수 없습니다.
내가 CPU로 훈련을하면 훈련 속도가 훨씬 느려지지만 batch_train_size를 250으로 쉽게 설정할 수 있습니다 (아마도 최대 700 개이지만 아직 시도하지 않았습니다).
CPU 대 GPU를 사용하여 모델 교육 - 속도와 메모리
나는 GPU의 작은 배치 크기 제한은 교육의 품질에 영향을하거나하는 방법에 대한 혼란 스러워요 상승하면 상승 만 시대에, 즉 25 개 샘플을 그 효과 ...
을 취소 할 수 있습니다 시대의 수 또는 500 에포크에 500 샘플?
GPU는 6Gb 램이 장착 된 GTX 1060이며 CPU는 128Gb 램이 장착 된 이중 XEON 2630l v4 (2 * 10 하이퍼 스레딩 코어 1.7Ghz)입니다.
무엇이 당신의 질문입니까? 배치 크기가 성능에 어떤 영향을 미칩니 까? – dv3
당신이 말하는 성능에 달려 있습니다 : - 예, 성능이 모델의 품질로 나타나는 경우 (음성 인식의 오류 %가 낮음). - 성능을 훈련하는 데 필요한 시간으로 간주하면 아니요. GPU가 훨씬 빨라질 것이라는 것을 깨달았지만, (6Gb 램 제한에 의해 부과 된) 훈련 배치의 작은 크기가 앞으로 출시 될 모델의 전반적인 품질에 영향을 미치지 않을지 궁금합니다. – user1747036