2017-04-18 2 views
1

ConvNet 모델 교육을위한 전송 학습을 구현하려고 할 때 Keras 블로그 (goo.gl/N60H13)에서 이해할 수없는 코드 스 니펫이 있습니다. 전체적으로, VGG16은 21 개의 레이어를 가지고 있지만 최종 FC보다 다른 모든 레이어를 동결시키기 위해 동결해야하는 레이어의 수는 20 개가 될 것입니다. 블로그에서 왜 24 ([ 25])?VGG16 전송 학습

코드 :

for layer in model.layers[:25]: 
    layer.trainable = False 

답변

0

어쩌면이 KERA의 프레임 워크와 함께 할 수있는 뭔가가.

gist에서 알 수 있듯이 VGG16 model for Keras has been obtained by directly converting the Caffe model.이므로 원래는 zero-padding layers으로 계산됩니다. revision history으로 두 번 확인했는데 실제로는 zero-padding layers이 포함되어 있습니다.

KERA의에서 VGG16의 현재 버전에 대한

, 어쩌면해야

for layer in model.layers[:15]: 
    layer.trainable = False