2

나는 pretrained 모델 (VGG 16)을 DIGITS에 사용하려하지만이 오류가 있습니다. 다른 데이터 세트로 DIGITS에서 사전 훈련 된 모델을 사용하는 중 오류가 발생했습니다. 새 데이터 세트를 기반으로 레이어를 수정하는 방법은 무엇입니까?

conv2_2 does not need backward computation. 
relu2_1 does not need backward computation. 
conv2_1 does not need backward computation. 
pool1 does not need backward computation. 
relu1_2 does not need backward computation. 
conv1_2 does not need backward computation. 
relu1_1 does not need backward computation. 
conv1_1 does not need backward computation. 
data does not need backward computation. 
This network produces output label 
This network produces output softmax 
Network initialization done. 
Solver scaffolding done. 
Finetuning from /home/digits/digits/jobs/20161020-095911-9d01/model.caffemodel 
Attempting to upgrade input file specified using deprecated V1LayerParameter: /home/digits/digits/jobs/20161020-095911-9d01/model.caffemodel 
Successfully upgraded file specified using deprecated V1LayerParameter 
Attempting to upgrade input file specified using deprecated input fields: /home/digits/digits/jobs/20161020-095911-9d01/model.caffemodel 
Successfully upgraded file specified using deprecated input fields. 
Note that future Caffe releases will only support input layers and not input fields. 
Check failed: error == cudaSuccess (2 vs. 0) out of memory 

ERROR: Check failed: error == cudaSuccess (2 vs. 0) out of memory

나는 DIGITS에 성공적으로 deploy.prototxtVGG_ILSVRC_16_layers.caffemodelsynset_words.txt을 업로드하고 두 개의 클래스를 가지고 내 데이터 집합을 테스트했다.

답변

2

때로는 digits-server이 메모리를 지울 수 없습니다. 당신이 우분투를 사용하는 경우이 명령을 사용하십시오 :

sudo restart nvidia-digits-server 

를 같은 문제가 해결되지 않고 다시 다시 직면하는 경우에는 batch_size

+0

감사를 줄일 필요가있다. 메모리 문제는 해결되었지만 오류는 남아 있습니다. 마지막 레이어를 변경해야하지만 이름을 변경하면 교육 과정이 잘 진행되지 않습니다. –

+0

모두 사전 교육을 받았으며 데이터 세트가 동일합니까? 적어도 사전 훈련 된 모델이 유사한 데이터베이스에서 준비되지 않은 경우 더 좋은 결과를 얻지 못할 것입니다. –

+0

저는 두 개의 클래스만으로 다른 데이터 세트를 가지고 있으며, 해당 모델을 내 데이터 세트에 사용하고 싶습니다. 새로운 데이터 세트를 수정하고 변경하기 위해 "미세 조정"과 "학습 학습"을 읽었지만 교육에 오류가 있습니다. –

관련 문제