0
I 훈련 vgg-19 net에서 classfy cifar10까지, 한 번만 훈련 한 후 vgg-net은 nan
을 반환합니다.tensorflow 훈련 후, vgg-net return nan
0 [[ 4.45161677e+09 2.87961518e+10 4.20765041e+10 ..., -2.33432433e+10
1.83500431e+10 -1.12923648e+10]
[ 1.18354002e+10 3.38799473e+10 5.86873242e+10 ..., -4.18343895e+10
2.79392338e+10 -1.61746637e+10]
[ 1.26074880e+09 2.22301839e+10 5.25488333e+10 ..., -2.92738212e+10
2.51925299e+10 -1.48290714e+10]
...,
[ 1.05694116e+10 2.16351908e+10 5.02961357e+10 ..., -3.12492278e+10
2.42959094e+10 -1.26112993e+10]
[ 4.72429568e+09 2.75032003e+10 5.14044682e+10 ..., -3.51395635e+10
2.18048840e+10 -1.46147287e+10]
[ 2.97774285e+09 1.89559747e+10 4.06387917e+10 ..., -2.35828470e+10
1.96148122e+10 -9.55916698e+09]]
1 [[ nan nan nan ..., nan nan nan]
[ nan nan nan ..., nan nan nan]
[ nan nan nan ..., nan nan nan]
...,
[ nan nan nan ..., nan nan nan]
[ nan nan nan ..., nan nan nan]
[ nan nan nan ..., nan nan nan]]
내가 훈련 VGG 그물에 tf.train.GradientDescentOptimizer
를 사용하여 활성 기능은 relu, tf.random_normal
무게를 init을하고 완전히 연결 층을 tf.nn.xw_plus_b
을 사용하는 것이 었습니다. 그래서 내가 알고 싶어, 왜 vgg - 그물 nan
, 훈련 후 반환합니다.
문제가 해결되었습니다. 네트워크에서 학습률이 너무 컸습니다 (1e-3). lr을 1e-11로 변경하고 교육을 시작했습니다. 감사합니다. –