this 기사 다음에 길쌈 신경 네트워크를 학습하는 동안 테스트 세트의 정확도는 떨어지지 만 학습 세트의 정확도는 너무 높아집니다.훈련 정확도가 적극적으로 증가하고 테스트 정확도가 안정 됨
아래는 (일부는 새로운 될 수 있도록 몇 가지 예는 이전의 시대에서 볼 수 있습니다) 무작위로 각 시대에서 선정 6400 개 교육 사례, 와 예이며, 6400 동일한 테스트 예.
더 큰 데이터 세트 (64000 또는 100000 훈련 예)의 경우 훈련 정확도 증가가 더 급격 해지고 세 번째 신기원에서 98이됩니다.
나는 또한 을 사용하여 각기 6400 개의 훈련 예제을 무작위로 섞어서 시도했다. 예상대로, 그 결과는 더욱 나 빠진다.
conv 5x5 (1, 64)
max-pooling 2x2
dropout
conv 3x3 (64, 128)
max-pooling 2x2
dropout
conv 3x3 (128, 256)
max-pooling 2x2
dropout
conv 3x3 (256, 128)
dropout
fully_connected(18*18*128, 128)
dropout
output(128, 128)
어떤 원인이 될 수 있습니다 :
epoch 3 loss 0.54871 acc 79.01
learning rate 0.1
nr_test_examples 6400
TEST epoch 3 loss 0.60812 acc 68.48
nr_training_examples 6400
tb 91
epoch 4 loss 0.51283 acc 83.52
learning rate 0.1
nr_test_examples 6400
TEST epoch 4 loss 0.60494 acc 68.68
nr_training_examples 6400
tb 91
epoch 5 loss 0.47531 acc 86.91
learning rate 0.05
nr_test_examples 6400
TEST epoch 5 loss 0.59846 acc 68.98
nr_training_examples 6400
tb 91
epoch 6 loss 0.42325 acc 92.17
learning rate 0.05
nr_test_examples 6400
TEST epoch 6 loss 0.60667 acc 68.10
nr_training_examples 6400
tb 91
epoch 7 loss 0.38460 acc 95.84
learning rate 0.05
nr_test_examples 6400
TEST epoch 7 loss 0.59695 acc 69.92
nr_training_examples 6400
tb 91
epoch 8 loss 0.35238 acc 97.58
learning rate 0.05
nr_test_examples 6400
TEST epoch 8 loss 0.60952 acc 68.21
이것은 (I 각 회선 후 RELU 활성화를 사용하고 있습니다) 내 모델?
나는 속도 붕괴 학습과 모멘텀의 최적화를 사용하고 있습니다 :
batch = tf.Variable(0, trainable=False)
train_size = 6400
learning_rate = tf.train.exponential_decay(
0.1, # Base learning rate.
batch * batch_size, # Current index into the dataset.
train_size*5, # Decay step.
0.5, # Decay rate.
staircase=True)
# Use simple momentum for the optimization.
optimizer = tf.train.MomentumOptimizer(learning_rate,
0.9).minimize(cost, global_step=batch)
이 기사를 재현하려는 이유가 있습니까? 아마도 특정 논문을보기 전에 mnist, cifar와 같은 "고전적 사례"중 몇 가지를 시도해 보는 것이 가장 좋습니다. –