Keras에 작은 신경망이 있습니다.훈련 중 Keras - negative 손실 및 val_loss
contextTrain, contextTest, utteranceTrain, utteranceTest = train_test_split(context, utterance, test_size=0.1, random_state=1)
model = Sequential()
model.add(LSTM(input_shape=contextTrain.shape[1:], return_sequences=True, units=300, activation="sigmoid", kernel_initializer="glorot_normal", recurrent_initializer="glorot_normal"))
model.add(LSTM(return_sequences=True, units=300, activation="sigmoid", kernel_initializer="glorot_normal", recurrent_initializer="glorot_normal"))
model.compile(loss="cosine_proximity", optimizer="adam", metrics=["accuracy"])
model.fit(contextTrain, utteranceTrain, epochs=5000, validation_data=(contextTest, utteranceTest), callbacks=[ModelCheckpoint("model{epoch:02d}.h5", monitor='val_acc', save_best_only=True, mode='max')])
컨텍스트 및 발화 예컨대 형상 NumPy와 배열 인 (100, 15, 300). fisrt LSTM의 Input_shape는 (15, 300)이어야합니다.
나는 무슨 일이 있었는지 모르지만 갑자기 훈련 중 음의 손실과 val_loss를 인쇄합니다. 그것은 일반적으로 양성이었습니다 (0.18 정도였습니다). 90 개 샘플들에
가열차 =======================
에포크 1/5000 90/90 [10 개 샘플에서 확인
=======] - 5 초 52ms/단계 - 손실 : -0.4729 - acc : 0.0059 - val_loss : -0.4405 - val_acc : 0.0133획기적 2/5000 90/90 [====== ========================== - 2 초 18ms/step - 손실 : -0.5091 - acc : 0.0089 - val_loss : -0.4658 - val_acc : 0.0133
획기 3/5000 90/90 [===============] - 2 초 18ms/step -손실 : -0.5204 - ACC : 0.0170 - val_loss : -0.4829 - val_acc : 0.0200
신기원 5천분의 4 90/90 [============== ========== - 2 초 20ms/단계 - 손실 : -0.5296 - acc : 0.0244 - val_loss : -0.4949 - val_acc : 0.0333
획기적인 5/5000 90/90 [=== =============== - 2 초 20ms/step - 손실 : -0.5370 - acc : 0.0422 - val_loss : -0.5021 - val_acc : 0.0400
이게 무슨 의미입니까? 그리고 가능한 이유는 무엇입니까?
어떤 답장을 보내 주셔서 감사
답을 찾은 경우 친절하게 받아들입니다. - 감사합니다. – desertnaut