average_loss
과 loss
의 차이점은 무엇입니까? 나는 후자가 기록의 수로 나뉘어 질 것이라는 이름에서 추측했을 것이다. 그러나 그것은 그렇지 않다. 후자는 수천 건의 기록으로 전자의 3 ~ 4 배에 해당합니다.Tensorflow 평가 : 평균 손실 대 손실
1
A
답변
2
average_loss
loss
과의 차이는 다른 동일한 손실 통해 MEAN
감소하는 동안 하나가 배치 손실 통해 SUM
을 감소 시킨다는 것이다. 따라서 비율은 input_fn
의 batch_size
인수입니다. batch_size=1
을 전달하면 해당 값이 동일해야합니다.
실제를
이 텐서는tf.Estimator
의 특정 유형에 따라, 그러나 회귀 머리를
here's the source code 매우 비슷보고 (
tf.DNNRegressor
에 해당) : 당신이 볼 수 있듯이
training_loss = losses.compute_weighted_loss(unweighted_loss, weights=weights,
reduction=losses.Reduction.SUM)
mean_loss = metrics_lib.mean(unweighted_loss, weights=weights)
, 그들이에서 계산된다 동일 unweighted_loss
및 텐서. 같은 값이 tensorboard 요약에보고됩니다.
1
실제 비율은 정확히 4.0
이며 일괄 처리 크기에 해당합니다.
네트워크를 학습 할 때 대개 입력을 배치로 제공합니다.
example에서 배치 크기는 4
이므로 손실은 전체 배치에 대한 손실의 합계이며 평균 손실은 전체 배치에 대한 손실의 평균입니다.
관련 문제
- 1. Tensorflow 옵티 마이저 : 손실 합 대 평균
- 2. Tensorflow - 총 변이 손실 - reduce_sum 대 reduce_mean?
- 3. PyTorch 손실 함수 평가
- 4. Tensorflow 손실 NaN으로 이동
- 5. Tensorflow 난 손실 이유
- 6. TensorFlow 모델 손실 0
- 7. Tensorflow 손실 기능?
- 8. Keras의 Tensorflow Huber 손실 사용
- 9. 비 독립 클래스의 Tensorflow 손실
- 10. Keras/Tensorflow 커스텀 손실 함수
- 11. Tensorflow 신경망 손실 값 NaN
- 12. 손실
- 13. 다 변수 LSTM 예측 손실 및 평가
- 14. Tensorflow 교육/정품 인증 손실 질문
- 15. TensorFlow MNIST DCGAN : 손실 기능을 설정하는 방법?
- 16. tensorflow 백엔드가있는 케라에서 핀볼 손실 함수 정의
- 17. 정규화 손실 Tensorflow - TRAINABLE_VARIABLES에서 Tensor Array
- 18. 목록 작성 및 손실 기능 Tensorflow
- 19. Tensorflow - L2 정규화 손실 추가 간단한 예제
- 20. Keras 평균 제곱 오류 손실 계층
- 21. tensorflow CNN 손실 함수가 tensorboard에서 위아래로 움직입니다 (제거하는 방법)?
- 22. 전력 손실 vs. 거리
- 23. Tensorflow Optimizers - minimize()에 여러 손실 값 전달?
- 24. Redis 데이터 손실
- 25. 포스트 백 대 Response.Redirect (데이터 손실)
- 26. 블랙 다이아몬드의 물음표 대 특정 문자의 손실
- 27. 손실 - 자바
- 28. 손실 가능성은
- 29. 신호 손실
- 30. 데이터 손실