1
sigmoid_cross_entropy_logits, softmax_cross_entropy_logits와 같이 tensorflow에는 많은 손실 함수가 있습니다. 이 함수의 수학 공식을 써주시겠습니까? 그리고 로지 (logits) 란 무엇입니까? this 기능을 말하는 것입니까? 그리고 그것은 요소 현명하게 적용됩니까?Tensorflow 손실 기능?
sigmoid_cross_entropy_logits, softmax_cross_entropy_logits와 같이 tensorflow에는 많은 손실 함수가 있습니다. 이 함수의 수학 공식을 써주시겠습니까? 그리고 로지 (logits) 란 무엇입니까? this 기능을 말하는 것입니까? 그리고 그것은 요소 현명하게 적용됩니까?Tensorflow 손실 기능?
이 예제를 참조하십시오
# tf.nn.softmax computes softmax activations
# softmax = exp(logits)/reduce_sum(exp(logits), dim)
logits = tf.matmul(X, W) + b
hypothesis = tf.nn.softmax(logits)
# Cross entropy cost/loss
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=logits,
labels=Y_one_hot))
로짓은 (softmax를 전) 모델에서 출력됩니다. 전체 예제는 https://github.com/hunkim/DeepLearningZeroToAll/blob/master/lab-06-2-softmax_zoo_classifier.py에서 찾을 수 있습니다.
Sigmoid Cross Entropy 설명의 공식은 다음과 같습니다. https://www.tensorflow.org/versions/r0.10/api_docs/python/nn.html#sigmoid_cross_entropy_with_logits –