2016-08-05 5 views
1

sigmoid_cross_entropy_logits, softmax_cross_entropy_logits와 같이 tensorflow에는 많은 손실 함수가 있습니다. 이 함수의 수학 공식을 써주시겠습니까? 그리고 로지 (logits) 란 무엇입니까? this 기능을 말하는 것입니까? 그리고 그것은 요소 현명하게 적용됩니까?Tensorflow 손실 기능?

+0

Sigmoid Cross Entropy 설명의 공식은 다음과 같습니다. https://www.tensorflow.org/versions/r0.10/api_docs/python/nn.html#sigmoid_cross_entropy_with_logits –

답변

0

이 예제를 참조하십시오

# tf.nn.softmax computes softmax activations 
# softmax = exp(logits)/reduce_sum(exp(logits), dim) 
logits = tf.matmul(X, W) + b 
hypothesis = tf.nn.softmax(logits) 

# Cross entropy cost/loss 
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=logits, 
              labels=Y_one_hot)) 

로짓은 (softmax를 전) 모델에서 출력됩니다. 전체 예제는 https://github.com/hunkim/DeepLearningZeroToAll/blob/master/lab-06-2-softmax_zoo_classifier.py에서 찾을 수 있습니다.

관련 문제