2024-06-30 13:27:15 发布
网友
张量流中有许多损失函数,如sigmoid_cross_熵逻辑,softmax_cross_熵逻辑。你能写出这些函数的数学公式吗?什么是logits?它是指this函数吗?它是应用元素方面的吗?在
请看这个例子:
# tf.nn.softmax computes softmax activations # softmax = exp(logits) / reduce_sum(exp(logits), dim) logits = tf.matmul(X, W) + b hypothesis = tf.nn.softmax(logits) # Cross entropy cost/loss loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=Y_one_hot))
logit是从模型输出的(在softmax之前)。您可以在https://github.com/hunkim/DeepLearningZeroToAll/blob/master/lab-06-2-softmax_zoo_classifier.py找到完整的示例。在
请看这个例子:
logit是从模型输出的(在softmax之前)。您可以在https://github.com/hunkim/DeepLearningZeroToAll/blob/master/lab-06-2-softmax_zoo_classifier.py找到完整的示例。在
相关问题 更多 >
编程相关推荐