擅长:python、mysql、java
<p>您没有在代码中为大小为10的softmax层定义登录名,您必须显式地这样做。在</p>
<p>完成后,可以使用<a href="https://www.tensorflow.org/api_docs/python/tf/nn/softmax" rel="noreferrer">tf.nn.softmax</a>,将其分别应用于两个logit张量。在</p>
<p>例如,对于您的20类softmax张量:</p>
<pre><code>softmax20 = tf.nn.softmax(logits[0])
</code></pre>
<p>对于另一层,可以执行以下操作:</p>
^{pr2}$
<p>还有一个<a href="https://www.tensorflow.org/api_docs/python/tf/contrib/layers/softmax" rel="noreferrer">tf.contrib.layers.softmax</a>,它允许你在大于2维的张量的最后一个轴上应用softmax,但是看起来你不需要这样的东西。<a href="https://www.tensorflow.org/api_docs/python/tf/nn/softmax" rel="noreferrer">tf.nn.softmax</a>应该在这里工作。在</p>
<p><em>旁注:</em><code>output_layer</code>不是该列表的最佳名称-应该是一些涉及权重的名称。这些权重和偏差(<code>output_layer</code>,<code>output_bias</code>)也不代表您网络的输出层(因为无论您对softmax输出做什么,都会产生这种影响,对吗?)。[抱歉,我忍不住了。]</p>