擅长:python、mysql、java
<p>有时你只需要一个替换内置激活层的插件,而不必为此目的添加额外的激活层。</p>
<p>为此,可以使用<code>activation</code>参数可以是可调用对象这一事实。</p>
<pre><code>lrelu = lambda x: tf.keras.activations.relu(x, alpha=0.1)
model.add(Conv2D(..., activation=lrelu, ...)
</code></pre>
<p>由于<code>Layer</code>也是一个可调用的对象,您还可以简单地使用</p>
<pre><code>model.add(Conv2D(..., activation=tf.keras.layers.LeakyReLU(alpha=0.1), ...)
</code></pre>
<p>现在可以在tf中使用。这是一个更好的解决方案,因为这样可以避免在加载期间使用<code>custom_object</code>,正如@ChristophorusReyhan提到的那样。</p>