回答此问题可获得 20 贡献值,回答如果被采纳可获得 50 分。
<p>我想用密集的V-Net架构来实现迁移学习。当我在搜索如何做到这一点时,我发现这个特性目前正在使用(<a href="https://stackoverflow.com/questions/50768864/how-do-i-implement-transfer-learning-in-niftynet">How do I implement transfer learning in NiftyNet?</a>)。在</p>
<p>虽然从这个答案可以很清楚地看出,没有一个直接的方法来实施它,但我试图:</p>
<p>1)制作密集的V型网</p>
<p>2)从.ckpt文件恢复weights</p>
<p>3)自主实施迁移学习</p>
<p>为了执行第一步,我想我可以使用niftynet.network.dense\vnet模块。因此,我尝试了以下几点:</p>
<pre><code>checkpoint = '/path_to_ckpt/model.ckpt-3000.index'
x = tf.placeholder(dtype=tf.float32, shape=[None,1,144,144,144])
architecture_parameters = dict(
use_bdo=False,
use_prior=False,
use_dense_connections=True,
use_coords=False)
hyperparameters = dict(
prior_size=12,
n_dense_channels=(4, 8, 16),
n_seg_channels=(12, 24, 24),
n_input_channels=(24, 24, 24),
dilation_rates=([1] * 5, [1] * 10, [1] * 10),
final_kernel=3,
augmentation_scale=0)
model_instance = DenseVNet(num_classes=9,hyperparameters=hyperparameters,
architecture_parameters=architecture_parameters)
model_net = DenseVNet.layer_op(model_instance, x)
</code></pre>
<p>但是,我得到了以下错误:</p>
^{2}$
<p>所以,问题是:</p>
<p>有没有办法实现这一点?在</p>