如何利用一个预训练MLP的最后一个隐层权值作为输入,用Keras建立一个新的MLP(transfer learning)模型?

2024-06-26 14:47:17 发布

您现在位置:Python中文网/ 问答频道 /正文

我想用简单的MLP模型进行迁移学习。首先,我在大数据上训练1个隐层前馈网络:

net = Sequential()
net.add(Dense(500, input_dim=2048, kernel_initializer='normal', activation='relu'))
net.add(Dense(1, kernel_initializer='normal'))
net.compile(loss='mean_absolute_error', optimizer='adam')
net.fit(x_transf, 
        y_transf,
        epochs=1000, 
        batch_size=8, 
        verbose=0)

然后我想将唯一的隐藏层作为输入传递给一个新的网络,在其中我想添加第二层。重复使用的层不应是可训练的。你知道吗

idx = 1  # index of desired layer
input_shape = net.layers[idx].get_input_shape_at(0) # get the input shape of desired layer
input_layer = net.layers[idx]
input_layer.trainable = False

transf_model = Sequential()
transf_model.add(input_layer)
transf_model.add(Dense(input_shape[1], activation='relu'))
transf_model.compile(loss='mean_absolute_error', optimizer='adam')
transf_model.fit(x, 
                 y,
                 epochs=10, 
                 batch_size=8, 
                 verbose=0)

编辑: 上述代码返回:

ValueError: Error when checking target: expected dense_9 to have shape (None, 500) but got array with shape (436, 1)

有什么诀窍可以让它成功?你知道吗


Tags: 网络addlayerinputnetmodelactivationkernel
1条回答
网友
1楼 · 发布于 2024-06-26 14:47:17

我只需要使用Functional API来构建这样一个模型:

shared_layer = net.layers[0] # you want the first layer, so index = 0
shared_layer.trainable = False

inp = Input(the_shape_of_one_input_sample) # e.g. (2048,)
x = shared_layer(inp)
x = Dense(800, ...)(x)
out = Dense(1, ...)(x)

model = Model(inp, out)

# the rest is the same...

相关问题 更多 >