我有一个简单的循环,在每次迭代中都会创建一个LSTM(具有相同的参数),并将其适应于相同的数据。 问题是,它花费了越来越多的时间。在
batch_size = 10
optimizer = optimizers.adam(lr=0.001)
number_unites = 20
for counter_temp in range(1,100):
t0 = time.time()
model = None
model = Sequential()
model.add(LSTM(units=number_unites, batch_input_shape=(None, batch_size, 1), return_sequences=False))
model.add(Dense(1))
model.compile(loss='mean_absolute_error', optimizer=optimizer, metrics=['accuracy'])
model.fit(x_train, y_train, epochs=50, validation_data=(x_train_val, y_train_val), verbose=0)
print(time.time()-t0)
多亏了丹尼尔莫勒,这个问题才得以解决。 我用过keras.backend.clear\u会话()删除“Keras图”。在
从keras.后端导入清除会话
清除会话()
相关问题 更多 >
编程相关推荐