# Basic LSTM that attempts to produce a prediction vector from a sequence of time data.
model = tf.keras.Sequential([
tf.keras.layers.LSTM(20),
])
# Maybe throw a few LSTM layers to help learn the information, add some dimensions.
model = tf.keras.Sequential([
tf.keras.layers.LSTM(5,return_sequences=True),
tf.keras.layers.LSTM(50,return_sequences=True),
tf.keras.layers.LSTM(20),
])
# Maybe some Dense layers should be used to re-arrange information.
model = tf.keras.Sequential([
tf.keras.layers.LSTM(20),
tf.keras.layers.Dense(500),
tf.keras.layers.Dense(20),
])
如果我理解正确,您正在尝试操作迭代预测。所以在输入一个完整的序列时,我们用它来预测下一个值。我们在最后添加预测并重复该过程
计算此操作的代码有点混乱。我试着重写它
我们从x_检验[-2]开始,因为我们的目标是预测x_检验[-1]。最后,结果如下所示
该过程现在是正确的(也没有反向缩放)
我继续读了一遍你的数据。对您的培训和模型的一些评论:
1)您专门培训了一名LSTM,以从20个过去的值预测未来的一个值。为什么您希望该模型能够从第一个值推断出另外19个值?你的模特没有受过这样的训练,也不知道这很重要
2)你的型号非常小。您的模型有491个变量(model.summary()),非常小。你认为有多少特征会影响股市?您认为有多少变量可以模拟每个功能?最深入的学习需要数百万个变量来学习一些复杂的东西,比如股票市场。此外,这是一个高度复杂的领域,需要全世界数百万人进行研究
3)对于数据的复杂性,您几乎没有进行过任何培训。您在GPU上运行了100个纪元,或大约250秒的训练
4)你的型号太过合适了。我认为你犯了一个错误,认为“低损失”=“好的预测模型”,这根本不是真的。这是一个我在谷歌上搜索的例子,说明了我的意思
https://towardsdatascience.com/regularization-the-path-to-bias-variance-trade-off-b7a7088b4577
https://miro.medium.com/max/552/1%2ARN6fYYl_Z_n9R3cr1zpcTA@2x.png
在这个例子中,经过训练的模型基本上是零损失的,并且能够完美地预测输入数据。但该模型显然对驱动输入数据的底层特征曲线一无所知。因此,如果您试图用模型预测下一个值,它将非常不准确
5)我认为你误解了培训模特的作用。当你训练一个模型时,你正在收敛到一个“通用”的答案,这个答案会产生一个低损耗。一个模型永远也找不到能很好地预测权重的极端例子;它只会找到并慢慢收敛到一个产生低损耗的公共解决方案。例如,如果稍微将体重调整到零,使损失更小,那么在训练过程中会反复强调这一点。如果预测一个统一的线性答案在一组看似随机的数据中产生的损失最小,那么在训练过程中,这一点将被反复强化。一般来说(就像我上面评论的那样),当一个模型面对一致的随机信息时,它倾向于使用信息的平均值(因为这会减少批次之间的损失)
我相信你提供的代码和你得到的结果是可以期待的
编辑:
以下是一些时间序列数据模型的示例(它们好吗,谁知道,这取决于您的数据):
也许再加上一些激活,relu可能会有用(有点像给层一个垃圾桶来移除无用的值)。或者一些sigmoid(保持值较小)或softmax(将值视为概率)。您还可以加入一些退出层,以防止过度拟合(保持模型处于最佳状态,不要让它很快稳定下来)。此外,规范化数据也很有用。如果发现权重增长很快,请添加一些正则化,以强制模型在尝试学习数据时使用较小的权重
如果您认为学习不好,请从“adam”切换到其他学习算法。也许你的“均方误差”损失函数对大误差太苛刻,可能会减慢学习速度;试试“logcosh”。连续运行24小时,最好使用GPU
如果LSTM层太慢。也许可以改为使用一些关注层或剩余层(这是谷歌的定制想法)
您可以尝试使用GRU层而不是LSTM。性能大致相同,但训练速度稍快
相关问题 更多 >
编程相关推荐