我使用支持向量机作为金融市场数据的分类器
我有一个有1500条数据记录的数据库
然后进行预处理、分割、训练和测试
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.3, random_state = 42, stratify = y)
scaler = StandardScaler()
X_train = scaler.fit_transform(X_train)
X_test = scaler.transform(X_test)
但为了保持良好的控制,我将培训文件与pickle一起保存
然后,我将该文件上载到另一个包含新数据的数据库(大约150个)
我还对新数据执行standardscaler
例如,当我运行模型并执行精度测试时,我得到了60%
我的问题是当我增加这个新数据库时,从150增加到151152153等等
当增加新数据时,我注意到模型失去了准确性,甚至以前的分类也不同,当我将其分类为1时,它是0,或者相反
我怀疑有了新的数据,缩放数据的维度就不同了
我希望在插入新数据时,以前的数据没有新的评级0和1,因此会降低我的初始准确性
有人能帮忙解决这个问题吗
当然,由于信息不足,我们只能猜测。问题是,我从它的预测改变的事实推断,你不是简单地用当前的定标器转换新数据,而是拟合然后转换数据。因此,长话短说,您需要将scaler导出为pickle,然后在处理新数据时加载它,并简单地转换(不合适!)这些[150151,…]实例
相关问题 更多 >
编程相关推荐