SVM分类器模型中的StandardScaler问题

2024-09-26 18:20:04 发布

您现在位置:Python中文网/ 问答频道 /正文

我使用支持向量机作为金融市场数据的分类器

我有一个有1500条数据记录的数据库

然后进行预处理、分割、训练和测试

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.3, random_state = 42, stratify = y)

scaler = StandardScaler()

X_train = scaler.fit_transform(X_train)

X_test = scaler.transform(X_test)

但为了保持良好的控制,我将培训文件与pickle一起保存

然后,我将该文件上载到另一个包含新数据的数据库(大约150个)

我还对新数据执行standardscaler

例如,当我运行模型并执行精度测试时,我得到了60%

我的问题是当我增加这个新数据库时,从150增加到151152153等等

当增加新数据时,我注意到模型失去了准确性,甚至以前的分类也不同,当我将其分类为1时,它是0,或者相反

我怀疑有了新的数据,缩放数据的维度就不同了

我希望在插入新数据时,以前的数据没有新的评级0和1,因此会降低我的初始准确性

有人能帮忙解决这个问题吗


Tags: 文件数据模型test数据库分类器记录分类
1条回答
网友
1楼 · 发布于 2024-09-26 18:20:04

当然,由于信息不足,我们只能猜测。问题是,我从它的预测改变的事实推断,你不是简单地用当前的定标器转换新数据,而是拟合然后转换数据。因此,长话短说,您需要将scaler导出为pickle,然后在处理新数据时加载它,并简单地转换(不合适!)这些[150151,…]实例

相关问题 更多 >

    热门问题