关于加快Python中XGBoost拟合的建议

2024-09-30 04:26:37 发布

您现在位置:Python中文网/ 问答频道 /正文

我有一个i716gbmac,我想在XGBoost上应用CV网格搜索。数据集相当大,大小为130milx50cols。我的代码是:

cv_params = {'max_depth': [3], 'min_child_weight': [1]}
ind_params = {'learning_rate': 0.1, 'n_estimators': 1000, 'seed': 0, 'subsample': 0.8, 'colsample_bytree': 0.8,
             'objective': 'binary:logistic'}
optimized_GBM = GridSearchCV(xgb.XGBClassifier(**ind_params),
                            cv_params,
                            scoring = 'accuracy', cv = 5, n_jobs = -1)

train_features = train.drop('reordered', axis=1)
train_y = train['reordered']

optimized_GBM.fit(train_features, train_y) 

在计算上,有没有什么方法可以提高数据拟合的速度?我已经等了好几个小时了。看来,如果我尝试多个层次的简历参数,拟合可能需要几天的时间,我没有。除了减少尺寸或者在AWS实例上部署它之外,有没有任何快速的解决方案来提高速度?在

提前谢谢。在


Tags: 数据代码网格trainparams速度cvfeatures

热门问题