我有一个i716gbmac,我想在XGBoost上应用CV网格搜索。数据集相当大,大小为130milx50cols。我的代码是:
cv_params = {'max_depth': [3], 'min_child_weight': [1]}
ind_params = {'learning_rate': 0.1, 'n_estimators': 1000, 'seed': 0, 'subsample': 0.8, 'colsample_bytree': 0.8,
'objective': 'binary:logistic'}
optimized_GBM = GridSearchCV(xgb.XGBClassifier(**ind_params),
cv_params,
scoring = 'accuracy', cv = 5, n_jobs = -1)
train_features = train.drop('reordered', axis=1)
train_y = train['reordered']
optimized_GBM.fit(train_features, train_y)
在计算上,有没有什么方法可以提高数据拟合的速度?我已经等了好几个小时了。看来,如果我尝试多个层次的简历参数,拟合可能需要几天的时间,我没有。除了减少尺寸或者在AWS实例上部署它之外,有没有任何快速的解决方案来提高速度?在
提前谢谢。在
目前没有回答
相关问题 更多 >
编程相关推荐