我不太相信sklearn提供的参数优化类,事实上GridSearchCV
(http://scikit-learn.org/stable/modules/generated/sklearn.model_selection.GridSearchCV.html#sklearn.model_selection.GridSearchCV)只是在我通过param_grid
传入的参数上循环。RandomizedSearch
(http://scikit-learn.org/stable/modules/generated/sklearn.model_selection.RandomizedSearchCV.html)对我来说似乎是一种we-gave-up
的方法。你知道吗
我的方法之一是重复使用函数的自适应积分(用于数值数学):基本上减少每次迭代中参数的搜索空间,直到达到某个错误阈值。这种方法的最大优点是每次迭代都能减小误差。你知道吗
问题是,如果将不同的分数值(precision
、roc-auc
等)视为函数,则某些参数值可能不会被触及。我在一个病例中仍然取得了很好的结果,在其他病例中则不太好。你知道吗
有什么好的数学方法能比GridSearch和RandomizedSearch更有效地优化值?你知道吗
目前没有回答
相关问题 更多 >
编程相关推荐