The function cross_val_predict has a similar interface to
cross_val_score, but returns, for each element in the input, the
prediction that was obtained for that element when it was in the test
set. Only cross-validation strategies that assign all elements to a
test set exactly once can be used (otherwise, an exception is raised).
Note that the result of this computation may be slightly different
from those obtained using cross_val_score as the elements are grouped
in different ways.
如文件sklearn.model_selection.cross_val_predict中所述:
不,不是!
根据cross validation doc页面,
cross_val_predict
不返回任何分数,只返回基于特定策略的标签,如下所述:因此,通过调用
accuracy_score(labels, ypred)
您只需计算由上述特定策略预测的标签相对于真实标签的准确度分数。这在同一文档页中再次指定:如果你需要不同褶皱的准确度分数,你应该尝试:
对于所有褶皱的平均精度,使用
scores.mean()
:如何计算每个折叠的Cohen-kappa系数和混淆矩阵?
为了计算
Cohen Kappa coefficient
和混淆矩阵,我假设您是指真标签和每个折叠的预测标签之间的kappa系数和混淆矩阵:cross_val_predict
返回什么?它使用KFold将数据分割成
k
部分,然后进行i=1..k
迭代:i'th
部分作为测试数据,其他部分作为训练数据i'th
之外的所有部分)i'th
部分(测试数据)的标签在每次迭代中,都会预测数据的
i'th
部分的标签。最后,cross-val_predict合并所有部分预测的标签,并将其作为最终结果返回。此代码将逐步显示此过程:
结果是:
从github上的
cross_val_predict
代码中可以看到,该函数计算每个折叠预测并将它们连接起来。这些预测是基于从其他褶皱得到的模型进行的。下面是您的代码和代码中提供的示例的组合
最后,回答您的问题:“不,每一次折叠的准确度不取平均值”
相关问题 更多 >
编程相关推荐