Scikit Learn 的模型选择页面提到了嵌套交叉验证的使用:
>>> clf = GridSearchCV(estimator=svc, param_grid=dict(gamma=gammas), ... n_jobs=-1) >>> cross_validation.cross_val_score(clf, X_digits, y_digits)
两个交叉验证循环并行执行:一个由 GridSearchCV 估计器设置 gamma,另一个由 cross_val_score 测量估计器的预测性能。结果分数是对新数据的预测分数的无偏估计。
据我了解,clf.fit
将本机使用交叉验证来确定最佳伽玛。在那种情况下,为什么我们需要使用上面给出的嵌套 cv?注释提到嵌套 cv 产生预测分数的“无偏估计”。不也是这样clf.fit
吗?
此外,我无法从该cross_validation.cross_val_score(clf, X_digits, y_digits)
过程中获得 clf 最佳估计值。你能告诉我怎么做吗?