模型评价

没有测量,就没有科学。 —— 门捷列夫

模型评估是模型开发过程不可或缺的一部分。 它有助于发现表达数据的最佳模型(模型与模型的调参)和所选模型将来工作的性能(泛化能力)如何。

为什么要做模型评估

想找到最有效的模型。

这里的最有效包含两个层面:一是能尽可能好地表达当前数据,二是尽可能好地表达(预测)未来的数据,即泛化能力强。 两者都需满足。 一般情况下,泛化能力强的基础是模型首先能够尽可能地表达当前数据。 因此,可以说模型评估的目的是找到泛化能力强的模型。 如果泛化能力不够强,则重新对模型进行调整,优化甚至重建。 不断迭代,直到泛化能力达到指定标准。

怎么做模型评估

模型评估贯穿于机器学习的两个大的阶段。 不同阶段,评估的方法以及指标并不相同。 如果将机器学习分为两个阶段,原型设计阶段(Prototyping)与应用阶段(Deployed),则原型设计阶段(Prototyping)主要为离线评估,而应用阶段(Deployed)为在线评估(online evaluation)。

离线评估

Prototyping阶段使用历史数据训练一个适合解决目标任务的一个或多个机器学习模型,并对模型进行验证(Validation)与离线评估(Offline evaluation),然后通过评估指标选择一个较好的模型并预测该模型未来的工作性能。 其中,Validation用于模型选择与参数调优,Evaluation用于预测该模型未来的工作性能。

离线评估是包含有效性的两个层面的。

一方面,它使用训练集中的数据建模,并借助Validation不断调整直到找到最佳的模型,来表达当前数据。

另一方面,Evaluation通常会使用训练时没有遇到过的测试集来评估模型的未来工作性能是否达到指定标准,即最终判定当前模型是有效的。

过拟合

我们真正想要的是泛化误差小的学习器, 即在新样本上能够表现很好的学习器。 但很多情况下,训练集上表现良好的学习器,在面对新样本时,表现并不好。 因此,并不能简单认为对现有样本表达好的模型就可以很好的预测未来的新样本。 即低经验误差并不等于低泛化误差。 相反,两者之间大体是一个先正相关后负相关的关系。

为了达到泛化误差小的学习器,路径是尽可能的最小化经验误差,即从训练样本中尽可能学出适用于所有潜在样本的“普遍规律”, 这样在遇到新样本时就可以依据这个”普遍规律”作出正确的判断。 即泛化误差会随着经验误差的降低而减小,当我们学到的是真正的“普遍规律”的时候。 但当学习器过度追求最小化经验误差,即把训练样本学得“太好了”,就很可能把训练样本自身的一些特点当作所有潜在样本都会具有的一般性质,即学到的并不是真正的“普遍规律”。这样就会导致泛化性能下降。 这就是“过拟合”。 与之相对的是“欠拟合”,即连训练样本的一般性质尚未学好。

导致过拟合的原因是学习器学习能力过于强大,把训练样本不太一般的特性都学到了,而欠拟合通常是由于学习能力低下造成的。 欠拟合比较容易克服,例如在决策树中扩展分枝,神经网络增加训练轮数; 而过拟合则比较麻烦。 过拟合是机器学习面临的关键障碍,各类学习器都必然带有一些针对过拟合的措施。 同时,过拟合是无法彻底避免的。

在线评估

Deployed阶段是当模型达到设定的指标值时便将模型上线,投入生产,使用新生成的在线数据来对该模型进行在线评估(Online evaluation)。在线测试不同于离线测试,有着不同的测试方法(最常见的便是A/B testing,它是一种统计假设检验方法)以及评价指标(在线评估时会采用业务指标,如用户点击率等。而离线评估则更多采用评估模型本身拟合能力的指标,如常用的经验误差的方法)。

在线评估使用的验证指标对模型在不断新生的数据集上进行性能跟踪。 当性能开始下降时,说明该模型已经无法拟合当前的数据了,因此需要对模型进行重新训练。即返回到原型涉及阶段。

离线评估

既然我们最终的目标是得到一个泛化误差最小的模型。 最理想的方案就是对所有候选模型的泛化误差进行评估,然后选择泛化误差最小的那个模型。 然而在模型构建时我们无法获得泛化误差,而训练你误差又由于过拟合现象的存在而不适合作为标准。 那么,现实中如何进行模型离线评估呢?

通过实验测试对学习器的泛化误差进行预测。 即使用一个测试集(testing set) 来测试学习器对新样本的判别能力,然后以测试集上的“测试误差” 作为泛化误差的近似估计。
但我们只有一个数据集,既要训练,又要测试。 实现路径是: 从该数据集中产生出训练集和测试集。 具体方法包括划分法,如训练集-验证集二划分校验(Hold-out validation)、交叉校验(Cross-validation)。 这类方法训练集与测试集与原数据集结构相似, 大小不同。 另一种为重采样技术,如Bootstrapping与Jackknife。(此类方法并不一定保证与原数据结构相似。 但可以充分利用现有数据信息,一定程度减少过拟合)

测试集应该尽可能与训练集互斥,即测试样本尽量不在训练集中出现、 未在训练过程中使用。

留出法(Hold-out validation)

使用这种方法时,通常大的数据集会被随机分成2个子集,1个用于训练,1个用于测试。 或数据量更大时,将训练集拆分成3个子集,1个用于训练,1个用于模型选择和参数优化,1个用于测试。

训练集(Training set): 用于构建模型

验证集(Validation set): 用于评估训练阶段所得模型的性能。 它为模型参数优化和选择最优模型提供了测试平台

测试集(Test set): 用于评估模型未来可能的性能(泛化能力)

这种数据集划分相当于“分层采样(Stratified Sampling)”

单次使用留出法得到的估计结果往往不够稳定可靠(数据集划分的因素)。 在使用时,一般采用若干次随机划分重复实验评估后取平均值(取多次随机的平均消除划分因素影响)作为留出法的评估结果。 例如进行100次随机划分,每次产生一个训练/测试集用于实验评估,100次后就得到100个结果,而留出法返回的则是这100个结果的平均。

对于选取多少样本量用于训练,没有完美的解决方案,常见做法是2/3 - 4/5用于训练。(训练样本过多则训练接近于使用全量样本,过少则与全量样本相差过大,可能也无法学习出“普遍规律”)

交叉检验(Cross Validation)

当仅有有限数量的数据时, 可以使用k折交叉验证(k-fold cross validation)。 使用这种方法时,数据被随机分成k大小结构相似互斥的子集。 然后,每次用k-1个子集的并集用于训练,余下的那个作为测试集。 进行k次训练。 最终使用k个学习器性能平均预测未来可能的性能。 k最常见的取值是10。 其他常用的还有5,20(实际中,还需要考虑时间,存储开销等其他因素。 如果学习器本身比较复杂,k如果较大则意味着时间和存储的开销都会比较大)。

与留出法相似,将数据集划分为k个子集同样存在多种划分方式,为减小样本划分不同而引入的差别, k折交叉验证通常要重复p次不同的随机划分,最终的评估结果是这p次交叉验证结果的均值,常见的是10次10折交叉验证。(取多次随机的平均,去掉划分的影响)

在初始数据量足够时,留出法和交叉验证法更常用一些。

自助法

我们希望评估的是用D训练出的模型。 由于保留了一部分样本用于测试, 这必然会引入一些因训练样本规模不同而导致的伏击偏差。 留一法虽受训练样本规模的变化影响较小,但是计算复杂度太高。 自助法(Boostraping)就是一个比较好的解决方案。

自助法在数据集较小,难以有效划分训练/测试集时很有用; 此外,自助法能从初始数据集中产生多个不同的训练集,这对集成学习等方法有很大的好处。 然而,自助法产生的数据集改变了初始数据集的分布(而这恰好是集成学习需要的),这会引入估计偏差。

离线评估过程中的调优

在进行模型评估与选择时,除了要对适用学习算法进行选择,还需要对参数进行设定。 这就是通常所说的“参数调节(Parameter Tuning)”。 参数除了模型参数还有超参数(hyperparameters)。例如logistic回归中的特征系数为模型参数,需要使用多少个特征进行表征,特征的数目这个参数便是该模型的超参数。 调参和算法选择没什么本质区别: 对每种参数配置都训练出模型,热爱后把对应最好模型的参数作为结果。 需要注意的一点是学习算法的很多参数是在实数范围内取值。 现实中常用的做法是对每个参数选定一个范围和变化步长。 这样选定的参数往往不是“最佳”值,但这是在计算开销和性能估计之间进行折中的结果。 在很多强大的学算法中有大量参数需要设定,这将导致极大的调惨工程量。 以至于在不少应用任务中,参数调得好不好往往对最终模型性能有关键性影响。

可以用格搜索(grid search)、随机搜索(random search)以及启发式搜索(smart search)等进行Hyperparameter tuning, 从超参数空间中寻找最优的值。

格搜索便是将超参数的取值范围划分成一个个格子,对每一个格子所对应的值进行评估,选择评估结果最好的格子所对应的超参数值。例如,对于决策树叶子节点个数这一超参数,可以将值划分为这些格子:10, 20, 30, …, 100, …

随机搜索(random search)

它是格搜索的变种。相比于搜索整个格空间,随机搜索只对随机采样的那些格进行计算,然后在这中间选择一个最好的。因此随机搜索比格搜索的代价低。

需要注意的是,在模型评估与选择过程中由于需要留出一部分数据进行评估测试,事实上只使用了一部分数据训练模型。 在模型选择完成后,学习算法与参数配置已选定, 应该用全量数据集重新训练模型。 这个模型训练过程中使用了所有样本,才是最终提交的模型。

离线评估常用的评价(性能度量)指标

对学习器泛化性能进行评估,不仅要有有效可行的实验估计方法,还需要有衡量泛化能力的评价标准,这就是性能度量(performance measure)。 回归和分类任务分别对应不同的评价指标。

sklearn模型评价

回归任务

mse

rmse

mae

mape(Mean Absoloute Precentage Error)

分类任务

recall

precision

P-R曲线

P-R曲线绘制方法: 纵轴P,横轴R. 点: 根据预测结果,概率从高到低,按顺序逐个把样本作为positive进行预测,每次可计算出当前的R和P

什么时候用P-R

Particularly, if true negative is not much valuable to the problem, or negative examples are abundant. Then, PR-curve is typically more appropriate. For example, if the class is highly imbalanced and positive samples are very rare, then use PR-curve. One example may be fraud detection, where non-fraud sample may be 10000 and fraud sample may be below 100.
In other cases, ROC curve will be more helpful.

缺点:有交叉时不好比较,更好的方法是计算面积,但这个区域不好估算。 所以设计了一些综合考虑两者的性能度量指标。 如F1

F1

R(recall)和P(precision)的调和平均

ROC

ROC和PR类似,ROC曲线绘制方法

  • 纵轴FPR,横轴TPR
  • 根据分类器预测结果。 将概率值从高到低排序。 按顺序逐个把从第0个到截止到该样本的所有样本作为positive进行预测。计算出对应的TPR和FPR
  • 将所有的TPR与FPR连接得到ROC曲线。

AUC

另一种情形是,我们有多个二分类混淆矩阵,例如进行了多次训练,每次得到一个混淆矩阵;或者执行多分类任务,每两两类别组合都对应一个混淆矩阵;…… 这时,我们希望在n个二分类混淆矩阵上综合考虑R和P。 一种直接的做法是先计算每个混淆矩阵的R和P,再求平均值。 这样就得到“macro-”系的性能度量指标; 还可以先将个混淆矩阵对应元素进行平均,得到TP, FP, FN, TN的平均值,再计算P,R, 这种算法得到的是“micro-”系。

macro-P

macro-R

macro-F1

micro-P

micro-R

micro-F1

Rreference

All models are wrong. But some are useful.

0%