机器学习-模型的评估和选择

文章内容来自,周志华的机器学习。

1.选择训练/测试集常用校验方法:

常用留出法和交叉验证法。

2.调参方法:

对每个参数选定一个范围和步长, 例:在[0,0.2]范围内以0.05为步长。

3.性能度量

性能度量是衡量模型泛化能力的评价标准。

回归任务最常用的性能度量是均方误差(mean squared error)。

分类任务度量:

(按场景不同选择不同度量方法)

风控场景最关心的度量是: 恶意用户不被拦截,正常用户被拦截。(待讨论)

3.1错误率与精度:

错误率:分类错误的样本数占样本总数的比例。

精度:分类正确的样本数占总样本比例

3.2.查准率、查全率与F1:

机器学习-模型的评估和选择

平衡点(BEP):画出P-R图,查出查准率=查全率时的取值,比较那个模型的值大。

差全率和查准率 不常使用,更常用的的是F1度量。

机器学习-模型的评估和选择

【重要】在一些应用中,对查准率和查全率的重视程度不同,用F1的一般形式Fβ表达出查准率和查全率的不同偏好。

机器学习-模型的评估和选择

机器学习-模型的评估和选择

希望在n个二分类混淆矩阵上综合考察查准率和查全率。

机器学习-模型的评估和选择

机器学习-模型的评估和选择

3.3.ROC与AUC

ROC曲线的纵轴是真正例率(True positive Rate),横轴是 假正例率(False Positive Rate)

机器学习-模型的评估和选择

TPR (recall):正样本预测为正样本的概率。

FPR:全体负样本中预测为正样本的概率。

precision:预测的正样本中,是真正正样本的概率。

(precision/recall 组成的是PR曲线)

ROC曲线绘图方法:

机器学习-模型的评估和选择

模型比较:

机器学习-模型的评估和选择

AUC: 就是ROC曲线下的面积。

谁的auc的面积大谁的性能就好。

3.4.代价敏感错误率与代价曲线:

风控系统:把异常用户分成正常用户, 把正常用户分成异常用户(优先考虑)。

根据不同场景,衡量不同类型错误所造成的不同损失,可为错误赋予“非均等代价”。

机器学习-模型的评估和选择

在非均等代价下,roc曲线不能直接反应出学习器的期望总体代价,而代价曲线可达到该目的。

代价曲线(cost curve)的绘制:

机器学习-模型的评估和选择

4.比较检验

对学习器性能进行比较。


分享到:


相關文章: