Sickit-learn|Sickit-learn 回归模型性能评估函数

  • sklearn.metrics.explained_variance_score()
    若为预测值,为实际值,则该回归方程的解释方差(explained variance):

    回归方程的解释方差越大则说明预测的结果越好。
  • sklearn.metrics.mean_absolute_error()
    若为预测值,为实际值,为样本数,则:

  • 【Sickit-learn|Sickit-learn 回归模型性能评估函数】sklearn.metrics.mean_squared_error()
    若为预测值,为实际值,为样本数,则回归模型的均方误差:

  • median_absolute_error()
    若为预测值,为实际值,为样本数,则回归模型的MedAE定义为:

  • sklearn.metrics.r2_score()
    若为预测值,为实际值,为样本数,则回归模型的定义为:

?表示的是有解释变量情况下的均方误差与没有解释变量情况下的均方误差的比值,也即不能被模型解释的均方误差占总的均方误差的比例。这样R2表示的就是能被模型解释的变异性的比例。假设一个模型的R^2=0.64,那么我们就可以说这个模型解释了64%的变异性,或者可以更精确地说,这个模型使你预测的均方误差降低了64%。在线性最小二乘模型中,我们可以证明确定系数和两个变量的皮尔逊相关系数存在一个非常简单的关系:
??
这些函数都有一个参数multioutput,用来指定在多目标回归问题中,若干单个目标变量的损失或得分以什么样的方式被平均起来它的默认值是uniform_average,表示将所有预测目标值的损失以等权重的方式平均起来,如果你传入了一个shape为(n_oupputs,)的数组,那么数组内的数将被视为是对每个输出预测损失(或得分)的加权值,所以最终的损失就是按照你锁指定的加权方式来计算的如果multioutputraw_values,那么所有的回归目标的预测损失或预测得分都会被单独返回一个shape是(n_output)的数组中.

    推荐阅读