一、偏差、方差

偏差与方差分别是用于衡量一个模型泛化误差的两个方面;

模型的偏差,指的是模型预测的期望值与真实值之间的差;

模型的方差,指的是模型预测的期望值与预测值之间的差平方和;

在监督学习中,模型的泛化误差可分解为偏差、方差与噪声之和。


<https://github.com/HLinShan/Algorithm_Interview_Notes-Chinese/blob/master/_assets/TIM%E6%88%AA%E5%9B%BE20180817204652.png>

偏差用于描述模型的拟合能力;
方差用于描述模型的稳定性。


<https://github.com/HLinShan/Algorithm_Interview_Notes-Chinese/blob/master/_assets/TIM%E6%88%AA%E5%9B%BE20180817192259.png>

导致偏差和方差的原因

偏差通常是由于我们对学习算法做了错误的假设,或者模型的复杂度不够;

比如真实模型是一个二次函数,而我们假设模型为一次函数,这就会导致偏差的增大(欠拟合);

由偏差引起的误差通常在训练误差上就能体现,或者说训练误差主要是由偏差造成的

方差通常是由于模型的复杂度相对于训练集过高导致的;

比如真实模型是一个简单的二次函数,而我们假设模型是一个高次函数,这就会导致方差的增大(过拟合);

由方差引起的误差通常体现在测试误差相对训练误差的增量上。

深度学习中的偏差与方差

神经网络的拟合能力非常强,因此它的训练误差(偏差)通常较小;

但是过强的拟合能力会导致较大的方差,使模型的测试误差(泛化误差)增大;

因此深度学习的核心工作之一就是研究如何降低模型的泛化误差,这类方法统称为正则化方法。

../深度学习/正则化
<https://github.com/HLinShan/Algorithm_Interview_Notes-Chinese/blob/master/A-%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0/C-%E4%B8%93%E9%A2%98-%E6%AD%A3%E5%88%99%E5%8C%96>

偏差/方差 与 Boosting/Bagging

./集成学习专题/Boosting/Bagging 与 偏差/方差 的关系
<https://github.com/HLinShan/Algorithm_Interview_Notes-Chinese/blob/master/A-%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0/C-%E4%B8%93%E9%A2%98-%E9%9B%86%E6%88%90%E5%AD%A6%E4%B9%A0#boostingbagging-%E4%B8%8E-%E5%81%8F%E5%B7%AE%E6%96%B9%E5%B7%AE-%E7%9A%84%E5%85%B3%E7%B3%BB>

偏差与方差的计算公式

记在训练集 D 上学得的模型为

<http://www.codecogs.com/eqnedit.php?latex=f(%5Cboldsymbol%7Bx%7D;D)>

模型的期望预测为


<http://www.codecogs.com/eqnedit.php?latex=%5Clarge&space;%5Chat%7Bf%7D(%5Cboldsymbol%7Bx%7D)=%5Cmathbb%7BE%7D_D%5Bf(%5Cboldsymbol%7Bx%7D;D)%5D>

偏差(Bias)


<http://www.codecogs.com/eqnedit.php?latex=%5Clarge&space;bias%5E2(%5Cboldsymbol%7Bx%7D)=(%5Chat%7Bf%7D(%5Cboldsymbol%7Bx%7D)-y)%5E2>

偏差度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力;

方差(Variance)


<http://www.codecogs.com/eqnedit.php?latex=%5Clarge&space;var(%5Cboldsymbol%7Bx%7D)=%5Cmathbb%7BE%7D_D%5Cleft&space;%5B&space;%5Cleft&space;(&space;f(%5Cboldsymbol%7Bx%7D;D)-%5Chat%7Bf%7D(%5Cboldsymbol%7Bx%7D)&space;%5Cright&space;)%5E2&space;%5Cright&space;%5D>

方差度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响(模型的稳定性);

噪声则表达了在当前任务上任何学习算法所能达到的期望泛化误差的下界,即刻画了学习问题本身的难度。

“偏差-方差分解”表明模型的泛化能力是由算法的能力、数据的充分性、任务本身的难度共同决定的。

偏差与方差的权衡(过拟合与模型复杂度的权衡)

给定学习任务,

当训练不足时,模型的拟合能力不够(数据的扰动不足以使模型产生显著的变化),此时偏差主导模型的泛化误差;

随着训练的进行,模型的拟合能力增强(模型能够学习数据发生的扰动),此时方差逐渐主导模型的泛化误差;

当训练充足后,模型的拟合能力过强(数据的轻微扰动都会导致模型产生显著的变化),此时即发生过拟合(训练数据自身的、非全局的特征也被模型学习了)

偏差和方差的关系和模型容量(模型复杂度)、欠拟合和过拟合的概念紧密相联


<https://github.com/HLinShan/Algorithm_Interview_Notes-Chinese/blob/master/_assets/TIM%E6%88%AA%E5%9B%BE20180817214034.png>

《深度学习》 5.4.4 权衡偏差和方差以最小化均方误差

当模型的容量增大(x 轴)时, 偏差(用点表示)随之减小,而方差(虚线)随之增大

沿着 x 轴存在最佳容量,小于最佳容量会呈现欠拟合,大于最佳容量会导致过拟合。

Reference

Understanding the Bias-Variance Tradeoff
<http://scott.fortmann-roe.com/docs/BiasVariance.html>

机器学习中的Bias(偏差),Error(误差),和Variance(方差)有什么区别和联系?
<https://www.zhihu.com/question/27068705> - 知乎

二、生成模型与判别模型

《统计学习方法》 1.7 生成模型与判别模型

监督学习的任务是学习一个模型,对给定的输入预测相应的输出

这个模型的一般形式为一个决策函数或一个条件概率分布(后验概率):


<http://www.codecogs.com/eqnedit.php?latex=%5Cfn_phv&space;%5Clarge&space;Y=f(X)%5Cquad&space;%5Ctext%7Bor%7D%5Cquad&space;P(Y%7CX)>

决策函数:输入 X 返回 Y;其中 Y 与一个阈值比较,然后根据比较结果判定 X 的类别

条件概率分布:输入 X 返回 X 属于每个类别的概率;将其中概率最大的作为 X 所属的类别

监督学习模型可分为生成模型与判别模型

判别模型直接学习决策函数或者条件概率分布

直观来说,判别模型学习的是类别之间的最优分隔面,反映的是不同类数据之间的差异

生成模型学习的是联合概率分布P(X,Y),然后根据条件概率公式计算 P(Y|X)


<http://www.codecogs.com/eqnedit.php?latex=%5Cfn_phv&space;%5Clarge&space;P(Y%7CX)=%5Cfrac%7BP(X,Y)%7D%7BP(X)%7D>

两者之间的联系

由生成模型可以得到判别模型,但由判别模型得不到生成模型。

当存在“隐变量”时,只能使用生成模型

隐变量:当我们找不到引起某一现象的原因时,就把这个在起作用,但无法确定的因素,叫“隐变量”

优缺点

判别模型

优点

* 直接面对预测,往往学习的准确率更高
* 由于直接学习 P(Y|X) 或 f(X),可以对数据进行各种程度的抽象,定义特征并使用特征,以简化学习过程
缺点

* 不能反映训练数据本身的特性
...

生成模型

优点

* 可以还原出联合概率分布 P(X,Y),判别方法不能
* 学习收敛速度更快——即当样本容量增加时,学到的模型可以更快地收敛到真实模型
* 当存在“隐变量”时,只能使用生成模型
缺点

* 学习和计算过程比较复杂
常见模型

* 判别模型
* K 近邻、感知机(神经网络)、决策树、逻辑斯蒂回归、最大熵模型、SVM、提升方法、条件随机场
* 生成模型
* 朴素贝叶斯、隐马尔可夫模型、混合高斯模型、贝叶斯网络、马尔可夫随机场
Reference

机器学习---生成模型与判别模型 <https://blog.csdn.net/u012101561/article/details/52814571> -
CSDN博客

 

三、先验概率与后验概率

先验概率,后验概率,似然概率,条件概率,贝叶斯,最大似然
<https://blog.csdn.net/suranxu007/article/details/50326873> - CSDN博客

* 条件概率(似然概率)
一个事件发生后另一个事件发生的概率。

一般的形式为 P(X|Y),表示 y 发生的条件下 x 发生的概率。

有时为了区分一般意义上的条件概率,也称似然概率

* 先验概率
事件发生前的预判概率

可以是基于历史数据的统计,可以由背景常识得出,也可以是人的主观观点给出。

一般都是单独事件发生的概率,如 P(A)、P(B)。

* 后验概率
基于先验概率求得的反向条件概率,形式上与条件概率相同(若 P(X|Y) 为正向,则 P(Y|X) 为反向)

贝叶斯公式


<http://www.codecogs.com/eqnedit.php?latex=%5Cfn_phv&space;%5Clarge&space;P(Y%7CX)=%5Cfrac%7BP(X%7CY)*P(Y)%7D%7BP(X)%7D>

友情链接
KaDraw流程图
API参考文档
OK工具箱
云服务器优惠
阿里云优惠券
腾讯云优惠券
华为云优惠券
站点信息
问题反馈
邮箱:[email protected]
QQ群:637538335
关注微信