1.       Overfitting



* 定义:在训练集上表现良好,在测试集上表现糟糕
*  产生原因:
        1.训练集和测试集特征分布不一致

        2.数据噪声太大

        3.数据量太小

        4.特征量太多

        5.模型太过复杂



* 解决方法:
        1.减少特征数量

        2.正则化

        3.增大样本训练规模

        4.简化模型

        5.交叉验证

        6.dropout

2.       Underfitting



*   定义:在训练集和测试集上都表现糟糕。
*   产生原因:
        1.模型复杂度过低

        2.特征量过少



*   处理方法:
    1.增加新特征

    2.增加模型复杂度

3.        朴素贝叶斯



*   优点:又快又简单性能又好,在数据较少的情况下仍然有效,对数据缺失不敏感,可以处理多类别问题
*   缺点:需要知道先验概率,对输入数据的准备方式较为敏感,不能学习不同特征间的相互作用,表现简单不能做丰富的假设。
4.       决策树



*   优点:计算复杂度不高,容易解释和说明,输出结果易于理解,对中间值的缺失不敏感,数据的准备简单或者不必要,可以处理不相关特征数据。
*   缺点:可能会产生过拟合,忽略数据集中属性之间的相关性。


友情链接
KaDraw流程图
API参考文档
OK工具箱
云服务器优惠
阿里云优惠券
腾讯云优惠券
华为云优惠券
站点信息
问题反馈
邮箱:ixiaoyang8@qq.com
QQ群:637538335
关注微信