什么是不平衡的数据集

本文中所涉及的数据分类之间不均匀,有的几千条,有的几十条,这种数据集被认为是不平衡的数据集。
这些类型的数据集通常存在于预测维护系统,销售倾向,欺诈识别,智能诊断等应用领域中。

例如,在电子病历中的呼吸科疾病诊断中,以2200条测试数据来看具体分布,数据分布很不均匀,最多的是1214例,最少的37例。各个疾病的分布如下。
J20 急性支气管炎 97 J15 肺炎 1214 J45 哮喘 149 J44 闭塞性细支气管炎 88 A16 原发性肺结核 379 A17 结核性脑膜炎
78 T17 支气管异物 158 J06 上感 37
我们的模型大概设置了164个特征的不平衡数据集,所有可以认定为是一个高维不平衡的机器学习问题。
在原来的使用sklearn的逻辑回归算法时候,模型在样本数比较少的的分类中召回率很低,并且会错分类为样本数最多的分类,也就是说模型发生了过拟合。

逻辑回归算法的模型性能

一般ML算法在不平衡数据集上的性能:
为了对catboost模型进行比较,我们使用了2种模型,一个是sklearn的逻辑回归,还有就是xgboost,使用这2种算法分别对数据进行了训练。

逻辑回归:
0.843858969 [[ 167 35 20 2 2 1 22 0] [ 47 1022 19 13 32 9 18 1] [ 13 7 185 11
4 0 5 1] [ 0 5 9 211 3 0 0 0] [ 5 46 1 3 345 17 4 0] [ 2 4 0 0 5 83 0 0] [ 8 14
6 4 2 0 136 0] [ 0 0 0 1 0 0 2 29]] precision recall f1-score support J20 急性支气管炎
0.69 0.67 0.68 249 J15 肺炎 0.90 0.88 0.89 1161 J45 哮喘 0.77 0.82 0.79 226 J44
闭塞性细支气管炎0.86 0.93 0.89 228 A16 原发性肺结核 0.88 0.82 0.85 421 A17 结核性脑膜炎 0.75 0.88
0.81 94 T17 支气管异物 0.73 0.80 0.76 170 J06 上感 0.94 0.91 0.92 32 avg / total 0.85
0.84 0.84 2581
正如我们可以清楚地看到,模型预测急性支气管炎的能力很差(这种疾病样本数比较少)(Precision = 0.67 Recall =
0.67),整体模型精确度大约为85%。

xgboost:
0.865909090909 [[ 22 37 8 2 3 0 10 0] [ 12 960 8 2 12 0 4 0] [ 5 18 68 6 2 0 2
0] [ 0 7 9 39 3 0 2 0] [ 1 43 2 0 256 3 4 0] [ 0 2 0 0 7 54 0 0] [ 1 13 3 0 2 0
97 0] [ 1 1 0 0 1 0 0 28]] precision recall f1-score support J20 急性支气管炎 0.52
0.27 0.35 82 J15 肺炎 0.89 0.96 0.92 998 J45 哮喘 0.69 0.67 0.68 101 J44 闭塞性细支气管炎
0.80 0.65 0.72 60 A16 原发性肺结核 0.90 0.83 0.86 309 A17 结核性脑膜炎 0.95 0.86 0.90 63
T17 支气管异物0.82 0.84 0.83 116 J06 上感 1.00 0.90 0.95 31 avg / total 0.86 0.87 0.86
1760
xgboost模型没有经过调参,性能比逻辑回归有了一定提升,但是对于少样本数据的预测结果变得更差了。急性支气管炎的结果为:(Precision = 0.52
Recall = 0.27),整体模型精确度大约为86%。

可以通过下面一些技巧来提升小样本的分类效果

以下是我们处理这个问题的方式,并且训练了一个预测精度92%的小样本的模型:

减少特征的数量:


更多特征的变量导致过度拟合数据,通过删除一些没有相关性的变量(需要专业知识)以及缺失值超过平均水平(本例考虑为15%)的变量。我们还计算了变量的重要性得分并据此删掉一些低重要性得分的特征变量。

对小样本分类的数据进行oversample

对于一般的不平衡问题我们采用oversample/undersample
的方法可能就能取得比较好的结果。但缺点就是如果overdample的比例过大会导致过拟合,undersample的比例过小可能会导致欠拟合。这个得经过实验去比较分析了。

提高小样本分类的召回率:


正如我们最初所看到的,由于在小样本的分类上会错误分类到大样本的分类上,所以我们试图找到一种可以解决小样本过拟合问题的模型。我们选择了一个非常强大的机器学习算法,叫做“catboost”,它对过拟合是鲁棒的。

使用catboost


由于在Kaggle的很多比赛中都是用了增强型机器学习算法,因此我们选择了Catboost算法,而且由于它对于小样本的过拟合问题解决的比较好,所以我们尝试使用这种算法。

Catboost可以通过过拟合检测器来防止过度拟合模型,从而使得模型的泛化能力更好。 它基于一种与标准梯度下降方式的优化方法不同的方法,叫做Gradient
Boosting。

我们在没有调参的情况下,使用catboost训练后结果如下:
0.833636364 [[ 21 58 8 0 4 0 6 0] [ 6 1159 14 2 24 2 7 0] [ 2 21 108 9 5 0 4
0] [ 0 10 1 58 14 0 5 0] [ 0 65 3 4 301 4 2 0] [ 0 7 0 0 16 55 0 0] [ 2 43 7 3
1 0 102 0] [ 0 2 0 0 4 0 1 30]] precision recall f1-score support J20 急性支气管炎
0.68 0.22 0.33 97 J15 肺炎 0.85 0.95 0.90 1214 J45 哮喘 0.77 0.72 0.74 149 J44
闭塞性细支气管炎0.76 0.66 0.71 88 A16 原发性肺结核 0.82 0.79 0.80 379 A17 结核性脑膜炎 0.90 0.71
0.79 78 T17 支气管异物 0.80 0.65 0.72 158 J06 上感 1.00 0.81 0.90 37 avg / total 0.83
0.83 0.82 2200
最终的结果

经过对超参数的调参,主要是学习率和迭代次数的调整,还有就是对小样本的数据进行oversample,最终得到一个相对理想的结果。
('error:', 0.7361311844473497) 0.890072639 [[190 6 6 0 1 0 3 0] [ 9 867 7 1 27
2 5 0] [ 3 11 162 7 1 0 4 0] [ 0 0 3 175 0 0 0 0] [ 2 52 1 2 264 9 1 0] [ 0 8 0
0 7 59 0 0] [ 3 26 5 7 4 0 98 0] [ 0 0 1 1 2 0 0 23]] precision recall f1-score
support J20 急性支气管炎0.92 0.92 0.92 206 J15 肺炎 0.89 0.94 0.92 918 J45 哮喘 0.88 0.86
0.87 188 J44 闭塞性细支气管炎 0.91 0.98 0.94 178 A16 原发性肺结核 0.86 0.80 0.83 331 A17
结核性脑膜炎0.84 0.80 0.82 74 T17 支气管异物 0.88 0.69 0.77 143 J06 上感 1.00 0.85 0.92 27
avg / total0.89 0.89 0.89 2065

友情链接
KaDraw流程图
API参考文档
OK工具箱
云服务器优惠
阿里云优惠券
腾讯云优惠券
华为云优惠券
站点信息
问题反馈
邮箱:ixiaoyang8@qq.com
QQ群:637538335
关注微信