相关文章:
* 数据挖掘领域十大经典算法之—C4.5算法(超详细附代码)
<http://blog.csdn.net/fuqiuai/article/details/79456971>
* 数据挖掘领域十大经典算法之—K-Means算法(超详细附代码)
<http://blog.csdn.net/fuqiuai/article/details/79458331>
* 数据挖掘领域十大经典算法之—SVM算法(超详细附代码)
<http://blog.csdn.net/fuqiuai/article/details/79483057>
* 数据挖掘领域十大经典算法之—Apriori算法
<http://blog.csdn.net/fuqiuai/article/details/79484998>
* 数据挖掘领域十大经典算法之—EM算法 <http://blog.csdn.net/fuqiuai/article/details/79484421>
* 数据挖掘领域十大经典算法之—PageRank算法
<http://blog.csdn.net/fuqiuai/article/details/79484929>
* 数据挖掘领域十大经典算法之—AdaBoost算法(超详细附代码)
<http://blog.csdn.net/fuqiuai/article/details/79482487>
* 数据挖掘领域十大经典算法之—K-邻近算法/kNN(超详细附代码)
<http://blog.csdn.net/fuqiuai/article/details/79458648>
* 数据挖掘领域十大经典算法之—CART算法(超详细附代码)
<http://blog.csdn.net/fuqiuai/article/details/79469412>
简介
NaïveBayes算法,又叫朴素贝叶斯算法,朴素:特征条件独立;贝叶斯:基于贝叶斯定理
。属于监督学习的生成模型,实现简单,没有迭代,并有坚实的数学理论(即贝叶斯定理)作为支撑。在大量样本下会有较好的表现,不适用于输入向量的特征条件有关联的场景。
基本思想
(1)病人分类的例子
某个医院早上收了六个门诊病人,如下表:
症状 职业 疾病
——————————————————
打喷嚏 护士 感冒
打喷嚏 农夫 过敏
头痛 建筑工人 脑震荡
头痛 建筑工人 感冒
打喷嚏 教师 感冒
头痛 教师 脑震荡
现在又来了第七个病人,是一个打喷嚏的建筑工人。请问他患上感冒的概率有多大?
根据贝叶斯定理:
P(A|B) = P(B|A) P(A) / P(B)
可得
P(感冒|打喷嚏x建筑工人) = P(打喷嚏x建筑工人|感冒) x P(感冒) / P(打喷嚏x建筑工人)
假定”打喷嚏”和”建筑工人”这两个特征是独立的,因此,上面的等式就变成了
P(感冒|打喷嚏x建筑工人) = P(打喷嚏|感冒) x P(建筑工人|感冒) x P(感冒) / P(打喷嚏) x P(建筑工人)
这是可以计算的。
P(感冒|打喷嚏x建筑工人) = 0.66 x 0.33 x 0.5 / 0.5 x 0.33 = 0.66
因此,这个打喷嚏的建筑工人,有66%的概率是得了感冒。同理,可以计算这个病人患上过敏或脑震荡的概率。比较这几个概率,就可以知道他最可能得什么病。
这就是贝叶斯分类器的基本方法:在统计资料的基础上,依据某些特征,计算各个类别的概率,从而实现分类。
(2)朴素贝叶斯分类器的公式
假设某个体有n项特征(Feature),分别为F1、F2、…、Fn。现有m个类别(Category),分别为C1、C2、…、Cm。贝叶斯分类器就是计算出概率最大的那个分类,也就是求下面这个算式的最大值:
P(C|F1F2...Fn) = P(F1F2...Fn|C)P(C) / P(F1F2...Fn)
由于 P(F1F2…Fn) 对于所有的类别都是相同的,可以省略,问题就变成了求
P(F1F2...Fn|C)P(C)
的最大值。
朴素贝叶斯分类器则是更进一步,假设所有特征都彼此独立,因此
P(F1F2...Fn|C)P(C) = P(F1|C)P(F2|C) ... P(Fn|C)P(C)
上式等号右边的每一项,都可以从统计资料中得到,由此就可以计算出每个类别对应的概率,从而找出最大概率的那个类。
虽然”所有特征彼此独立”这个假设,在现实中不太可能成立,但是它可以大大简化计算,而且有研究表明对分类结果的准确性影响不大。
(3)拉普拉斯平滑(Laplace smoothing)
也就是参数为1时的贝叶斯估计
,当某个分量在总样本某个分类中(观察样本库/训练集)从没出现过,会导致整个实例的计算结果为0。为了解决这个问题,使用拉普拉斯平滑/加1平滑进行处理。
它的思想非常简单,就是对先验概率的分子(划分的计数)加1,分母加上类别数;对条件概率分子加1,分母加上对应特征的可能取值数量。这样在解决零概率问题的同时,也保证了概率和依然为1。
eg:假设在文本分类中,有3个类,C1、C2、C3,在指定的训练样本中,某个词语F1,在各个类中观测计数分别为=0,990,10,即概率为P(F1/C1)=0,P(F1/C2)=0.99,P(F1/C3)=0.01,对这三个量使用拉普拉斯平滑的计算方法如下:
1/1003 = 0.001,991/1003=0.988,11/1003=0.011
实际应用场景
* 文本分类
* 垃圾邮件过滤
* 病人分类
* 拼写检查
朴素贝叶斯模型
朴素贝叶斯常用的三个模型有:
* 高斯模型:处理特征是连续型变量的情况
* 多项式模型:最常见,要求特征是离散数据
* 伯努利模型:要求特征是离散的,且为布尔类型,即true和false,或者1和0
代码实现
基于多项式模型的朴素贝叶斯算法(在github
<https://github.com/fuqiuai/lihang_algorithms/blob/master/naive_bayes/naive_bayes.py>
获取)
# encoding=utf-8 import pandas as pd import numpy as np import cv2 import time
from sklearn.cross_validation import train_test_split from sklearn.metrics
import accuracy_score # 二值化处理 def binaryzation(img): cv_img =
img.astype(np.uint8)# 类型转化成Numpy中的uint8型 cv2.threshold(cv_img, 50, 1,
cv2.THRESH_BINARY_INV, cv_img)# 大于50的值赋值为0,不然赋值为1 return cv_img #
训练,计算出先验概率和条件概率 def Train(trainset, train_labels): prior_probability =
np.zeros(class_num)# 先验概率 conditional_probability = np.zeros((class_num,
feature_len,2)) # 条件概率 # 计算 for i in range(len(train_labels)): img =
binaryzation(trainset[i])# 图片二值化,让每一个特征都只有0,1两种取值 label = train_labels[i]
prior_probability[label] +=1 for j in range(feature_len):
conditional_probability[label][j][img[j]] +=1 # 将条件概率归到[1,10001] for i in
range(class_num):for j in range(feature_len): # 经过二值化后图像只有0,1两种取值 pix_0 =
conditional_probability[i][j][0] pix_1 = conditional_probability[i][j][1] #
计算0,1像素点对应的条件概率 probalility_0 = (float(pix_0)/float(pix_0+pix_1))*10000 + 1
probalility_1 = (float(pix_1)/float(pix_0+pix_1))*10000 + 1
conditional_probability[i][j][0] = probalility_0 conditional_probability[i][j][1
] = probalility_1return prior_probability, conditional_probability # 计算概率 def
calculate_probability(img, label): probability = int(prior_probability[label])
for j in range(feature_len): probability *=
int(conditional_probability[label][j][img[j]])return probability # 预测 def
Predict(testset, prior_probability, conditional_probability): predict = [] #
对每个输入的x,将后验概率最大的类作为x的类输出 for img in testset: img = binaryzation(img) # 图像二值化
max_label =0 max_probability = calculate_probability(img, 0) for j in range(1,
class_num): probability = calculate_probability(img, j)if max_probability <
probability: max_label = j max_probability = probability
predict.append(max_label)return np.array(predict) class_num = 10 #
MINST数据集有10种labels,分别是“0,1,2,3,4,5,6,7,8,9” feature_len = 784 #
MINST数据集每个image有28*28=784个特征(pixels) if __name__ == '__main__': print("Start
read data") time_1 = time.time() raw_data = pd.read_csv('../data/train.csv',
header=0) # 读取csv数据 data = raw_data.values features = data[::, 1::] labels =
data[::,0] # 避免过拟合,采用交叉验证,随机选取33%数据作为测试集,剩余为训练集 train_features, test_features,
train_labels, test_labels = train_test_split(features, labels, test_size=0.33,
random_state=0) time_2 = time.time() print('read data cost %f seconds' %
(time_2 - time_1)) print('Start training') prior_probability,
conditional_probability = Train(train_features, train_labels) time_3 =
time.time() print('training cost %f seconds' % (time_3 - time_2)) print('Start
predicting') test_predict = Predict(test_features, prior_probability,
conditional_probability) time_4 = time.time() print('predicting cost %f seconds'
% (time_4 - time_3)) score = accuracy_score(test_labels, test_predict) print(
"The accruacy score is %f" % score)
测试数据集为MNIST数据集,获取地址train.csv
<https://github.com/fuqiuai/lihang_algorithms/blob/master/data/train.csv>
运行结果