ensamble中涉及到的模型融合有:

    1.Voting 2.Averaging 3 Ranking 4 Binning 5 Bagging 6 Boosting 7 Stacking 8
Blending

* stacking详解:参考:https://blog.csdn.net/wstcjf/article/details/77989963
stacking的过程有一张图非常经典,如下:



上半部分是用一个基础模型进行5折交叉验证,如:用XGBoost作为基础模型Model1,5折交叉验证就是先拿出四折作为training
data,另外一折作为testing data。注意:在stacking中此部分数据会用到整个traing set。如:假设我们整个training
set包含10000行数据,testing set包含2500行数据,那么每一次交叉验证其实就是对training set进行划分,在每一次的交叉验证中
training data将会是8000行,testing data是2000行。

每一次的交叉验证包含两个过程,1. 基于training data训练模型;2. 基于training data训练生成的模型对testing
data进行预测。在整个第一次的交叉验证完成之后我们将会得到关于当前testing data的预测值,这将会是一个一维2000行的数据,记为a1。注意!
在这部分操作完成后,我们还要对数据集原来的整个testing set进行预测,这个过程会生成2500个预测值,这部分预测值将会作为下一层模型testing
data的一部分,记为b1。因为我们进行的是5折交叉验证,所以以上提及的过程将会进行五次,最终会生成针对testing
set数据预测的5列2000行的数据a1,a2,a3,a4,a5,对testing set的预测会是5列2500行数据b1,b2,b3,b4,b5。

在完成对Model1的整个步骤之后,我们可以发现a1,a2,a3,a4,a5其实就是对原来整个training
set的预测值,将他们拼凑起来,会形成一个10000行一列的矩阵,记为A1。而对于b1,b2,b3,b4,b5这部分数据,我们将各部分相加取平均值,得到一个2500行一列的矩阵,记为B1。

以上就是stacking中一个模型的完整流程,stacking中同一层通常包含多个模型,假设还有Model2: LR,Model3:RF,Model4:
GBDT,Model5:SVM,对于这四个模型,我们可以重复以上的步骤,在整个流程结束之后,我们可以得到新的A2,A3,A4,A5,B2,B3,B4,B5矩阵。

在此之后,我们把A1,A2,A3,A4,A5并列合并得到一个10000行五列的矩阵作为training
data,B1,B2,B3,B4,B5并列合并得到一个2500行五列的矩阵作为testing data。让下一层的模型,基于他们进一步训练。

以上即为stacking的完整步骤!
# coding=utf8 from sklearn import datasets from sklearn.ensemble import
RandomForestClassifier, ExtraTreesClassifier, GradientBoostingClassifier from
sklearn.cross_validation import train_test_split from sklearn.cross_validation
import StratifiedKFold import numpy as np from sklearn.metrics import
roc_auc_score from sklearn.datasets.samples_generator import make_blobs
#聚类数据生成器其参数设置详见:https://blog.csdn.net/kevinelstri/article/details/52622960
'''创建训练的数据集''' data, target = make_blobs(n_samples=50000, centers=2,
random_state=0, cluster_std=0.60) '''模型融合中使用到的各个单模型''' clfs =
[RandomForestClassifier(n_estimators=5, n_jobs=-1, criterion='gini'),
RandomForestClassifier(n_estimators=5, n_jobs=-1, criterion='entropy'),
ExtraTreesClassifier(n_estimators=5, n_jobs=-1, criterion='gini'),
ExtraTreesClassifier(n_estimators=5, n_jobs=-1, criterion='entropy'),
GradientBoostingClassifier(learning_rate=0.05, subsample=0.5, max_depth=6,
n_estimators=5)] '''切分一部分数据作为测试集''' X, X_predict, y, y_predict =
train_test_split(data, target, test_size=0.33, random_state=2017)
dataset_blend_train = np.zeros((X.shape[0], len(clfs))) dataset_blend_test =
np.zeros((X_predict.shape[0], len(clfs))) '''5折stacking''' n_folds = 5 skf =
list(StratifiedKFold(y, n_folds)) for j, clf in enumerate(clfs):
'''依次训练各个单模型''' # print(j, clf) dataset_blend_test_j =
np.zeros((X_predict.shape[0], len(skf))) for i, (train, test) in
enumerate(skf): '''使用第i个部分作为预测,剩余的部分来训练模型,获得其预测的输出作为第i部分的新特征。''' #
print("Fold", i) X_train, y_train, X_test, y_test = X[train], y[train],
X[test], y[test] clf.fit(X_train, y_train) y_submission =
clf.predict_proba(X_test)[:, 1] dataset_blend_train[test, j] = y_submission
dataset_blend_test_j[:, i] = clf.predict_proba(X_predict)[:, 1]
'''对于测试集,直接用这k个模型的预测值均值作为新的特征。''' dataset_blend_test[:, j] =
dataset_blend_test_j.mean(1) print("val auc Score: %f" %
roc_auc_score(y_predict, dataset_blend_test[:, j])) # clf =
LogisticRegression() clf = GradientBoostingClassifier(learning_rate=0.02,
subsample=0.5, max_depth=6, n_estimators=30) clf.fit(dataset_blend_train, y)
y_submission = clf.predict_proba(dataset_blend_test)[:, 1] print("Linear
stretch of predictions to [0,1]") y_submission = (y_submission -
y_submission.min()) / (y_submission.max() - y_submission.min()) print("blend
result") print("val auc Score: %f" % (roc_auc_score(y_predict, y_submission)))



bleding 实现融合



Blending直接用不相交的数据集用于不同层的训练。

以两层的Blending为例,训练集划分为两部分(d1,d2),测试集为test。

* 第一层:用d1训练多个模型,讲其对d2和test的预测结果作为第二层的New Features。
* 第二层:用d2的New Features和标签训练新的分类器,然后把test的New Features输入作为最终的预测值。# coding=utf8
from sklearn import datasets from sklearn.ensemble import
RandomForestClassifier, ExtraTreesClassifier, GradientBoostingClassifier from
sklearn.cross_validation import train_test_split from sklearn.cross_validation
import StratifiedKFold import numpy as np from sklearn.metrics import
roc_auc_score from sklearn.datasets.samples_generator import make_blobs
'''创建训练的数据集''' data, target = make_blobs(n_samples=50000, centers=2,
random_state=0, cluster_std=0.60) '''模型融合中使用到的各个单模型''' clfs =
[RandomForestClassifier(n_estimators=5, n_jobs=-1, criterion='gini'),
RandomForestClassifier(n_estimators=5, n_jobs=-1, criterion='entropy'),
ExtraTreesClassifier(n_estimators=5, n_jobs=-1, criterion='gini'),
ExtraTreesClassifier(n_estimators=5, n_jobs=-1, criterion='entropy'),
GradientBoostingClassifier(learning_rate=0.05, subsample=0.5, max_depth=6,
n_estimators=5)] '''切分一部分数据作为测试集''' X, X_predict, y, y_predict =
train_test_split(data, target, test_size=0.33, random_state=2017)
'''5折stacking''' n_folds = 5 skf = list(StratifiedKFold(y, n_folds))
'''切分训练数据集为d1,d2两部分''' X_d1, X_d2, y_d1, y_d2 = train_test_split(X, y,
test_size=0.5, random_state=2017) dataset_d1 = np.zeros((X_d2.shape[0],
len(clfs))) dataset_d2 = np.zeros((X_predict.shape[0], len(clfs))) for j, clf
in enumerate(clfs): '''依次训练各个单模型''' # print(j, clf)
'''使用第1个部分作为预测,第2部分来训练模型,获得其预测的输出作为第2部分的新特征。''' # X_train, y_train, X_test,
y_test = X[train], y[train], X[test], y[test] clf.fit(X_d1, y_d1) y_submission
= clf.predict_proba(X_d2)[:, 1] dataset_d1[:, j] = y_submission
'''对于测试集,直接用这k个模型的预测值作为新的特征。''' dataset_d2[:, j] =
clf.predict_proba(X_predict)[:, 1] print("val auc Score: %f" %
roc_auc_score(y_predict, dataset_d2[:, j])) '''融合使用的模型''' # clf =
LogisticRegression() clf = GradientBoostingClassifier(learning_rate=0.02,
subsample=0.5, max_depth=6, n_estimators=30) clf.fit(dataset_d1, y_d2)
y_submission = clf.predict_proba(dataset_d2)[:, 1] print("Linear stretch of
predictions to [0,1]") y_submission = (y_submission - y_submission.min()) /
(y_submission.max() - y_submission.min()) print("blend result") print("val auc
Score: %f" % (roc_auc_score(y_predict, y_submission)))
参考:https://blog.csdn.net/shine19930820/article/details/75209021#18-blending