原创: 石晓文 小小挖掘机  <>2018-06-23



推荐系统遇上深度学习系列:

推荐系统遇上深度学习(一)--FM模型理论和实践
<https://blog.csdn.net/jiangjiang_jian/article/details/80630873>

推荐系统遇上深度学习(二)--FFM模型理论和实践
<https://blog.csdn.net/jiangjiang_jian/article/details/80630903>


推荐系统遇上深度学习(三)--DeepFM模型理论和实践
<https://blog.csdn.net/jiangjiang_jian/article/details/80630955>

推荐系统遇上深度学习(四)--多值离散特征的embedding解决方案
<https://blog.csdn.net/jiangjiang_jian/article/details/80631023>

推荐系统遇上深度学习(五)--Deep&Cross Network模型理论和实践
<https://blog.csdn.net/jiangjiang_jian/article/details/80674084>

推荐系统遇上深度学习(六)--PNN模型理论和实践
<https://blog.csdn.net/jiangjiang_jian/article/details/80674157>

推荐系统遇上深度学习(七)--NFM模型理论和实践
<https://blog.csdn.net/jiangjiang_jian/article/details/80674200>

推荐系统遇上深度学习(八)--AFM模型理论和实践
<https://blog.csdn.net/jiangjiang_jian/article/details/80674250>

推荐系统遇上深度学习(九)--评价指标AUC原理及实践
<https://blog.csdn.net/jiangjiang_jian/article/details/80674304>

推荐系统遇上深度学习(十)--GBDT+LR融合方案实战
<https://blog.csdn.net/jiangjiang_jian/article/details/80674372>

推荐系统遇上深度学习(十一)--神经协同过滤NCF原理及实战
<https://blog.csdn.net/jiangjiang_jian/article/details/80674435>

推荐系统遇上深度学习(十二)--推荐系统中的EE问题及基本Bandit算法
<https://blog.csdn.net/jiangjiang_jian/article/details/80674506>

推荐系统遇上深度学习(十三)--linUCB方法浅析及实现
<https://blog.csdn.net/jiangjiang_jian/article/details/80674612>

推荐系统遇上深度学习(十四)--强化学习与推荐系统的强强联合
<https://blog.csdn.net/jiangjiang_jian/article/details/80674016>


<>推荐系统遇上深度学习(十五)--强化学习在京东推荐中的探索
<https://blog.csdn.net/jiangjiang_jian/article/details/80728531>

推荐系统遇上深度学习(十六)--详解推荐系统中的常用评测指标
<https://blog.csdn.net/jiangjiang_jian/article/details/80728607>




阿里近几年公开的推荐领域算法可真不少,既有传统领域的探索如MLR算法,还有深度学习领域的探索如entire -space multi-task
model,Deep Interest
Network等,同时跟清华大学合作展开了强化学习领域的探索,提出了MARDPG算法。从本篇开始,我们就一起来探秘这些算法。这里,我们只是大体了解一下每一个算法的思路,对于数学部分的介绍,我们不会过多的涉及。

1、算法介绍

现阶段各CTR预估算法的不足
我们这里的现阶段,不是指的今时今日,而是阿里刚刚公开此算法的时间,大概就是去年的三四月份吧。

业界常用的CTR预估算法的不足如下表所示:

方法简介不足
逻辑回归使用了Sigmoid函数将函数值映射到0~1区间作为CTR的预估值。LR这种线性模型很容易并行化,处理上亿条训练样本不是问题。
线性模型的学习能力有限,需要引入大量的领域知识来人工设计特征以及特征之间的交叉组合来间接补充算法的非线性学习能力,非常消耗人力和机器资源,迁移性不够友好。
Kernel方法将低维特征映射到高维特征空间复杂度太高而不易实现
树模型如Facebook的GBDT+LR算法,有效地解决了LR模型的特征组合问题
是对历史行为的记忆,缺乏推广性,树模型只能学习到历史数据中的特定规则,对于新规则缺乏推广性
FM模型自动学习高阶属性的权值,不用通过人工的方式选取特征来做交叉FM模型只能拟合特定的非线性模式,常用的就是二阶FM
深度神经网络使用神经网络拟合数据之间的高阶非线性关系,非线性拟合能力足够强
适合数据规律的、具备推广性的网络结构业界依然在探索中,尤其是要做到端到端规模化上线,这里面的技术挑战依然很大
那么挑战来了,如何设计算法从大规模数据中挖掘出具有推广性的非线性模式?

MLR算法

2011-2012年期间,阿里妈妈资深专家盖坤创新性地提出了MLR(mixed logistic
regression)算法,引领了广告领域CTR预估算法的全新升级。MLR算法创新地提出并实现了直接在原始空间学习特征之间的非线性关系,基于数据自动发掘可推广的模式,相比于人工来说效率和精度均有了大幅提升。

MLR可以看做是对LR的一个自然推广,它采用分而治之的思路,用分片线性的模式来拟合高维空间的非线性分类面,其形式化表达如下:


其中u是聚类参数,决定了空间的划分,w是分类参数,决定空间内的预测。这里面超参数分片数m可以较好地平衡模型的拟合与推广能力。当m=1时MLR就退化为普通的LR,m越大模型的拟合能力越强,但是模型参数规模随m线性增长,相应所需的训练样本也随之增长。因此实际应用中m需要根据实际情况进行选择。例如,在阿里的场景中,m一般选择为12。下图中MLR模型用4个分片可以完美地拟合出数据中的菱形分类面。

在实际中,MLR算法常用的形式如下,使用softmax作为分片函数:

在这种情况下,MLR模型可以看作是一个FOE model:

关于损失函数的设计,阿里采用了 neg-likelihood loss function以及L1,L2正则,形式如下:

由于加入了正则项,MLR算法变的不再是平滑的凸函数,梯度下降法不再适用,因此模型参数的更新使用LBFGS和OWLQN的结合,具体的优化细节大家可以参考论文(
https://arxiv.org/pdf/1704.05194.pdf <https://arxiv.org/pdf/1704.05194.pdf>).

MLR算法适合于工业级的大规模稀疏数据场景问题,如广告CTR预估。背后的优势体现在两个方面:
端到端的非线性学习:从模型端自动挖掘数据中蕴藏的非线性模式,省去了大量的人工特征设计,这
使得MLR算法可以端到端地完成训练,在不同场景中的迁移和应用非常轻松。
稀疏性:MLR在建模时引入了L1和L2,1范数正则,可以使得最终训练出来的模型具有较高的稀疏度,
模型的学习和在线预测性能更好。当然,这也对算法的优化求解带来了巨大的挑战。

2、算法简单实现

我们这里只是简单实现一个tensorflow版本的MLR模型,通过代码来了解一下模型的思想。

代码的github地址为:
https://github.com/princewen/tensorflow_practice/tree/master/recommendation/Basic-MLR-Demo

<https://github.com/princewen/tensorflow_practice/tree/master/recommendation/Basic-MLR-Demo>

所使用的数据下载地址为:http://archive.ics.uci.edu/ml/datasets/Adult
<http://archive.ics.uci.edu/ml/datasets/Adult>
,该数据是一个二分类的数据,所预测的任务是判断一个人是否能够一年挣到50K的钱,数据介绍如下:

数据处理


数据中存在连续特征和离散特征,所以我们先要对数据进行一个简单的处理,处理包括将离散特征转换为one-hot以及对连续特征进行标准化。有一个需要注意的地方,训练集和测试集中离散特征出现的个数可能不一样,因此需要先将数据合并,然后转换成one-hot,最后再分开,代码如下。
import pandas as pd from sklearn.preprocessing import StandardScaler def
get_data(): train_data = pd.read_table("data/adult.data.txt",header=None
,delimiter=',') test_data = pd.read_table("data/adult.test.txt",header=None
,delimiter=',') all_columns = ['age','workclass','fnlwgt','education',
'education-num', 'marital-status','occupation','relationship','race','sex',
'capital-gain','capital-loss','hours-per-week','native-country','label','type']
continus_columns = ['age','fnlwgt','education-num','capital-gain','capital-loss'
,'hours-per-week'] dummy_columns = ['workclass','education','marital-status',
'occupation','relationship','race','sex','native-country'] train_data['type'] =
1 test_data['type'] = 2 all_data = pd.concat([train_data,test_data],axis=0)
all_data.columns = all_columns all_data =
pd.get_dummies(all_data,columns=dummy_columns) test_data = all_data[all_data[
'type']==2].drop(['type'],axis=1) train_data = all_data[all_data['type']==1
].drop(['type'],axis=1) train_data['label'] = train_data['label'].map(lambda x:
1 if x.strip() == '>50K' else 0) test_data['label'] = test_data['label'].map(
lambda x: 1 if x.strip() == '>50K.' else 0) for col in continus_columns: ss =
StandardScaler() train_data[col] = ss.fit_transform(train_data[[col]])
test_data[col] = ss.transform(test_data[[col]]) train_y = train_data['label']
train_x = train_data.drop(['label'],axis=1) test_y = test_data['label'] test_x
= test_data.drop(['label'],axis=1) return train_x,train_y,test_x,test_y
数据处理完后,特征的维度是108维。

MLR的实现

MLR的实现需要两组参数,分别是聚类参数和分类参数:
u = tf.Variable(tf.random_normal([108,m],0.0,0.5),name='u') w =
tf.Variable(tf.random_normal([108,m],0.0,0.5),name='w')
随后,我们要计算我们的预估值:
U = tf.matmul(x,u) p1 = tf.nn.softmax(U) W = tf.matmul(x,w) p2 =
tf.nn.sigmoid(W) pred = tf.reduce_sum(tf.multiply(p1,p2),1)
损失函数我们刚才介绍过了,在tensorflow中,我们选择FtrlOptimizer作为优化器,可以给我们的损失函数加上正则项:
cost1=tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=pred,
labels=y)) cost=tf.add_n([cost1]) train_op =
tf.train.FtrlOptimizer(learning_rate).minimize(cost)
随后,我们就可以进行试验了。

实验结果
本文对比了在当前给出的数据集下,m=5,10,15,25 以及lr算法的效果,结果如下:

可以看到,lr的效果是最好的,随着m的增加,模型的效果越来越差。当然,这并不能说明mlr效果不如lr好,只是我们的数据实在是太少了,哈哈。

参考文献


https://mp.weixin.qq.com/s__biz=MzIzOTU0NTQ0MA==&mid=2247485097&idx=1&sn=6dbc197e67e8a2ba3ee78786b13d894d&scene=21#wechat_redirect

<https://mp.weixin.qq.com/s?__biz=MzIzOTU0NTQ0MA==&mid=2247485097&idx=1&sn=6dbc197e67e8a2ba3ee78786b13d894d&scene=21#wechat_redirect>
2、Learning Piece-wise Linear Models from Large Scale Data for Ad Click
Prediction

友情链接
KaDraw流程图
API参考文档
OK工具箱
云服务器优惠
阿里云优惠券
腾讯云优惠券
华为云优惠券
站点信息
问题反馈
邮箱:ixiaoyang8@qq.com
QQ群:637538335
关注微信