矩阵分解 Matrix Factorization
矩阵分解简介
矩阵分解,简单来说,就是把原来的大矩阵,近似分解成两个小矩阵的乘积,实际推荐计算时不再使用大矩阵,而是使用分解得到的两个小矩阵。
假设用户物品评分矩阵为 R, 维度为mxn,即 m 个用户, n 个物品。选择一个很小的数 k,k 比 m 和 n 都小很多,然后通过算法生成两个矩阵 P 和 Q,这两个矩阵的要求如下:P 的维度是 mxk,Q 的维度是 nxk, P 和 Q 的转置相乘结果为 R,即R=P*Q^T。也就是说分解得到的矩阵P和Q可以还原成原始的矩阵R。
用公式来描述就是:
文章图片
其中 R 表示真实的用户评分矩阵,一般有很多缺失值(缺失值表示用户没有对该物品评分),带尖帽的 R 表示使用分解矩阵预测的用户评分矩阵,它补全了所有的缺失值。
从另一个角度来看,矩阵分解就是把用户和物品都映射到一个 k 维空间中(这里映射后的结果用户用矩阵P表示,物品用矩阵Q表示),这个 k 维空间不是我们直接看得到的,也不一定具有非常好的可解释性,每一个维度也没有名字,所以常常叫做隐因子,或隐特征。用户向量代表了用户的兴趣,物品向量代表了物品的特点,且每一个维度相互对应,两个向量的内积表示用户对该物品的喜好程度。
矩阵分解做评分预测
通过矩阵分解,可以得到用户矩阵和物品矩阵。针对每个用户和物品,假设分解后得到的用户 u 的向量为 p_u,物品 i 的向量为 q_i,那么用户 u 对物品 i 的评分为:
文章图片
其中,K 表示隐因子个数。
求矩阵P、Q的方法
问题关键是如何求得P、Q矩阵,使得上述的评分预测得以实现?这个问题可以转化成机器学习问题,要解决机器学习问题,就需要寻找损失函数以及优化算法。
这里单个用户对单个物品的真实评分与预测评分之间的差值记为 e{ui}:
文章图片
将所有用户对物品的真实评分与预测评分之间的差值的平方之和作为损失函数,即
文章图片
其中,R 表示所有的用户对所有物品的评分集合,K 表示隐因子个数。
我们要做的就是求出用户向量 p_u 和物品向量 q_i ,来保证损失函数结果最小。
求解损失函数优化算法常用的选择有两个,一个是梯度下降(GD),另一个是交替最小二乘(ALS) 。
以梯度下降为例:
- 准备好用户物品的评分矩阵,每一条评分数据看做一条训练样本;
- 给分解后的 P 矩阵和 Q 矩阵随机初始化元素值;
- 用 P 和 Q 计算预测后的分数;
- 计算预测的分数和实际的分数误差;
- 沿着损失函数梯度下降的方向更新 P 和 Q 中的元素值;
- 重复步骤 3 到 5,直到达到停止条件。
【推荐系统|矩阵分解MF用于评分预测】
文章图片
Done
推荐阅读
- paddle|动手从头实现LSTM
- 人工智能|干货!人体姿态估计与运动预测
- 推荐系统论文进阶|CTR预估 论文精读(十一)--Deep Interest Evolution Network(DIEN)
- Python专栏|数据分析的常规流程
- 读书笔记|《白话大数据和机器学习》学习笔记1
- Pytorch学习|sklearn-SVM 模型保存、交叉验证与网格搜索
- Python机器学习基础与进阶|Python机器学习--集成学习算法--XGBoost算法
- 深度学习|深度学习笔记总结
- 机器学习|机器学习Sklearn学习总结
- 机器学习|线性回归原理与python实现