ML之DR之SVD:SVD算法相关论文、算法过程、代码实现、案例应用之详细攻略

ML之DR之SVD:SVD算法相关论文、算法过程、代码实现、案例应用之详细攻略


SVD算法相关论文

奇异值分解Singular Value Decomposition:简称SVD,特征分解的广义化,是一种提取特征信息的方法。

SVD算法过程

1、根据Andrew Gibiansky 写的关于 SVD 的文章中代码

http://andrew.gibiansky.com/blog/mathematics/cool-linear-algebra-singular-value-decomposition/

奇异值top不同个数的应用:可以发现,如果我们根据大小排序这些奇异值(矩阵 Σ 的值),那么前 50 个奇异值将包含整个矩阵 Σ 的大小的 85%。根据这个事实,我们可以丢弃后面的 250 个值(即将它们设为 0),仅保留这张小狗图像的「rank(秩)50」版本。值的数量差不多少了 5 倍,但质量却下降很少。上述计算的原因是当我们执行 UΣ'V 运算时,U 和 V 矩阵中的一部分因为乘 0 也被丢弃(其中 Σ' 是 Σ 的修改后版本,其中仅包含了前面的 30 个值)。

低秩矩阵的近似应用:图像压缩,其实80与原图相差不是很大。SVD中的奇异值的个数分别为1、10、80。

1、公式的推导

2、SVD算法两步过程

SVD代码实现

import numpy as np
def load_data():
    return [    [0,0,0,1,1],
                [0,0,0,2,2],
                [0,0,0,3,3],
                [4,4,4,0,0],
                [5,5,5,0,0],
                [6,6,6,0,0],
                [7,7,7,0,0]]
data = load_data()
u, sigma, vt = np.linalg.svd(data)   #Sigma是个矩阵,Python内部的机制,为了节省空间,因为它除了对角线都是0
print(sigma)#前两个值比后三个值大的多,所以可以取这两个奇异值,把其余三个置0。

[1.94422221e+01 5.29150262e+00 1.86910323e-15 4.48702001e-16
 8.62587679e-18]

SVD的案例应用

1、SVD的推荐案例

假定Ben、Tom、John、Fred对6种产品进行了评价,评分越高,代表对该产品越喜欢。0表示未评价。

1、进行SVD分解并提取前2个特征

(1)、产品矩阵的压缩、用户矩阵的压缩

2、利用SVD进行新用户的个性化推荐

思路:对于新用户,如何对其做个性化推荐呢?将A扩展后重新计算SVD,然后聚类用户?

(1)、假设有个Bob的新用户,对6个产品的评分为(5,5,0,0,0,5)T,通过上边的公式计算出Bob的特征点坐标。

(2)、通过计算Bob和现有用户的距离进行聚类:计算余弦距离(一定意义下即相关系数),与其最近的是Ben,因此,可以给Bob推荐Ben喜欢的S5、S3。

(0)

相关推荐