SVD(奇异值分解)是线性代数中一种重要的矩阵分解方法,广泛应用于数据压缩、推荐系统、图像处理等领域。以下是核心知识点:
1. 基本概念
- SVD将矩阵 $ A \in \mathbb{R}^{m \times n} $ 分解为三个矩阵的乘积:
$$
A = U \Sigma V^T
$$
- $ U $:左奇异向量矩阵($ m \times m $)
- $ \Sigma $:对角矩阵($ m \times n $),对角线元素为奇异值(按降序排列)
- $ V $:右奇异向量矩阵($ n \times n $)
- 📌 关键特性:奇异值始终为非负实数,且 $ U $ 和 $ V $ 的列向量是正交的
2. 分解步骤
- 计算 $ A^T A $ 的特征值和特征向量
- 从 $ A^T A $ 的特征向量中提取 $ V $ 的列向量
- 计算 $ A A^T $ 的特征向量,构成 $ U $ 的列向量
- 将奇异值按大小排序,填充到 $ \Sigma $ 中
3. 应用场景
- ✅ 图像压缩:通过保留前 $ k $ 个奇异值减少存储空间
- ✅ 推荐系统:降维用户-物品评分矩阵,挖掘潜在关联
- ✅ 噪声过滤:舍弃小奇异值,去除数据中的噪声
4. 延伸学习
想深入了解矩阵运算基础?👉 点击进入矩阵运算教程
📝 提示:实际应用中,通常使用截断SVD(只保留前 $ k $ 个奇异值)来平衡效果与效率
如需可视化SVD在图像压缩中的效果,可尝试 图像处理案例