什么是特征向量?
特征向量(Eigenvector)是线性代数中的核心概念,描述矩阵在特定方向上的线性变换特性。
- 数学定义:若存在非零向量 v 和标量 λ,使得 $ A\mathbf{v} = \lambda\mathbf{v} $,则 v 为矩阵 A 的特征向量,λ 为对应特征值。
- 直观理解:特征向量是矩阵作用下方向不变的向量,仅缩放长度(如旋转操作中保持方向的箭头)。
应用场景📊
特征向量在多个领域有广泛应用:
- 物理学:描述量子态的本征状态(如薛定谔方程)
- 计算机科学:用于搜索引擎算法(PageRank)和主成分分析(PCA)
- 工程学:分析结构振动模式(如桥梁的固有频率)
- 数据科学:降维与特征提取的核心工具
特征值计算方法🧮
- 特征方程法:通过 $ \det(A - \lambda I) = 0 $ 解特征值
- 幂迭代法:适用于大规模矩阵的数值计算
- QR算法:迭代分解矩阵以逼近特征值
扩展阅读📚
想要深入学习线性代数基础?
👉 点击此处了解矩阵与线性变换