简介:欢迎来到进阶矩阵代数!

在之前的学习(FP1)中,你已经学过矩阵如何像“食谱”一样,对二维空间中的点进行变换。在 FP3 单元中,我们要更进一步!我们将探讨矩阵在三维空间中的运作方式、如何将积“反转置”(un-transpose),并透过特征值 (eigenvalues)特征向量 (eigenvectors) 来深入了解矩阵的“DNA”。这些工具的应用范围极广,从电子游戏的电脑绘图,到预测建筑物在地震中的震动情况,都少不了它们。如果一开始觉得有些抽象,别担心——我们将会一步步为你拆解!

1. 三维空间中的线性变换

三维变换的运作原理与二维相同,只是多了一个坐标 (\(z\))。一个 \(3 \times 3\) 的矩阵可以在三维空间中移动、旋转或拉伸物体。

组合变换

当我们连续进行多次变换时,我们会将矩阵相乘。但请记住,顺序非常重要
如果你先进行变换 B,再进行变换 A,组合后的矩阵就是 AB

记忆小撇步:“穿袜与穿鞋”法则
将矩阵乘法想像成穿衣过程。如果 B 是“穿袜子”,而 A 是“穿鞋子”,你会写成 AB(先进行的步骤写在右边)。如果你搞反了顺序,结果会完全不同(而且非常不舒服)!

逆变换

如果一个变换 M 移动了一个图形,那么它的逆矩阵 \(M^{-1}\) 就是“复原”按钮,能将图形精确地移回原来的位置。

重点总结: 对于组合变换,AB 意味着先执行 B,再执行 A

2. 转置矩阵与其奥秘

矩阵的转置 (transpose)(记作 \(A^T\))是透过交换矩阵的行与列而得到的。想像一下将矩阵沿着主对角线翻转。

范例: 如果第一行是 \((1, 2, 3)\),那么在转置矩阵中,它就会变成第一列。

矩阵积的转置

两个矩阵相乘后的转置有一个特殊规则:
\((AB)^T = B^T A^T\)

请留意 AB 的顺序互换了!这是学生最容易失分的地方,请务必多加留意。

快速复习:
1. 转置 = 交换行与列。
2. \((AB)^T = B^T A^T\)(记得反转顺序!)。

3. \(3 \times 3\) 矩阵的行列式与逆矩阵

行列式 (determinant),写作 \(det(A)\) 或 \(|A|\),是一个单一的数值,用来表示变换的体积缩放因子

  • 如果 \(det(A) = 5\),表示变换后图形的体积会变成原来的 5 倍。
  • 如果 \(det(A) = 0\),该矩阵称为奇异矩阵 (singular)。这意味着它将三维图形压扁成二维平面或一维线段(体积消失)。
  • 如果 \(det(A) \neq 0\),该矩阵称为非奇异矩阵 (non-singular),且具备逆矩阵。

求 \(3 \times 3\) 矩阵的逆矩阵

这是一个多步骤的过程。别慌张,按照这个“食谱”做就好:
1. 求出子矩阵 (Matrix of Minors)(内部每个 \(2 \times 2\) 小方块的行列式)。
2. 应用余因子矩阵 (Matrix of Cofactors)(套用加减符号的“棋盘”)。
3. 将结果转置 (Transpose) 以得到伴随矩阵 (Adjugate matrix)
4. 乘以 \(\frac{1}{det(A)}\)。

重要规则: 就像转置一样,乘积的逆矩阵也会反转顺序:
\((AB)^{-1} = B^{-1} A^{-1}\)

你知道吗? 行列式可以是负数!这仅代表该图形在缩放的同时被“由内向外翻转”(反射)了。

4. 特征值与特征向量

听起来是很深奥的术语,但概念其实很美。当矩阵对空间进行变换时,大部分向量都会改变方向。然而,有些特殊的向量只会变长或变短——它们的方向保持不变。这些就是特征向量 (eigenvectors),而它们被拉伸的倍数就是特征值 (eigenvalue, \(\lambda\))

核心方程式为: \(A\mathbf{v} = \lambda \mathbf{v}\)

如何求出它们(步骤教学):

1. 求特征值 (\(\lambda\)): 解特征方程式 \(det(A - \lambda I) = 0\)。对于 \(3 \times 3\) 矩阵,这通常会得出一个三次方程式。
2. 求特征向量 (\(\mathbf{v}\)): 对于每个 \(\lambda\),将其代回 \((A - \lambda I)\mathbf{v} = 0\) 并解出 \(\mathbf{v}\) 的分量。
3. 标准化向量 (Normalised Vectors): 有时候考试会要求“标准化”特征向量。这只是要求你缩放向量,使其总长度为 1。

类比: 想像一个旋转的地球仪。表面上的每个点都移动到了新位置,除了旋转轴上的点。旋转轴就像一个特征值为 1 的特征向量(它既不移动也不会被拉伸)!

重点总结: 特征向量是变换中那些“稳定不变”的方向。

5. 对称矩阵的对角化

对称矩阵 (symmetric matrix) 是指满足 \(A = A^T\) 的矩阵。这些矩阵非常特别,因为它们的特征向量彼此永远垂直(正交)。

我们可以利用这点将矩阵简化为对角矩阵 (diagonal matrix)(只有对角线上有数字,其余皆为零)。这会让后续计算轻松得多!

正交矩阵 P

如果我们求出对称矩阵的特征向量并将其标准化,就能将它们放入一个矩阵 P 中。这个矩阵是正交矩阵 (orthogonal),意味着 \(P^T = P^{-1}\)。
你需要掌握的核心结果是:
\(P^T AP = D\)
其中 D 是一个对角矩阵,其主对角线上的元素就是特征值

常见错误: 在建立对角矩阵 D 时,请务必确保特征值的顺序与矩阵 P 中对应的特征向量顺序一致!

总结: 对角化就像是利用特征值和特征向量,将矩阵简化为最纯粹的形式。

最后快速检查!

  • 运算顺序:\(AB\) 代表先执行 B,再执行 A
  • 反转规则:\((AB)^T = B^T A^T\) 及 \((AB)^{-1} = B^{-1} A^{-1}\)。
  • 奇异矩阵:\(det(A) = 0\)(无逆矩阵)。
  • 特征方程式:\(A\mathbf{v} = \lambda \mathbf{v}\)。
  • 对称矩阵:可对角化为 \(P^T AP = D\)。

矩阵运算因为步骤繁多,有时会让人感到棘手,但只要多加练习,你很快就能看出其中的规律。祝你学习顺利!