首先登場(・∀・)つ在踏入偉大航道需要的初始裝備「線性代數」!!!
線性代數是機器學習的基石,在模型中,其實是對數據進行一連串的線性轉換,而向量(vector)和矩陣(matrix)等是處理數據運算的招式。
$\mathbf {A} = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{bmatrix} \in \mathbb{R}^{m \times n}$ 包含了m個列向量或是n個行向量
$\mathbf{a}1 (行column向量) = \begin{bmatrix} a{11} \\ a_{21} \\ \vdots \\ a_{m1} \end{bmatrix} \in \mathbb{R}^{m \times 1}$
$\mathbf{b}1 (列row向量) = \begin{bmatrix} a{11} & a_{12} & \cdots & a_{1n} \end{bmatrix} \in \mathbb{R}^{1 \times n}$
我們派上矩陣$A$跟$B$來上演三個橋段吧!
$$ \begin{align*}\mathbf{A} + \mathbf{B} &= \begin{bmatrix}1 & 2 & 3 \\4 & 5 & 6 \\\end{bmatrix} + \begin{bmatrix}6 & 5 & 4 \\3 & 2 & 1 \\\end{bmatrix} \\&=\begin{bmatrix}1+6 & 2+5 & 3+4 \\4+3 & 5+2 & 6+1\\\end{bmatrix} \\&=\begin{bmatrix}7 & 7 & 7 \\7 & 7 & 7\\\end{bmatrix} \in \mathbb{R}^{m \times n}\end{align*}
$$
劇本二 減法
$$ \begin{align*}\mathbf{A} - \mathbf{B} &= \begin{bmatrix}1 & 2 & 3 \\4 & 5 & 6 \\\end{bmatrix} - \begin{bmatrix}6 & 5 & 4 \\3 & 2 & 1 \\\end{bmatrix} \\&=\begin{bmatrix}1-6 & 2-5 & 3-4 \\4-3 & 5-2 & 6-1\\\end{bmatrix} \\&=\begin{bmatrix}-5 & -3 & -1 \\ 1 & 3 & 5\\\end{bmatrix} \in \mathbb{R}^{m \times n}\end{align*}
$$
劇本三 乘法
$$ \begin{align*} \mathbf{A} \mathbf{B} &= \begin{bmatrix}1 & 2 & 3 \\4 & 5 & 6 \\\end{bmatrix} \begin{bmatrix}6 & 3 \\ 5 & 2 \\ 4 & 1 \\\end{bmatrix} \\& = \begin{bmatrix} 1 \cdot 6 + 2 \cdot 5 + 3 \cdot 4 & 1 \cdot 3 + 2 \cdot 2 + 3\cdot1\\ 4 \cdot 6 + 5 \cdot 5 + 6 \cdot 4 & 4 \cdot 3 + 5 \cdot 2 + 6 \cdot 1 \end{bmatrix} \\&= \begin{bmatrix} 28 & 10 \\ 73 & 28 \end{bmatrix} \in \mathbb{R}^{m \times n}\end{align*} $$
轉置就是將矩陣的行與列互換,形成一個新的矩陣$A^T \in \mathbb{R}^{m \times m}$
像是這樣:
$A = \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix}$ 轉換成 $A^T = \begin{bmatrix} 1 & 4 \\ 2 & 5 \\ 3 & 6 \end{bmatrix}$