首先登場(・∀・)つ在踏入偉大航道需要的初始裝備「線性代數」!!!

線性代數是機器學習的基石,在模型中,其實是對數據進行一連串的線性轉換,而向量(vector)和矩陣(matrix)等是處理數據運算的招式。

$\mathbf {A} = \begin{bmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{bmatrix} \in \mathbb{R}^{m \times n}$ 包含了m個列向量或是n個行向量

$\mathbf{a}1 (行column向量) = \begin{bmatrix} a{11} \\ a_{21} \\ \vdots \\ a_{m1} \end{bmatrix} \in \mathbb{R}^{m \times 1}$

$\mathbf{b}1 (列row向量) = \begin{bmatrix} a{11} & a_{12} & \cdots & a_{1n} \end{bmatrix} \in \mathbb{R}^{1 \times n}$

矩陣的基本運算

我們派上矩陣$A$跟$B$來上演三個橋段吧!

$$ \begin{align*}\mathbf{A} + \mathbf{B} &= \begin{bmatrix}1 & 2 & 3 \\4 & 5 & 6 \\\end{bmatrix} + \begin{bmatrix}6 & 5 & 4 \\3 & 2 & 1 \\\end{bmatrix} \\&=\begin{bmatrix}1+6 & 2+5 & 3+4 \\4+3 & 5+2 & 6+1\\\end{bmatrix} \\&=\begin{bmatrix}7 & 7 & 7 \\7 & 7 & 7\\\end{bmatrix} \in \mathbb{R}^{m \times n}\end{align*}

$$

矩陣的轉置(Transpose)

轉置就是將矩陣的行與列互換,形成一個新的矩陣$A^T \in \mathbb{R}^{m \times m}$

像是這樣:

$A = \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix}$ 轉換成 $A^T = \begin{bmatrix} 1 & 4 \\ 2 & 5 \\ 3 & 6 \end{bmatrix}$