每年都會聽到小大一們的哀號,希望微積分可以過
當然也會聽到,學了微積分以後不會用到幹嘛教
今天主要在微分跟矩陣微分,直接進入正題gogo
基本微分公式
常數項的微分
如果 $f(x)=c$ ,其中 $c$ 是常數,那麼它的微分為零:
$$ \frac{d}{dx}c = 0 $$
冪法則 (Power Rule)
如果 $f(x) = x^n$,則:
$$ \frac{d}{dx}x^n = n x^{n-1} $$
這個公式適用於任何實數 $n$,包括正整數、負數和分數。
指數函數的微分
如果 $f(x) = e^x$ ,其中 $e$ 是自然對數的底,那麼:
$$ \frac{d}{dx}e^x = e^x $$
對數函數的微分
如果 $f(x) = \ln(x)$ ,那麼:
$$ \frac{d}{dx}\ln(x) = \frac{1}{x} $$
三角函數的微分
$$ \frac{d}{dx}\sin(x) = \cos(x) $$
$$ \frac{d}{dx}\cos(x) = -\sin(x) $$
乘法與鏈式法則
乘法法則 (Product Rule)
如果 $f(x)=u(x)v(x)$,則:
$$ \frac{d}{dx}[u(x)v(x)] = u'(x)v(x) + u(x)v'(x) $$
鏈式法則 (Chain Rule)
如果 $y = f(g(x))$,即函數的復合,則:
$$ \frac{dy}{dx} = \frac{df}{dg} \cdot \frac{dg}{dx} $$
鏈式法則在機器學習中反向傳播算法的推導中極其重要。
矩陣微積分是線性代數和微分計算的結合,特別是在處理向量和矩陣形式的函數時極為有用。它在機器學習中的優化過程中被廣泛使用,例如在反向傳播算法中計算權重的梯度時,矩陣微積分很常使用到。
標量對向量的微分
給定一個標量函數 $f(x)$,其中 $x$ 是一個 $n \times 1$ 的向量,求 $f$ 對 $x$ 的微分結果是一個梯度向量。
假設 $f(x) = x^T A x$,其中 $A$ 是 $n \times n$ 的對稱矩陣,則:
$$ \frac{\partial f}{\partial x} = 2 A x $$