讀理工久了,你會發現——
每個讓你頭痛的數學推導,幾乎都逃不過這三種不等式。
看懂不等式結構,你才能快速判斷哪裡是關鍵、哪裡能用技巧帶過。▋1. Triangle Inequality|所有分析的基礎,不懂就很容易卡死在證明裡
形式長這樣:
|a + b| \leq |a| + |b|
你在證明收斂、極限、逼近、解空間穩定性時,一定遇過這一條。
幾乎所有 norm space、inner product space 的估計,
都離不開「拆項 → 上界 → 合併」這個套路。
用它的關鍵不是「硬記」,
而是認出你現在看到的式子是「sum of terms 的上界」,
這時候,triangle inequality 幾乎都能派上用場。
▋2. Cauchy-Schwarz Inequality|你想不到怎麼縮時空的時候,就來這一招
形式長這樣:
|\langle a, b \rangle| \leq \|a\| \cdot \|b\|
在線性代數、機率、訊號處理、最小平方估計裡超常見。
尤其當你想「壓縮中間那個內積項」,讓式子只剩 norm,
或你懷疑哪個 term 寫得太難太醜太不易計算時,
這就是打開 bottleneck 的神招。
理工科學生從大三開始,
沒人能逃過它的魔掌。
但只有會「自動辨識用它」的人,才能寫出漂亮的 bound。
▋3. Jensen’s Inequality|你越往高年級走,它越像一個祕密的語言
形式長這樣(期望版):
\phi(\mathbb{E}[X]) \leq \mathbb{E}[\phi(X)]
\quad \text{if } \phi \text{ is convex}
這條不等式幾乎貫穿資訊理論、統計學、機器學習裡的所有「期望優化」問題。
從 KL divergence 的下界推導,到變分推理裡的 Evidence Lower Bound(ELBO),
每次只要你看到有人對凸函數套了期望,
不用懷疑,就是在偷用 Jensen。
這條不等式厲害之處在於:
它不是給你「數值」估計,
它是給你「概念上的策略」——
要從哪裡切入這個隨機量的結構。
⸻
如果你現在還會被式子嚇到,不要擔心,
因為這三條 inequality,才是你該先熟到爛熟的工具。
剩下的複雜式子,不過就是它們的延伸或變形罷了。