JH Young-avatar-img

JH Young

4 位追蹤者

JH Young

4 位追蹤者
avatar-img
sirius數字沙龍
13會員
275內容數
吃自助火鍋啦!不要客氣,想吃啥,請自行取用!
全部內容
由新到舊
一、最簡單一句話 👉 愛因斯坦求和約定(Einstein Summation Convention)=「重複出現的 index,自動做求和」 二、最基本例子 傳統寫法(有 Σ): 愛因斯坦寫法(省略 Σ): 👉 規則: 👉 只要 index 重複 → 就代表「對它求和」
Thumbnail
一、最簡單一句話 👉 縮並 = 對「相同 index」做乘法後再「加總」,並消掉這個維度 二、用最直覺例子理解 🔹 例1:向量內積(最簡單的縮並) 縮並: 👉 發生什麼事? index i 重複 對 i 求和 維度從 1D → 0D(變純量) 👉 ✅ 這就是「縮並」
Thumbnail
張量的外積(Outer Product / Tensor Product):維度會增加 一、最簡單一句話 👉 張量的外積(Outer Product) = 把兩個張量「全部組合」在一起,產生更高維的張量 二、數學定義(核心公式)
Thumbnail
「張量」(Tensor)聽起來很神祕,但說穿了,它就是一個多維度的數字容器。在 AI 和深度學習的世界裡,它是一切運算的基礎。 我們可以依照「維度」將張量分類: 0 維張量: 純量(Scalar),就是一個孤零零的數字,如 5。 1 維張量: 向量(Vector),一排數字。
Thumbnail
「線性映射(Linear Map)」是理解張量、矩陣、AI 的核心概念之一。我們用最直覺+數學本質一起講清楚👇 一、最簡單一句話 👉 線性映射 = 保持「加法」與「比例」的變換 二、形式定義(抓住兩個條件) 一個映射 f 是線性的,如果滿足: 1️⃣ 加法保持
Thumbnail
這個數字其實是從統計公式直接推導出來的,而且「1,100」不是神秘值,而是剛好對應「95%信心水準、±3%誤差」的最小樣本量。 我們一步一步來拆解👇 一、關鍵公式(誤差怎麼來)
Thumbnail
要先清楚一件事: 👉 沒有任何模型能「穩定比所有民調更準」(連FiveThirtyEight或The Economist都不敢這樣保證) 真正能做到的是: 👉 在多數情況下,比單一民調更穩定、更抗偏差 下面是一套「可實作」的 AI 選舉預測系統架構(偏工程 + 量化)
Thumbnail
現代民調「變不準」,不是因為統計學失效,而是社會結構與人類行為已經變了,但方法只跟上了一半。 下面我把真正的原因拆成幾個關鍵層面,你會看到這其實是一個「系統性失真」。 一、最大問題:你根本問不到對的人 📉 非回應偏差(Non-response bias) 現在: 年輕人不接電話
Thumbnail
傳統民調的問題不是「統計公式不夠好」,而是資料來源與人類行為已經變了。 AI 的價值在於:👉 補上「看不到的人」與「說不出口的答案」 下面我用「問題 → AI解法」的方式,給你一套完整框架(偏實戰,而不是空談)。 一、傳統民調的三大致命問題 1️⃣ 不接電話的人(非回應偏差)
Thumbnail
這其實不是隨便選的,而是「統計學 + 現實成本」之間的最佳平衡。 我們拆開來看「95%信心水準、±3%誤差、樣本數約1,100」為什麼會變成業界標準。 一、核心關係:誤差來自哪裡? 民調的誤差(Margin of Error)來自這個統計概念:
Thumbnail