📘 《進階通訊工程——邁向2035年太空星鏈網路時代》15/100 高斯通道容量 📈 頻寬 × SNR 的速度上限

更新 發佈閱讀 12 分鐘

📘 《AI 時代系列(6):進階通訊工程——邁向2035年太空星鏈網路時代》

📘 第 2 周 📡 香農的宇宙:資訊從何而來、能傳多快?

從香農到 AI Channel Model 的完整架構

15/100 單元:BSC / BEC 模型 🚪含 🛰 NTN 雨衰版本**

________________________________________

🎯 單元導讀

前面幾章我們在連續世界(高斯通道、容量、SNR)裡探索。

但許多通訊系統 —— 例如:

衛星通訊

深空通訊

光通訊(FSO)

雨衰嚴重的 Ka/Ku 頻段

LEO/NTN downlink

低功率物聯網(短封包)

控制訊息(信令 Channel)

Coding 調變後的 bit-level 行為

其實更適合「離散通道模型」。

兩個模型支配離散通道世界:

⭐ BSC(Binary Symmetric Channel)二元對稱通道

⭐ BEC(Binary Erasure Channel) 二元擦除通道

而 NTN(3GPP Rel-17/18 的衛星網路)

在雨衰期間,通道行為嚴重偏向 BEC / BSC 的極端版本。

今天這章,就是從「理論通道」走向「星鏈與 NTN 的真實通道」。

________________________________________

🧠 一、BSC(Binary Symmetric Channel)── 位元翻轉的世界

BSC 是最基本的 bit-level 通道模型。

兩個符號:0、1

通道會「翻轉」:

傳 0 → 以機率 p 變成 1

傳 1 → 以機率 p 變成 0

數學模型:

P(Y ≠ X) = p

P(Y = X) = 1 − p

通道示意:

0 ----> 0 with prob 1-p

0 ----> 1 with prob p

1 ----> 1 with prob 1-p

1 ----> 0 with prob p

p 越大 → 通道越差。

📌 本質:代表「bit 被干擾、翻轉」。

________________________________________

🧠 二、BSC 的容量

容量公式:

C_BSC = 1 − H₂(p)

其中 H₂(p) = − p log₂ p − (1−p) log₂(1−p)

是二元熵。

意義:

p = 0(完全無錯)→ C = 1 bit/use

p = 0.5(完全亂數)→ C = 0 bit/use

⭐ p = 0.5 通道完全失效,無任何資訊能通過。

________________________________________

🧠 三、BEC(Binary Erasure Channel)── 位元被「抹掉」的世界

BEC 模型不是「錯誤」,而是「消失」。

傳送 bit → 通道會:

正確接收(1−ε)

直接消失,變成「erasure symbol」(ε)

數學模型:

P(Y = X) = 1 − ε

P(Y = “?” ) = ε

示意:

0 ----> 0 with prob 1-ε

0 ----> ? with prob ε

1 ----> 1 with prob 1-ε

1 ----> ? with prob ε

📌 本質:遮蔽、封包損毀、雨衰造成「看不到訊號」。

________________________________________

🧠 四、BEC 的容量

容量公式:

C_BEC = 1 − ε

極直覺:

ε = 0 → 完美通道

ε = 1 → 完全無法使用(全部抹除)

BEC 是所有通道最容易設計編碼的情況。

________________________________________

🧠 五、為什麼要 BSC / BEC?

(行動通訊工程中的三大用途)

1. 分析 error-correcting code(LDPC / Polar) 的理論性能

2. 研究 bit-level 可靠度

3. 作為 OFDM + Rayleigh 下的「bit mapping」近似模型

但更重要的是 —— NTN(衛星網路)尤其需要 BEC/BSC。

________________________________________

🛰 六、🛰 NTN(非地面網路) × 雨衰版本的 BSC / BEC

在 LEO/NTN 連接中(特別是 Ka/Ku/FSO)

雨衰會造成極劇烈的信號變化:

✔ 小雨:像 BSC

訊號可見

bit error rate 增大

p(翻轉機率)變大

→ 容量下降:1 − H₂(p)

✔ 大雨:像 BEC

整段 OFDM symbol 接收不到

RF/FSO 直接「drop」

erasure(抹除)大量出現

→ 容量下降:1 − ε

✔ 豪雨 / 雲層濃厚:BEC 極端版

ε → 接近 1

通道容量 → 接近 0

NTN link outage

→ 這就是 Ka 頻段最害怕的災難

⭐ 結論:

NTN 雨衰是一個「連續從 BSC→BEC」的通道惡化過程。

________________________________________

🛰 七、NTN 的 BSC/BEC 模型(公式版)

1)小雨(light rain) → BSC 模型

雨衰造成:

SNR 中度下降

bit error 增加

p ≈ Q(√(2 × SNR_eff))

說明:

1. 公式來自 BPSK 在 AWGN 下的 BER 模型。

2. SNR_eff 是雨衰後的有效 SNR。

3. SNR 降低會使根號項變小,導致 Q 函數增大,因此誤碼率增加。

4. 本情況屬於 “bit 翻轉” 型錯誤,因此用 BSC。

2)強雨(heavy rain) → 部分 BEC

某些 OFDM symbol 被完全淹沒:

ε ≈ P( SNR_eff < SNR_threshold )

說明:

1. SNR_eff 下降至低於可解碼門檻(SNR_threshold)時,該 symbol 即視為擦除。

2. ε 表示有多少比例的符號被擦除。

3. 雨越大,SNR_eff 低於門檻的機率越高,ε 越大。

4. 這不是 bit 翻轉,而是 “bit 消失”,因此屬於 BEC。

3)暴雨(severe fade) → BEC 接近 1

整段訊框通通消失

ε → 1

C → 0

說明:

1. ε(擦除率)趨近 1,代表幾乎全部符號消失。

2. BEC 的容量公式為 C = 1 − ε,當 ε → 1 時自然 C → 0。

3. 此時通道完全無法承載有效資訊。

________________________________________

🛰 八、ASCII 圖:NTN 雨衰如何讓通道從 BSC → BEC

雨量 ↑

──────────────────────────────────

BSC 過渡區 BEC

(bit flip) (flip + erase) (erase)


小雨 中雨 暴雨


p ↑ p ↑ ε ↑ ε → 1

──────────────────────────────────

說明:

小雨:bit 翻轉,通道像 BSC

中雨:bit 翻轉 + erasure 混合

大雨:直接變成 BEC(訊號不見)

這是 3GPP NTN 正在研究的核心模型。

________________________________________

🧠 九、模擬題

1️⃣ 專業題

請描述 BSC 與 BEC 的差異,並比較兩者的錯誤行為。

📜 答案:

BSC 是「bit 翻轉」,BEC 是「bit 消失」。

BSC 的錯誤行為是隨機錯,BEC 則是遺失符號。

BSC 需要糾錯碼辨識錯誤,BEC 只需填補遺失位置。

________________________________________

2️⃣ 應用題(NTN)

若 NTN downlink 在豪雨時 OFDM symbol 大量無法偵測,此時最符合哪種模型?

A. AWGN

B. BSC

C. BEC

D. Rician fading

🛰 答案:C

因為雨衰讓整段訊號「直接不見」。

________________________________________

3️⃣ 情境題

星鏈在 Ka 頻段遇到中度雨衰,BER 上升但封包仍可辨識,此時通道較像?

A. BSC

B. BEC

C. AWGN

D. 無差別雜訊

📶 答案:A

仍然可解碼,只是 bit flip 增多。

________________________________________

🛠 十、實務演練題

1️⃣ 在不同雨衰係數下模擬 Ka 頻段的 p(BSC 翻轉率)

2️⃣ 計算 ε(BEC 抹除率)隨雨衰的變化

3️⃣ 在 BSC/BEC 下測試 LDPC、Polar code 的性能

4️⃣ LEO link 模擬:從晴天 → 小雨 → 大雨的容量下降曲線

5️⃣ 在 BEC channel 下觀察 OFDM symbol-level erasure pattern

________________________________________

✅ 十一、小結與啟示

✔ BSC:bit flip

✔ BEC:bit 消失

✔ 兩者都是離散通道的基本模型

✔ NTN(Ka/Ku/FSO)雨衰會讓通道從 BSC 演變到 BEC

✔ 雨衰越強 → 翻轉(p)變大 → 抹除(ε)劇增 → 容量接近 0

✔ 用 BSC/BEC 模型能更準確模擬 NTN 真實狀況

✔ LDPC / Polar 是為這類通道設計的最佳武器

一句話:

⭐ BSC/BEC 是「離散通道的物理真面目」,

⭐ 而 NTN 雨衰就是它們的最真實示範。



留言
avatar-img
留言分享你的想法!
avatar-img
艾韓思 AIHANS|AI 應用工程筆記
27會員
528內容數
AIHANS沙龍是一個結合AI技術實戰、產業策略與自我成長的知識平台,主題涵蓋機器學習、生成式AI、創業經驗、財務規劃及哲學思辨。這裡不只提供系統化學習資源與實作案例,更強調理性思維與行動力的結合。無論你是AI初學者、創業者,還是追求人生升維的行者,都能在這裡找到前進的方向與志同道合的夥伴。
2025/12/04
高斯通道容量 C = B·log₂(1+SNR) 是所有通訊系統的速度上限,頻寬決定成長幅度、SNR 只帶來對數收益。5G、mmWave、星鏈乃至 AI Receiver 都只能逼近此極限,無法突破。理解此公式即可掌握通訊工程的核心物理邊界。
2025/12/04
高斯通道容量 C = B·log₂(1+SNR) 是所有通訊系統的速度上限,頻寬決定成長幅度、SNR 只帶來對數收益。5G、mmWave、星鏈乃至 AI Receiver 都只能逼近此極限,無法突破。理解此公式即可掌握通訊工程的核心物理邊界。
2025/12/04
香農編碼定理指出:無失真壓縮的平均碼長不可能低於訊源的熵 H(X),所有壓縮技術(Huffman、Arithmetic、H.265、AI Codec)都只能逼近但無法突破這一極限。熵決定可壓縮性,AI 壓縮本質上也是降低冗餘、降低熵,使資料更接近香農極限。
2025/12/04
香農編碼定理指出:無失真壓縮的平均碼長不可能低於訊源的熵 H(X),所有壓縮技術(Huffman、Arithmetic、H.265、AI Codec)都只能逼近但無法突破這一極限。熵決定可壓縮性,AI 壓縮本質上也是降低冗餘、降低熵,使資料更接近香農極限。
2025/12/04
熵衡量訊號本身的資訊量,互資訊衡量通道成功傳遞的有效資訊,是香農容量的核心基礎。通訊系統的調變、編碼、MIMO、OFDM 都在最大化互資訊;AI 通道模型則以交叉熵與 MI 作為優化目標。SNR 提升會增加互資訊,但最終受香農容量限制。
2025/12/04
熵衡量訊號本身的資訊量,互資訊衡量通道成功傳遞的有效資訊,是香農容量的核心基礎。通訊系統的調變、編碼、MIMO、OFDM 都在最大化互資訊;AI 通道模型則以交叉熵與 MI 作為優化目標。SNR 提升會增加互資訊,但最終受香農容量限制。
看更多
你可能也想看
Thumbnail
在這個章節會繼續介紹機器學習後半部的流程,主要也是概念式的說明,每一個小細節在後續的文章中會再單獨拿出來說明。請大家盡量記得文章中每個流程所提到的專有名詞,大概了解每一個步驟在做什麼對於後續的學習很有幫助!
Thumbnail
在這個章節會繼續介紹機器學習後半部的流程,主要也是概念式的說明,每一個小細節在後續的文章中會再單獨拿出來說明。請大家盡量記得文章中每個流程所提到的專有名詞,大概了解每一個步驟在做什麼對於後續的學習很有幫助!
Thumbnail
機器學習的流程大致上可分為以下幾個主要步驟: 定義問題 明確了解你的業務目標或要解決的問題,並具體描述成可用機器學習解決的問題,例如分類、預測或分群。 資料收集與建立資料集 收集相關數據,通常自多個來源;整理、清洗數據(例如去除異常值、補齊缺失值)。 資料需拆分為訓練集、驗證集、測試集(常
Thumbnail
機器學習的流程大致上可分為以下幾個主要步驟: 定義問題 明確了解你的業務目標或要解決的問題,並具體描述成可用機器學習解決的問題,例如分類、預測或分群。 資料收集與建立資料集 收集相關數據,通常自多個來源;整理、清洗數據(例如去除異常值、補齊缺失值)。 資料需拆分為訓練集、驗證集、測試集(常
Thumbnail
這篇文章是作者期末考的課堂筆記,內容整理自國立成功大學電機工程學系「人工智慧晶片設計與應用」課程的第一講,並加以補充說明。文章從機器學習的基本概念開始,逐步深入探討線性回歸、資料集分割、監督式學習、非監督式學習、強化學習、模型評估、泛化誤差、過擬合與欠擬合、正則化以及 ReLU 函數等重要議題。
Thumbnail
這篇文章是作者期末考的課堂筆記,內容整理自國立成功大學電機工程學系「人工智慧晶片設計與應用」課程的第一講,並加以補充說明。文章從機器學習的基本概念開始,逐步深入探討線性回歸、資料集分割、監督式學習、非監督式學習、強化學習、模型評估、泛化誤差、過擬合與欠擬合、正則化以及 ReLU 函數等重要議題。
Thumbnail
AI 基準測試(Benchmark)歷來無法捕捉現實世界中的複雜性,特別是針對 AI 系統可能執行的任務,經常導致對 AI 當前能力和未來影響產生誤導性結論。
Thumbnail
AI 基準測試(Benchmark)歷來無法捕捉現實世界中的複雜性,特別是針對 AI 系統可能執行的任務,經常導致對 AI 當前能力和未來影響產生誤導性結論。
Thumbnail
記錄了在撲克機器人開發中從機器學習模型轉向建立自定義數據庫的過程,以及這個策略轉變背後的思考。通過分析真實玩家的行動分布,希望能訓練出更有效的撲克機器人。
Thumbnail
記錄了在撲克機器人開發中從機器學習模型轉向建立自定義數據庫的過程,以及這個策略轉變背後的思考。通過分析真實玩家的行動分布,希望能訓練出更有效的撲克機器人。
Thumbnail
記錄了在開發撲克機器人對手模型時,如何與語言模型協作的心得,以及在這過程中對開發方法論的一些思考。特別強調了「先求有,再求好」的重要性,以及如何在保持開發效率和深入理解技術細節之間找到平衡。
Thumbnail
記錄了在開發撲克機器人對手模型時,如何與語言模型協作的心得,以及在這過程中對開發方法論的一些思考。特別強調了「先求有,再求好」的重要性,以及如何在保持開發效率和深入理解技術細節之間找到平衡。
Thumbnail
過擬合是機器學習中的一個常見問題,指模型在訓練數據上表現優異但在未見過的測試數據上效果不佳。本文介紹了多種避免過擬合的方法,包括增加數據量、使用正則化、交叉驗證、簡化模型結構以及學習曲線分析等。透過這些策略,能夠提升模型的泛化能力和在未來預測中的可靠性,幫助讀者更好地理解和解決過擬合問題。
Thumbnail
過擬合是機器學習中的一個常見問題,指模型在訓練數據上表現優異但在未見過的測試數據上效果不佳。本文介紹了多種避免過擬合的方法,包括增加數據量、使用正則化、交叉驗證、簡化模型結構以及學習曲線分析等。透過這些策略,能夠提升模型的泛化能力和在未來預測中的可靠性,幫助讀者更好地理解和解決過擬合問題。
Thumbnail
圖靈測試是用於衡量機器是否能夠表現出與人類相等的智能的方法。本文介紹了圖靈測試的歷史、原理和評價,並探討了ChatGPT是否能通過該測試的問題
Thumbnail
圖靈測試是用於衡量機器是否能夠表現出與人類相等的智能的方法。本文介紹了圖靈測試的歷史、原理和評價,並探討了ChatGPT是否能通過該測試的問題
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News