📘 《AI 時代系列(6):進階通訊工程——邁向2035年太空星鏈網路時代》
📘 第 9周: 🤖 AI-native Network:RAN × Core × NTN 的智慧大腦
未來 6G 的核心章節
81/150單元: AI-driven RAN 🧠 基地台自己變聰明:6G 時代的智慧 RAN
________________________________________
🎯 單元導讀
在 5G 時代,基地台(gNodeB)仍然是「規則式、表格式」的排程機器:
✔ 固定參數
✔ 固定調變選擇
✔ 固定 PRB 分配
✔ 固定 beam pattern
✔ 固定 HARQ retransmit policy
但是 6G 時代,流量形態複雜到 人類無法再手動設定參數:
• Massive MIMO → 上百天線
• 波束 × 子載波 × 使用者數 → 超過百萬組合
• URLLC × eMBB × mMTC → 需求衝突
• LEO × NTN → delay/動態性太高
• City-scale Mobility → 時變通道難以預測
結論是:
⭐ 未來的基地台(RAN)一定要靠 AI 自己動態調整。
⭐ 6G 的 RAN 核心是 AI—not RF engineer。
本單元會帶你理解:
• 什麼是 AI-native RAN?
• AI 能替代哪些傳統演算法?
• 哪些場景 Only AI can solve?
• Massive MIMO、Beamforming、PRB 分配怎麼 AI 化?
• LEO / NTN 為什麼一定要 AI 才能運作?
一句話:
AI 將讓基地台從「規則式」變成「大腦式」。
________________________________________
🧠 一、AI-native RAN 是什麼?一句話版
⭐ 用 ML / DL 動態學習 RAN 的最佳配置,使基地台能自我優化(Self-Optimization),甚至自我調整(Self-Evolving)。
與傳統 RAN 的核心差別
1、決策邏輯層(Decision Logic)
• 排程(Scheduling)
o 傳統 RAN:Rule-based(人工設計規則)
o AI-native RAN:AI policy(學習型決策策略)
• MCS 選擇(調變與編碼)
o 傳統 RAN:固定查表(CQI → MCS table)
o AI-native RAN:AI 依通道與歷史行為自動估計
________________________________________
2、實體層與空間控制(PHY / Spatial Control)
• Beamforming
o 傳統 RAN:有限 Codebook 搜尋
o AI-native RAN:連續空間 AI search(近似最優解)
________________________________________
3、移動性與連線管理(Mobility Management)
• Mobility / Handover
o 傳統 RAN:A3 / A5 事件觸發
o AI-native RAN:Mobility prediction(預測式切換)
• LEO / NTN Handover
o 傳統 RAN:幾何與軌道計算
o AI-native RAN:RL-based switching(多目標最佳化)
________________________________________
4、網路資源與負載管理(Resource & Load)
• Load Balancing
o 傳統 RAN:固定門檻觸發
⭐ 是基地台的「核心大腦」。
________________________________________
🧠 二、RAN 中最需要 AI 的四大模組
________________________________________
⭐(1)AI Channel Prediction(通道預測)
通道是時變的:h(t,f)
LEO、車速、室內反射……
→ 傳統 Kalman 很難處理高度非線性
AI 用:
• RNN / LSTM
• Transformer
• Graph Neural Network
• CNN(時間-頻率平面)
目的:提前預測下一個 slot 的 CSI。
📌 成果:
延遲降低、beam 更準、調變更接近最佳點。
________________________________________
⭐(2)AI Scheduler(AI 排程器)
RAN 的排程是 NP-hard(非多項式時間可解)問題,涉及同時最佳化:
• PRB 分配(Physical Resource Block,實體資源區塊配置)
• MCS(Modulation and Coding Scheme,調變與編碼配置)
• Power(發射功率控制)
• Spatial Layer(空間層數/MIMO 傳輸層配置)
• HARQ(Hybrid Automatic Repeat reQuest,混合式自動重傳機制)
• Buffer(佇列/緩衝區狀態管理)
• URLLC / eMBB / mMTC 混合(不同服務等級的 QoS 同時滿足)
→ 在高維度、強耦合的限制條件下,人類撰寫的規則式排程永遠只能得到次最佳(suboptimal)解。
AI Scheduler 使用:
• Reinforcement Learning(強化學習)
• Multi-Agent RL(多代理強化學習)
• Graph RL(圖結構強化學習)
• Deep Q Network, DQN(深度 Q 網路)
目標:
✔ 最大化 throughput
✔ 保證 URLLC latency
✔ 降低 eMBB jitter
✔ 避免 ρ → 1
________________________________________
⭐(3)AI Beamforming(AI 波束)
傳統 beamforming 用 codebook(有限方向)。
AI 則可在連續角度空間搜尋最佳波束。
技術包含:
• Neural Beam Search
• Autoencoder-based Beam Prediction
• Angle-of-Arrival Prediction
• Location × CSI × Mobility fusion
結果:
✔ 波束選擇更快
✔ 強化 cell-edge SNR
✔ 適合 LEO、高速行駛場景
________________________________________
⭐(4)AI Load & Traffic Forecasting
基地台壅塞通常不是平均,而是 burst。
排隊延遲 Wq 會突然爆炸(上一章的 queue 理論)。
AI 可以提前預測:
• λ(t)(到達率)
• 連續 1 分鐘內的 burst
• 熱區 / 冷區 mobility
• TCP traffic pattern
AI-driven traffic prediction →
能提前動態切片、調資源、避免壅塞。
________________________________________
🧠 三、AI-native RAN 的三大關鍵能力
________________________________________
⭐(1)Self-Configuration(自我配置)
剛建置時:
✔ 小區參數
✔ transmit power
✔ neighbor list
✔ CSI-RS density
→ 由 AI 自動學習最佳配置。
________________________________________
⭐(2)Self-Optimization(自我優化)
運作中自動調整:
✔ beam pattern
✔ PRB
✔ HARQ policy
✔ mobility threshold
✔ load distribution
傳統 SON(Self-Organizing Network)是規則式;
AI-native SON 是動態學習。
________________________________________
⭐(3)Self-Healing(自我修復)
AI 監控:
• RSRP / SINR 異常
• throughput 急降
• ρ 變動異常
• backhaul congestion
• 反射與多徑模式改變
能自動調整 beam、功率、handover、切片。
一句話:
⭐ AI-native RAN = 自己會調整 × 自己會學習 × 自己會修復。
________________________________________
🛰 四、為什麼 LEO / NTN 比地面 RAN 更需要 AI?
LEO 的特色:
• 衛星高速移動(7.5 km/s)
• Beam footprint 不斷變動
• Link 時好時壞(雨衰、多徑、遮蔽)
• Doppler 非常巨大
• Gateway switching 頻繁
傳統 rule-based control 完全無法處理。
AI 在 NTN 的用途:
✔ 預測 LEO beam cover
✔ 預測 Doppler shift
✔ 預測衛星 handover
✔ 無 CSI 時做 AI Beam Search
✔ 在極低 SNR 下做 AI 解調
一句話:
⭐ LEO × AI-native RAN = 必然組合,不是可選項。
________________________________________
🧠 五、ASCII 圖:AI-native RAN 架構
┌───────────────┐
│ Cloud AI │
│ (Train / RL) │
└───────▲───────┘
│ Model / Policy
│
┌────────┐ Metrics ┌────────────┐
│ UE │────────────▶ │ AI-native │
│Device │◀──────────── │ gNB │
└────────┘ Scheduling │ AI Policy │
│ Engine │
└────▲──────┘
│
┌──────┴──────┐
│ PHY / MAC / │
│ Scheduler │
└─────────────┘
這張 AI-native RAN 架構示意圖說明:基地台 AI-native gNB 內建 AI Policy Engine,即時接收來自 UE 的量測資訊(CSI、SINR、流量狀態),並將其轉化為排程、MCS、Beamforming 與行動性等決策,直接驅動 PHY / MAC / Scheduler。雲端 Cloud AI 則負責長時間尺度的模型訓練與強化學習,將更新後的策略下發至基地台,形成「雲端學習、邊緣即時決策」的閉環,使 RAN 從規則導向系統進化為可持續學習的網路。
________________________________________
🧩 六、模擬題
________________________________________
1️⃣ 專業題:為什麼 Massive MIMO 必須導入 AI Beamforming?
📦 答:
因為 codebook 不足以搜尋 64~256 天線的連續方向空間,
AI 能預測最佳波束,降低搜尋延遲並提升 SNR。
________________________________________
2️⃣ 應用題:為什麼 AI Scheduler 比 rule-based 更強?
📦 答:
排程是 NP-hard,AI 能同時考慮 PRB、channel、QoS、buffer 等多維度,
rule-based 無法動態找到最佳解。
________________________________________
3️⃣ 情境題:為什麼 LEO 通訊比地面更需要 AI?
A. LEO 太便宜
B. LEO 太穩定
C. LEO 時變性極高,需要 AI 預測通道 ✔
D. LEO 都是 MIMO-OFDM,不需要 AI
👉 LEO 衛星具高速移動、可見時間短與通道快速變化等特性,需仰賴 AI 進行通道、連線與切換的預測,才能維持穩定通訊品質。
________________________________________
🛠 七、實務演練題
1️⃣ 實作 AI Scheduler(DQN 模擬 PRB 分配)
2️⃣ 用 RNN 預測時變通道 h(t,f)
3️⃣ 用 CNN/Transformer 做 Beam Selection
4️⃣ 模擬 LEO Doppler × AI 預測
5️⃣ 實作一個多 Agent RL 控制 URLLC × eMBB 切片
________________________________________
✅ 八、小結:AI-native RAN 是 6G 的核心革命
✔ RAN 不再是 rule-based,而是 AI-driven
✔ AI Scheduler 讓 PRB / MCS / HARQ 自我最佳化
✔ AI Beamforming 讓 Massive MIMO 能真正發揮
✔ AI Channel Prediction 解決高速移動場景
✔ AI Traffic Forecast 避免壅塞
✔ NTN(LEO)比地面更依賴 AI
一句話:
⭐ 沒有 AI,就沒有 6G RAN。















