📘 《AI 時代系列(6):進階通訊工程——邁向2035年太空星鏈網路時代》
📘 第 6周 🚦 網路會塞車嗎?排隊理論 × 切片 × 資源管理
網路容量與壅塞控制的核心科學
60/150單元: 第六周小結 × 測驗 🔄 LEO 能見度 × 流量預測
________________________________________
🎯 單元導讀
第 6 章帶你從 一條隊伍的 M/M/1,一路走到 AI 主導的 6G 壅塞管理。
本章不是單純介紹排隊理論,而是揭示:
📌「所有網路延遲,本質上都是排隊造成的。」
📌「所有壅塞控制,本質上都是在控制 ρ。」
(ρ = λ / μ,或 M/M/k 的 ρ = λ / (kμ))
從基地台到核心網、從 MEC 到 LEO Starlink、從 URLLC 任務到 eMBB 爆量流量——
延遲不是來自空中介質,而是因為:伺服器(資源)沒空、大家排隊。
在這 10 個單元中,你學到:
✔ 什麼情況下 Queue 會在 10ms 內爆滿
✔ 為什麼 6G 的低延遲不是靠更強硬體,而是靠 AI
✔ 為什麼 URLLC 必須有獨立切片(不跟 eMBB 排隊)
✔ 為什麼 LEO 容易 burst、GEO 容易 delay
✔ 為什麼流量模型不是 Poisson,而是自相似
✔ 為什麼 PRB、Queue、切片三者要同時控制
現在讓我們回顧整章的核心洞察。
________________________________________
🧠 一、第 6 章總覽:網路壅塞的科學本質
________________________________________
⭐ 51. M/M/1:延遲的第一原則
最簡單的排隊模型,卻揭露最深刻的真相:
📌 只要 ρ → 1,延遲 → 無限大。
📌 Queue 才是所有延遲的來源(不是調變,也不是編碼)。
這就是「延遲爆炸(Delay Explosion)」的本質。
________________________________________
⭐ 52. M/M/k:多核心、多天線、多伺服器
現實世界從來不是單伺服器,而是:
• 多核心 UPF
• Massive MIMO
• 多波束 LEO
• MEC cluster
• Data center worker pool
但你學到了:
📌 k 增加 ≠ 延遲線性下降
📌 ρ → 1 時,延遲依然爆炸(即使 k 很大)
這解釋了為什麼基地站加再多天線仍無法救高流量城市。
________________________________________
⭐ 53. Little’s Law:網路的神級等式
L = λW
不管你是:
• LEO satellite
• gNodeB
• router
• switch
• MEC
• UPF
• CDN
全部都逃不掉此公式。
📌 流量 × 延遲 = 系統中同時存在的封包數
這讓工程師能以「整體觀」衡量負載。
________________________________________
⭐ 54. 流量建模:Poisson 不再是主角
你學到三種現實 traffic:
✔ eMBB:自相似、自相似、自相似
✔ IoT:週期同步 burst
✔ 雲端遊戲:上傳突發
✔ LEO:beam loading+mobility pattern
因此:
📌 真實網路 traffic ≠ Poisson
📌 真實網路是重尾、burst、相關性的混合
________________________________________
⭐ 55. LEO vs GEO:延遲的宿命差異
LEO:
• 低延遲(25–40ms)
• 高變動(beam handover)
• burst 受天線 footprint 影響
GEO:
• 固定高延遲(~500–600ms)
• traffic 較穩定
• 適合影片、廣播
重點:
📌 LEO 延遲低但容易壅塞
📌 GEO 延遲高但較可控
________________________________________
⭐ 56. 排隊理論 × URLLC
URLLC 想要 1ms:
• 不能排隊
• 不能和 eMBB share
• 不能讓 ρ 超過 0.1–0.2
• 必須使用獨立 mini-slot
• 必須 multi-connect(redundant path)
URLLC 本質是:
📌 用資源換延遲,用冗餘換可靠度。
________________________________________
⭐ 57. 切片資源分配:真正的多車道
Slicing 的真相:
• 每種服務都有自己的 μ(處理速度)
• 切片 = 分車道
• eMBB → 高吞吐
• URLLC → 極低延遲
• mMTC → 超大量設備
📌 沒有切片,就沒有 6G。
📌 切片不是 QoS,而是完整的資源隔離。
________________________________________
⭐ 58. URLLC 的延遲極限
URLLC 要做到:
• 0.1ms 內排程
• 0.5ms 空中傳遞
• <1ms E2E latency
• packet loss < 10⁻⁵
最大的瓶頸:
📌 Queue
📌 Scheduling
📌 Processing
因此你學到:
📌 URLLC 必須與 eMBB 隔離(硬切片)
📌 URLLC 必須與 AI 搭配(預測+保留資源)
________________________________________
⭐ 59. AI 流量預測:6G 的真正靈魂
AI 用 LSTM / Transformer 預測:
• 下一個 10ms 的 λ
• 下一個 100ms 的 burst
• 哪個 slice 即將爆量
• 哪個 queue 會滿
• 哪個 beam 會擠爆
AI 自動調整:
• PRB
• slicing priority
• queue policy
• scheduling
• routing / handover
📌 6G = AI-native network
📌 沒有 AI,就沒有低延遲,也沒有穩定性。
________________________________________
🧠 二、本章最重要的一句話
⭐ **控制 ρ(利用率),就是控制延遲。
控制 Queue,就是控制整張網路的人生。**
________________________________________
(1)M/M/1 延遲爆炸的條件是什麼?
在 M/M/1 系統中,當系統利用率 ρ = λ / μ → 1 時,代表到達率幾乎等於服務能力,系統失去緩衝空間,任何微小的流量波動都會導致佇列快速累積,使平均等待時間趨近無限,形成所謂的「延遲爆炸」。
________________________________________
(2)為什麼增加伺服器數量(k)不能根本解決高流量壅塞?
在 M/M/k 中,利用率為 ρ = λ / (kμ)。雖然增加 k 能短期降低 ρ,但若流量 λ 持續成長或具有 burst 特性,ρ 仍會再次逼近 1。換言之,增加伺服器只是延後壅塞發生,無法改變「流量成長速度大於服務能力成長速度」的結構性問題。
________________________________________
(3)Little’s Law(L = λW)告訴我們什麼?
Little’s Law 指出,在穩定系統中,系統內的平均封包數 L 等於到達率 λ 乘上平均延遲 W。這代表只要流量固定,任何延遲的增加都會直接反映為佇列累積;反過來,只要看到 buffer 變大,就能推斷延遲正在惡化,是所有網路與排隊系統最基本且普適的關係式。
________________________________________
(4)以下哪一種 traffic 不是 Poisson?
eMBB 長影片流量屬於自相似(self-similar)流量,具有長期相關性與突發行為,不符合 Poisson 流量「到達獨立、無記憶性」的假設,因此更容易造成瞬時壅塞。
________________________________________
(5)LEO 的延遲雖低,為什麼反而更容易壅塞?
LEO 系統中,衛星高速移動導致用戶與波束不斷切換,再加上 beam loading,使流量在短時間內集中到特定波束,形成高強度 burst。即使物理傳播延遲低,排隊延遲仍可能快速上升。
________________________________________
(6)URLLC 為何不能與 eMBB 共用同一個 Queue?
URLLC 對延遲的容忍度極低(<1 ms),而 eMBB 流量具有高吞吐與 burst 特性,一旦共用佇列,eMBB 的排隊行為就會引入不可預測的延遲,使 URLLC 的可靠度與時效性無法保證。
________________________________________
(7)切片(Slicing)的本質是什麼?
切片的本質不是頻寬切割,而是在系統層面建立不同的服務能力 μ、獨立的 Queue 與差異化的 PRB 排程策略,讓不同 traffic 的延遲、可靠度與吞吐需求彼此隔離。
________________________________________
(8)URLLC 延遲的最大瓶頸來自哪裡?
在 URLLC 系統中,真正的延遲瓶頸通常來自 排程與佇列等待,而非空中傳輸時間本身。只要排程稍有延誤,就可能使整體延遲超標。
________________________________________
(9)AI 流量預測的最終目標是什麼?
AI 的目標不是事後調整,而是提前預測 流量到達率 λ、burst 行為、系統利用率 ρ 與 Queue 成長趨勢,在壅塞發生前主動調整資源配置,避免延遲進入不可逆的爆炸區域。
________________________________________
(10)控制壅塞的唯一核心變數是什麼?
所有壅塞與延遲問題,最終都可回溯到 系統利用率 ρ = λ / (kμ)。只要 ρ 被有效控制在安全範圍內,排隊延遲就不會失控;一旦 ρ 逼近 1,任何系統都無法倖免。
________________________________________
📘 第 6 章|學習後的收穫
透過本章,讀者不只是理解排隊理論,而是掌握了:
• 延遲的根本原因(Queue)。
• 壅塞的根本機制(ρ)。
• 切片與 URLLC 的工程必要性。
• LEO 與 GEO 的延遲結構差異。
• AI 是未來 6G load control 的必然。
本章的本質不在於公式,而在於:
⭐「如何用數學預測網路塞車,並用工程方法避免它。」
⭐「如何讓 AI 接管排程與資源分配,使網路自己平順運行。」
掌握這些概念,等於掌握 6G 的延遲、穩定性與容量的未來。














