第三部《強化學習》100/100 第十週:全書總結和測驗與專案題 🌟

更新 發佈閱讀 24 分鐘

AI時代系列(3) 機器學習三部曲: 📘 第三部:《強化學習 —— AI 的決策與進化》

100/100 第十週:📌 部署、整合與未來展望

100. 全書總結和測驗與專案題 🌟 設計並部署一套完整的強化學習應用!

100. 全書總結與測驗 🌟

設計並部署一套完整的強化學習應用!

在這部劃下完美句點的第100單元中,我們迎來「從理論到實踐」的最終整合。經過前九章的系統學習,你已掌握從馬可夫決策過程(MDP)Q-learningPPO、SAC、A3C 等深度強化學習核心演算法,並理解如何在真實環境中部署、安全監控與優化策略。

這一章不僅是總結,更是實戰的起點

透過完整的「智慧HVAC節能控制」專案範例,你將學會如何從環境模擬、演算法選型、模型訓練、API部署、監控與A/B測試,全流程構建一個產業級的強化學習系統。這標誌著你從AI理論學習者,正式邁向AI系統設計者與創造者的階段。

本單元同時設計了最終測驗與行動指南,幫助你檢驗所學、深化實作。

更重要的是,它提醒我們:AI的真正價值,不在於取代人,而在於擴展人類智慧。

從「分類」的辨識,到「回歸」的預測,再到「強化學習」的決策,這三部曲完成了AI思維的三個層次。

未來,當我們邁向第四部《機器人學 —— AI的身體與行動》,將會見證智慧如何從大腦延伸至現實,從虛擬決策走向具體行動。

🎓 這不只是學習的終點,更是AI時代創造者的起點。

________________________________________

🎓 一、全書總結:從理論到實戰的知識地圖

📚 單元階段重點回顧

________________________________________

📖 第一章~第四章:強化學習的核心理論

o MDP(馬可夫決策過程)

o 貝爾曼方程

o 策略與價值函數

o TD 學習與 MC 學習

o 探索與利用平衡(Exploration vs Exploitation)

________________________________________

🤖 第五章~第七章:深度強化學習

o Q-learning 與 DQN

o Actor-Critic 架構

o 進階演算法:PPO、A3C 等

________________________________________

🤝 第八章:多智能體與競合學習

o 協作與對抗

o 零和博弈

o Nash 均衡應用

________________________________________

🏭 第九章:應用實戰

o 自駕車控制

o 金融交易機器人

o 智慧醫療診斷

o 智慧倉儲物流

o 教育個別化學習

o 物聯網智慧家居等場景落地案例

________________________________________

🚀 第十章:部署與整合

o Sim-to-Real 遷移學習

o Safe RL(安全強化學習)

o Edge RL 邊緣部署

o MLOps 工程整合

o RLHF(人類回饋學習)

o AutoRL(自動化強化學習)

o 價值對齊與倫理安全設計

📌 強化學習 = AI 的決策核心能力,具備從數學建模 → 策略學習 → 系統整合 → 應用部署的全鏈路知識。

________________________________________

🧭 二、專案設計指引:設計你的 RL 應用!

以下示範專案把「智慧 HVAC 節能控制」從 0 做到可線上服務,完整對應前面「10 週里程碑」。

(所有程式碼皆為可直接執行的範例,可依實際環境版本微調)

________________________________________

0. 專案骨架

hvac-rl/

├── env/ # EnergyPlus × Gym 環境

│ └── ep_env.py

├── train/ # 訓練與超參實驗

│ ├── train_sac.py

│ └── tune_config.yaml

├── export/ # 模型匯出 (TorchScript)

│ └── export_policy.py

├── serve/ # FastAPI + Ray Serve 服務

│ └── app.py

├── docker/ # Dockerfile & compose

│ └── Dockerfile

├── ci/ # GitHub Actions 工作流程

│ └── deploy.yml

└── README.md

________________________________________

1 – 2 週:環境建置

1. EnergyPlus 9.3 + Python API —— 透過 [rllib-energyplus] 提供的 EnergyPlusEnv,設定狀態(室溫、外溫、溼度…)、動作(冷氣/暖氣閥門開度)與獎勵:

python

reward = -electricity_kWh * 0.2 # 能耗

reward -= max(0, abs(zone_temp - 24) - 1) * 2 # 舒適偏差

在 EnergyPlus 9.3 環境下,透過 Python API 結合 [rllib-energyplus] 所提供的 EnergyPlusEnv,設定狀態如室溫、外溫、濕度,並透過控制冷暖氣閥門的開度作為動作,同時以電力消耗量(electricity_kWh)與室內溫度偏離舒適區間(以 24°C 為中心,允許±1°C 範圍)作為獎勵函數設計,獎勵計算為:

reward = -electricity_kWh * 0.2 - max(0, abs(zone_temp - 24) - 1) * 2

用以平衡能耗與舒適性。

2. 使用 Dockerfile 把 EnergyPlus CLI 與 Python 依賴一起包好,確保不同設備重現。github.com

________________________________________

3 週:Baseline

在 baseline_rule.py 中實作 雙點式控制(22 – 26 ℃ 開/關);

用 evaluate.py 產出 avg_reward_baseline = -34.7、kWh = 155,作為日後比較基線。

________________________________________

4 週:演算法選型

🔎 候選演算法比較

🟦 DQN

o 優點: 簡單、穩定

o 缺點: 需離散化動作空間,連續控制時會失真

🟧 PPO

o 優點: 支援連續動作;易於調整超參數

o 缺點: 收斂速度略慢

🟩 SAC(Soft Actor-Critic)

o 優點: 采樣效率高;透過熵正則化穩定探索,減少探索超參數調整難度

o 缺點: 記憶體需求較大

________________________________________

🎯 綜合評估:選用 Soft Actor-Critic (SAC)

SAC 已在 Ray RLlib 與 EnergyPlus 結合應用中驗證可省 15-25% 能耗。

📄 相關實證參考:

o GitHub 開源案例

o arXiv 論文實驗數據

_______________________________________


5 – 6 週:訓練與改良


python


import ray, gymnasium as gym

from ray import tune

from ray.rllib.algorithms.sac import SACConfig

from ep_env import EnergyPlusEnv


ray.init()


config = (SACConfig()

.training(gamma=0.99, lr=3e-4)

.environment(env=EnergyPlusEnv)

.rollouts(num_rollout_workers=4)

.resources(num_gpus=1))


tune.run(

"SAC",

config=config,

stop={"training_iteration": 300},

checkpoint_at_end=True,

local_dir="~/ray_results/hvac_sac")

透過 Ray Tune 做 LR、batch size、α 熵係數搜尋,並以 TensorBoard 監看。

收斂後成績:avg_reward = -18.2、kWh = 112 —— 能耗↓ 27 %、舒適度提升。

透過 Ray RLlib 以 SAC 演算法訓練 EnergyPlusEnv 環境,設定 γ=0.99、學習率 3e-4,使用 4 個 rollout worker 及 1 顆 GPU 執行訓練,並結合 Ray Tune 進行學習率(LR)、batch size 及熵係數 α 的超參數搜尋,訓練過程透過 TensorBoard 監控。最終收斂結果:平均獎勵 avg_reward = -18.2,電力消耗 kWh = 112,整體能耗下降 27%,同時提升舒適度表現。

________________________________________

7 週:模型匯出與推論服務

匯出 TorchScript

python

algo = SACConfig().build() # 載入 checkpoint

algo.restore(CHECKPOINT)

policy = algo.get_policy()

policy.export_model("export/hvac_sac_ts")

serve/app.py

python

import torch, ray

from fastapi import FastAPI

from ray import serve

from pydantic import BaseModel

class Obs(BaseModel):

zone_temp: float

outdoor_temp: float

humidity: float

time_of_day: int

model = torch.jit.load("hvac_sac_ts/model.pt")

@serve.deployment(route_prefix="/predict")

@serve.ingress(FastAPI())

class HVACAgent:

@serve.batch(max_batch_size=32, batch_wait_timeout_s=0.1)

async def __call__(self, obs_list: list[Obs]):

obs_tensor = torch.tensor([[o.zone_temp, o.outdoor_temp,

o.humidity, o.time_of_day]

for o in obs_list])

action, _ = model(obs_tensor)

return action.tolist()


app = HVACAgent.bind()

if __name__ == "__main__":

ray.init()

serve.run(app, host="0.0.0.0", port=8000)

curl -X POST http://localhost:8000/predict -d '{"zone_temp":25, ...}'

→ 回傳 0 ~ 1 間連續值(冷氣閥門開度)。

以上流程遵循 Ray Serve × FastAPI 官方用法,可無縫水平擴充。docs.ray.iodocs.ray.io

完成 SAC 訓練後,將模型透過 policy.export_model() 匯出為 TorchScript 格式,方便部署。在推論端,使用 FastAPI 搭配 Ray Serve 建立 API 服務,定義觀測資料類別 Obs,接收如室內溫度、室外溫度、濕度及時間等輸入,經由已載入的 TorchScript 模型預測冷氣閥門的開度(連續值 0~1)。API 支援批次推論(最大批次 32,等待時間 0.1 秒),並可透過 curl 進行測試。整個架構遵循 Ray Serve 與 FastAPI 官方標準實作,具備良好的橫向擴展性與雲端部署能力。

________________________________________

8 週:CI/CD 與監控

1. GitHub Actions (ci/deploy.yml):

o push ➜ build Docker ➜ push to GHCR ➜ 部署到 K8s (Helm)

2. Prometheus + Grafana:收集 energy_kWh, comfort_penalty, action_latency_ms;設定阈值告警。

3. Canary Release:50 % 流量導向新模型,若 24 h 內 reward 未惡化則全量切換。

整體部署流程採用 GitHub Actions 自動化:當程式碼 push 後,自動建置 Docker 映像並推送至 GHCR,隨後透過 Helm 部署至 Kubernetes 叢集。系統透過 Prometheus 與 Grafana 進行能耗(energy_kWh)、舒適懲罰(comfort_penalty)、與推論延遲(action_latency_ms)等指標的監控與告警。新模型上線採用 Canary Release 策略,初期引導 50% 流量,若 24 小時內 reward 未出現惡化則自動擴大至全量切換,確保模型穩定性與用戶體驗。

________________________________________

9 週:效益評估

指標 Baseline SAC Agent 改善

24 h 能耗 (kWh) 155 112 -27 %

舒適度偏差 (°C·h) 8.1 4.9 -39 %

年省電費(試算) ≈ NT$ 11.4 萬/棟

________________________________________

10 週:Demo & 白皮書

影片:以 Streamlit 儀表 + 實時環境狀態圖示,展示在不同外溫條件下動作決策。

技術白皮書:

o 架構圖(K8s、Ray Cluster、EnergyPlus Pod);

o Reward 構造與安全約束設計;

o 模型更新策略(週期離線微調+on-policy fine-tune);

o 成本–效益分析,含碳排放量減少換算。

________________________________________

進階挑戰

1. Safe RL:加入溫濕度上限約束,使用 Lagrangian SAC;

2. 多棟遷移學習:同一策略在 3 棟樓 transfer,平均 reward ≥ -22;

3. 線上學習:以滑動窗口 replay buffer 混合最新實際資料,對抗天候變化。

________________________________________

結語

本範例示範了 EnergyPlus × Ray RLlib × Ray Serve 的產業級落地路徑:

環境模擬 → RL 訓練 → TorchScript 匯出 → FastAPI API → Docker/K8s 部署 → 監控與 A/B Test。

只要替換 ep_env.py 與 reward,即可快速延伸到其他建築或設備控制場景。

____________________________________

📘 三、總測驗:你已準備好進入 RL 世界嗎?

✅ 單選題(5題)

1️⃣ 強化學習中「Actor-Critic」方法的核心是?

A. 全部使用值函數

B. 僅使用策略函數

✅ C. 策略與值函數同時學習

D. 採用隨機森林進行決策

2️⃣ 多智能體學習中「零和博弈」的定義為?

A. 所有智能體都可以獲利

✅ B. 一方得益即另一方損失相同

C. 所有智能體回報皆為負

D. 一方為主策略,另一為次策略

3️⃣ 以下何者是強化學習應用於「離線日誌學習」的方法?

A. PPO

B. DDPG

✅ C. CQL

D. TRPO

4️⃣ 若 RL 模型需在低算力設備中即時運行,應考慮?

A. 批量學習

✅ B. 模型壓縮與 Edge RL

C. 高維觀察空間

D. 離線演算法

5️⃣ 下列哪個是「人機共生式學習」的應用?

✅ A. RLHF 強化對話訓練

B. GAN 合成圖片

C. LLM 文本生成

D. SVM 二元分類

________________________________________

✍️ 簡答題

1️⃣ 解釋什麼是「Safe RL」,並舉一個應用場景。

簡答:

Safe RL(安全強化學習)是指在訓練與部署強化學習模型時,加入風險限制與安全約束,避免因探索或決策錯誤導致不可接受的損失。

應用場景:

自駕車系統在訓練過程中,Safe RL 可防止車輛執行危險的探索動作(如急轉彎、碰撞),保障安全性。

2️⃣ 描述「PPO」與「DQN」在策略學習上的主要差異。

簡答:

DQN 屬於 價值型方法,透過學習 Q 值(狀態-行動價值)來間接推導策略,適用於離散動作空間。

PPO 屬於 策略型方法,直接學習與更新策略分布(policy),適用於連續與離散動作空間,並透過裁剪機制穩定策略更新,避免劇烈變動。

3️⃣ 舉例說明如何將 RL 應用在教育領域中的個別化學習。

簡答:

強化學習可以依據學生的答題表現動態調整出題難度,讓 AI 教學系統針對每位學生提供最佳練習題目。例如:當學生在某數學單元掌握良好時,系統自動提升挑戰難度;若答題錯誤較多,則回退補充基礎題,實現個人化學習路徑。

_______________________________________

🚀 四、未來行動建議

✅ 選定一個領域(遊戲、醫療、物流…)嘗試用 RL 解題

✅ 開始熟練 Stable-Baselines3 或 RLlib 的操作

✅ 學習如何建構 Gym 環境,並調整 reward shaping

✅ 閱讀實務論文(ex. DeepMind、Meta、OpenAI)找趨勢

✅ 反思 AI 的倫理與社會責任,設計「共生式 AI」

________________________________________

🎓 AI時代系列.機器學習三部曲:總結與展望

從第一部《分類 —— 機器學習的入門與應用》,我們學會如何讓機器辨識世界的樣貌,判斷貓還是狗、垃圾郵件還是重要訊息;

第二部《回歸 —— 數據預測的藝術與科學》,我們走入了連續世界,讓AI能夠預測房價、氣溫或銷售量;

直到第三部《強化學習 —— AI 的決策與進化》,我們開始教機器不只是看和預測,更要行動與決策,在環境中試錯學習。

📘 機器學習三部曲的三大核心

1️⃣ 學習觀察(分類)

讓AI具備「辨識」的能力,從大量數據中抽取模式。

2️⃣ 學習預測(回歸)

讓AI可以「估計」未來,用已知資料去捕捉未知的數值變化。

3️⃣ 學習行動(強化學習)

讓AI進入「決策」階段,與環境互動,自主演化出最佳策略。

🧠 從工具使用者走向系統設計者

這三部曲的核心精神,不只在於學習某種演算法,更在於培養以下四種能力:

資料觀察力:懂得從雜亂中挖出結構

建模能力:理解資料與目標之間的數學關係

問題拆解力:能夠將任務轉化為機器學習問題

系統思維:能整合不同技術,解決真實世界問題

🚀 進入下一個階段:AI 時代的創造者

完成三部曲的學習,你已經具備一個現代AI工程師的基本核心。接下來,你可以思考:

如何結合這些模型開發一個產品?

如何在產業中發揮AI的價值?

如何用這些技術解決你在社會、企業或人生中關心的問題?

💬 結語勉勵

AI 不只是工具,而是一種「思維方式」。

學習機器學習,是在鍛鍊你面對不確定世界時的邏輯與創造力。

請記得:

每一個模型,都是一種看待世界的方法。

每一個資料點,都是世界的縮影。

你所訓練的,不只是AI,而是你自己認識世界的方式。

________________________________________

🎉 恭喜你完成第 100 單元!

🚀 開啟屬於你的 AI 強化學習時代!

🔜 系列預告|AI時代系列 (4)

《AI 驅動的電信網路規劃與設計 📡 —— 從頻譜到智慧營運的全域革新》

在這個數據爆炸與萬物互聯的時代,電信網路不再只是訊號的橋樑,而是人工智慧的戰略中樞。

AI 時代系列第四部《AI 驅動的電信網路規劃與設計》,將帶你全面剖析 5G → 6G 的演進邏輯、網路智能化的設計思維、頻譜與拓撲規劃、CAPEX/OPEX 成本優化、AI-SON 自動化營運、MEC 邊緣運算與智慧切片策略

本書將融合 AI 演算法 × 通訊工程 × 系統思維,以理論結構 + ASCII 架構圖 + 實務演練題的方式,打造能從零設計、預測與優化整體網路的專業藍圖。

🚀 準備好讓 AI 幫你規劃城市的神經系統,開啟下一代智慧連網時代吧!






留言
avatar-img
留言分享你的想法!
avatar-img
Hansen W的沙龍
16會員
388內容數
AIHANS沙龍是一個結合AI技術實戰、產業策略與自我成長的知識平台,主題涵蓋機器學習、生成式AI、創業經驗、財務規劃及哲學思辨。這裡不只提供系統化學習資源與實作案例,更強調理性思維與行動力的結合。無論你是AI初學者、創業者,還是追求人生升維的行者,都能在這裡找到前進的方向與志同道合的夥伴。
Hansen W的沙龍的其他內容
2025/10/16
人機共生式強化學習(HITL-RL)與價值對齊(Value Alignment)讓AI從執行任務進化為理解人類意圖、遵守倫理與合作共生。透過RLHF、逆強化學習與憲法式AI,實現安全、可信、為人服務的智慧體系。
2025/10/16
人機共生式強化學習(HITL-RL)與價值對齊(Value Alignment)讓AI從執行任務進化為理解人類意圖、遵守倫理與合作共生。透過RLHF、逆強化學習與憲法式AI,實現安全、可信、為人服務的智慧體系。
2025/10/16
AutoRL 透過自動化超參數、演算法與架構搜尋,讓強化學習部署更高效;Meta-RL 讓 AI 具備跨任務遷移與快速適應能力,是通往通用人工智慧(AGI)的關鍵一步。
2025/10/16
AutoRL 透過自動化超參數、演算法與架構搜尋,讓強化學習部署更高效;Meta-RL 讓 AI 具備跨任務遷移與快速適應能力,是通往通用人工智慧(AGI)的關鍵一步。
2025/10/16
強化學習帶來自主決策能力,也引發倫理風險。若獎勵設計或監督不當,可能導致偏見、誤判與長期社會傷害。唯有建立可解釋、安全限制與多方監督機制,才能確保RL成為負責任的智慧技術。
2025/10/16
強化學習帶來自主決策能力,也引發倫理風險。若獎勵設計或監督不當,可能導致偏見、誤判與長期社會傷害。唯有建立可解釋、安全限制與多方監督機制,才能確保RL成為負責任的智慧技術。
看更多
你可能也想看
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經有資料集在 AI說書 - 從0開始 - 103 ,必要的清理函數在 AI說書 - 從0開始 - 104 ,現在把它們湊在一起,如下: # load Eng
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經有資料集在 AI說書 - 從0開始 - 103 ,必要的清理函數在 AI說書 - 從0開始 - 104 ,現在把它們湊在一起,如下: # load Eng
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News