🔹 繼續學習第二部:AI時代系列(2)《深度學習 —— 神經網路的革命》

更新於 發佈於 閱讀時間約 16 分鐘

AI時代系列(2) 機器學習三部曲: 🔹 第二部:《深度學習 —— 神經網路的革命》


🔹 繼續學習第二部:《深度學習 —— 神經網路的革命》


➡ 深入解析 CNN、RNN、Transformer 等深度學習技術,讓 AI 具備類人智慧,突破傳統機器學習的限制!


在完成了第一部《機器學習》的基礎訓練後,相信你已經理解資料如何驅動模型、掌握了監督與非監督學習的精髓,並能理解基本模型部署。但若要讓 AI 更進一步「看得懂影像、聽得懂語音、理解語意」,你需要進入真正的智慧殿堂 —— 深度學習。


這一部將帶你踏入神經網路的世界,從模擬大腦結構的 多層感知器 MLP 開始,到能辨識圖像的 卷積神經網路 CNN,再進入處理語音與文本的 循環神經網路 RNN,最終進化到革命性的 Transformer 架構,支撐起今日的 ChatGPT、BERT、AlphaFold 等奇蹟。


這不只是技術的進化,更是一場 智慧形態的轉變。你將學會如何設計網路結構、如何選擇激活函數與優化器、如何訓練出穩定而強大的模型。


深度學習不再只是概念,而是一套可以實作、部署、創造價值的完整系統。

準備好了嗎?讓我們一起揭開神經網路的秘密,開啟 AI 類人智慧的革命之路!


📌 第 1 章:深度學習基礎入門(10 單元)


1. 什麼是深度學習?🧠 模仿人腦神經網路的智慧革命!

2. 深度學習與傳統機器學習的差異 🔍 自動特徵學習,讓模型自己找到關鍵!

3. 神經網路的基本結構:感知機 🧩 每一層神經元都在幫你解決問題!

4. 前向傳播與反向傳播原理 🔄 資訊流動 + 誤差修正 = 學習核心!

5. 激活函數介紹 🔥 ReLU、Sigmoid、Tanh 決定模型的生命力!

6. 損失函數與優化器概念 📉 幫助模型走向正確方向的指南針!

7. 深度學習的應用場景 🌐 語音、影像、語意、創作全方位開花!

8. 過擬合與正則化方法 🧪 Dropout、L2 正則化讓模型不作弊!

9. 訓練、驗證與測試資料切分 📂 別讓模型偷看到答案!

10. 小結與測驗:手寫數字分類(MNIST)🖊 用 TensorFlow 練習第一個深度模型!

________________________________________


📌 第 2 章:多層感知器 MLP(10 單元)


11. 多層感知器結構解析 🏗 輸入層 → 隱藏層 → 輸出層一氣呵成!

12. 為什麼需要隱藏層?🧱 加深模型,學出抽象概念!

13. 激活函數深入解析 🔧 非線性,才是智慧的來源!

14. 學習率與梯度下降技巧 📉 調得好,收斂快又穩!

15. 損失函數實例:交叉熵 vs 均方誤差 ⚖ 不同任務選對工具才有效!

16. 批次訓練與迷你批次策略 📦 批次訓練讓模型更有效率!

17. 權重初始化技巧 🌱 好的開始是成功的一半!

18. 早停法與模型保存 🛑 避免過度訓練,保留最好版本!

19. Dropout 原理與實作 🌧 模擬腦袋忘記部分連結以增加泛化力!

20. 小結與測驗-:兩層感知器分類玩具資料 🎮 開始打造屬於你的神經網路!

________________________________________


📌 第 3 章:卷積神經網路 CNN(10 單元)


21. CNN 的誕生與應用 👁‍🗨 讓電腦學會「看」!

22. 卷積層原理 🧩 濾鏡滑動提取圖像特徵!

23. 池化層(Pooling)作用 📉 降維又保特徵!

24. 卷積步長與填充策略 ⛓ 控制輸出尺寸的關鍵!

25. 多通道輸入與多濾鏡輸出 🎨 處理彩色圖像必備技巧!

26. CNN 模型架構範例 🏛 LeNet、AlexNet 到 ResNet!

27. 批次正規化(Batch Norm)⚖️ 穩定訓練與加速收斂!

28. Flatten 與全連接層 📐 將特徵轉換為分類依據!

29. 圖像增強與資料擴充 📸 模擬多樣環境提升泛化力!

30. 小結與測驗:貓狗分類器 🐱🐶 自己訓練會辨別的眼睛!

________________________________________


📌 第 4 章:循環神經網路 RNN(10 單元)


31. RNN 基本結構與用途 ⏳ 理解時間與順序的神經網路!

32. 隱藏狀態與時間步演算 🧭 記住過去的記憶!

33. 梯度消失與長短期記憶 LSTM 💡 解決 RNN 的遺忘問題!

34. 門控循環單元 GRU ⛩ 輕量替代 LSTM 的智慧選擇!

35. 多層 RNN 與雙向 RNN 🔄 往前也往後看,語境更完整!

36. 序列到序列模型(Seq2Seq)📨 從輸入序列預測輸出序列!

37. 教師強制與注意力機制 🎯 引導模型專注重要資訊!

38. 文本分類實作 🗂 RNN 分析影評正負面!

39. 語音訊號與時間序列預測 📈 RNN 看穿趨勢變化!

40. 小結與測驗:LSTM 生成故事 📝 讓 AI 接著寫!

________________________________________


📌 第 5 章:生成對抗網路 GAN(10 單元)


41. GAN 介紹與對抗思維 🥊 一個騙子,一個警察,互相訓練!

42. 生成器與判別器架構 🏗 你生成,我辨別,一場博弈!

43. 損失函數與訓練技巧 🎯 抓住平衡,避免模式崩潰!

44. DCGAN 原理與應用 🎨 卷積式生成圖像神器!

45. Conditional GAN (cGAN) 🎯 指定條件生成指定類別圖像!

46. StyleGAN 與圖像創作革命 💅 讓 AI 畫出有風格的臉!

47. CycleGAN 圖像轉換應用 🐴→🐓 圖像風格無縫變換!

48. 訓練不穩問題與解法 ⚠ 判別器太強也不行!

49. GAN 在娛樂與藝術的應用 🌈 從漫畫到虛擬偶像都靠它!

50. 小結與測驗:DCGAN 生成人臉圖像 🧑‍🎨 創造屬於自己的虛擬角色!

________________________________________


📌 第 6 章:轉換器架構與注意力機制(Transformers & Attention)🔍


51. 為什麼要用 Transformer?🚀 替代 RNN 處理長距依賴的利器!

52. Attention 機制原理 ✨「注意力」讓模型專注關鍵位置!

53. Self-Attention 自我注意力機制 🧠 一句話內的詞也能彼此互相理解!

54. Position Encoding 位置編碼 📏 解決沒有順序感的問題!

55. Transformer 架構總覽 🏗 多頭注意力 + 前饋層 + 殘差連結!

56. 多頭注意力(Multi-Head Attention)🎯 看得廣又細,才能全面理解!

57. Encoder-Decoder 架構 ✉️ 編碼與解碼的完美協作!

58. 訓練技巧與 LayerNorm 🌪 穩定訓練,提升收斂效果!

59. 應用實例:翻譯、摘要、聊天機器人 🌍 一網打盡自然語言任務!

60. 小結與測驗:用 Transformer 訓練中英文翻譯模型 🌐 自己打造多語言橋樑!

________________________________________


📌 第 7 章:語言模型與生成式 AI(BERT、GPT)🗣


61. 預訓練語言模型概念 📚 預先學會「語言的常識」,再微調任務!

62. BERT 架構與掩蔽語言模型 🎭 從遮住字詞中學習理解語意!

63. GPT 架構與自回歸生成 ✏ 一個字一個字寫出來的神奇魔法!

64. BERT vs GPT:理解與生成之爭 ⚔ 各有千秋,場景不同應用!

65. 微調(Fine-tuning)技巧 🧑‍🔧 將通用知識轉為專用能力!

66. Prompt Engineering 與 In-Context Learning 🪄 給出提示,引出智慧!

67. ChatGPT 與對話生成 🧑‍💻 模擬人類語言互動的巔峰!

68. Embedding 向量與語意空間 🌌 語意其實是可以「畫」出來的!

69. 應用場景:摘要、情緒分析、客服機器人 📩 文本任務一網打盡!

70. 小結與測驗:用 HuggingFace 建立情緒分析模型 😊😡 訓練你的情感解讀 AI!

________________________________________


📌 第 8 章:自監督學習與預訓練技術 🔁


71. 什麼是自監督學習?🔧 不用人工標註,自己產生訓練任務!

72. 對比學習(Contrastive Learning)🔍 學會分辨相似與不同!

73. SimCLR 與 MoCo 框架解說 📸 自學圖像特徵的典範!

74. BYOL 與 DINO:不依賴負樣本也能學 👯‍♀️ 進一步強化特徵辨識力!

75. 自監督在 NLP 的應用 🤓 單詞遮蔽、語序打亂、片段排序皆可訓練!

76. 多模態預訓練(文字 + 圖像)🧠 CLIP 和 Flamingo 掌握語圖之道!

77. 資料擴充與對比資料組合 📈 提升模型的泛化與魯棒性!

78. 自監督與少樣本學習結合 🔎 資料少,也能學得好!

79. 應用範例:X-ray 診斷、金融異常偵測 🏥💰 從少量資料中挖寶!

80. 小結與測驗:SimCLR 處理 CIFAR-10 🧪 只靠資料自己學會分類!

________________________________________


📌 第 9 章:深度強化學習(Deep Reinforcement Learning)🎮


81. 強化學習基本概念 🕹 智慧體 + 環境 + 回饋機制!

82. 獎勵函數與策略學習 💰 最大化總回報是最終目標!

83. Q-Learning 與策略網路 🧭 學會每一步的最佳選擇!

84. Deep Q-Network (DQN) 🎲 結合深度學習的強化學習典範!

85. 探索 vs 利用(Exploration vs Exploitation)🔄 試錯與策略平衡的藝術!

86. 策略梯度與 Actor-Critic 🧠 分工合作穩定訓練!

87. AlphaGo 的成功秘密 ♟ 蒙地卡羅樹搜尋 + 策略網路完美配合!

88. 多智能體學習(Multi-Agent RL)🤝 團隊合作也能學!

89. 模擬環境與 Gym 實作 🧪 讓 AI 在虛擬世界中磨練!

90. 小結與測驗:AI 玩經典遊戲 CartPole 🎮 訓練會「平衡木」的智慧體!

________________________________________


📌 第 10 章:部署、壓縮與邊緣 AI 應用(Edge AI & Deployment)📦


91. 模型部署管道總覽 🖥 Web、APP、IoT 各平台部署策略!

92. 使用 ONNX 與 TensorRT 壓縮模型 📦 讓大模型變得可攜又快!

93. 量化(Quantization)與剪枝(Pruning)✂ 壓縮不等於犧牲表現!

94. Edge AI 與 IoT 應用 🤖 現場即時分析,離線也能聰明!

95. 模型壓縮與運算成本評估 💸 成本、效能與精度的三角平衡!

96. 用 Flask/Gradio 做模型 API 📡 把你的 AI 變成雲端服務!

97. TensorFlow Lite 與移動端部署 📱 AI 跑在手機不是夢!

98. 模型更新與 A/B 測試策略 🔄 線上部署也要持續學習!

99. 模型安全與對抗樣本 🛡 AI 也需要防駭機制!

100. 總結與測驗:打造你的 AI 應用雛型 🚀 將學到的模型部署上線!

________________________________________


當你完成了這部《深度學習 —— 神經網路的革命》,你不僅踏遍了從模仿人腦神經元到構建多層網路的關鍵階段,更實際掌握了讓 AI 從「看得懂」圖像到「聽得懂」語音、再到「理解並產生」語言的完整能力。這一部教材不再停留於理論,而是引導你動手建構與部署深度學習系統,將抽象的神經網路轉化為可落地的應用實力。


在這段學習歷程中,你系統性掌握了 MLP、CNN、RNN、LSTM、GRU 等模型的設計與訓練方法,深入理解 Transformer、BERT、GPT 等當代語言模型的原理與應用邏輯,並實作了語言生成、圖像創作、自監督學習等進階任務,最終學會將模型部署與壓縮,讓 AI 技術真正應用於現實。


此刻的你,已具備獨立打造 AI 系統的能力,並已站上從「理解世界」走向「決策世界」的起點。下一步,將是邁向第三部《強化學習 —— AI 的決策與進化》,引領 AI 從學習如何感知與理解,進一步掌握如何選擇、試錯與行動,實現真正的智慧進化。

________________________________________


🔜 準備邁向第三部:《強化學習 —— AI 的決策與進化》


➡ 學習 AlphaGo、機器人、自駕車背後的強化學習原理,讓 AI 透過試錯與獎勵機制,自主學習最優決策!


與前兩部主要處理「理解」與「感知」任務不同,**強化學習(Reinforcement Learning)**是 AI 學會「行動」與「決策」的關鍵所在。它不仰賴明確答案,而是在環境中透過試錯、自我回饋、最大化回報來不斷進化。


在這第三部中,我們將揭開:


AI 如何透過回饋學習決策策略(從 Q-Learning 到 DQN)

AlphaGo 如何運用蒙地卡羅樹搜尋與策略網路擊敗人類棋王

自駕車、智慧機器人如何處理動態環境中的行動選擇

強化學習與深度學習如何結合為「深度強化學習」

如何設計訓練環境,模擬 AI 的行動學習過程


這是 AI 最接近「自主智慧」的領域。

________________________________________


🎯 準備好讓你的 AI 不只會看、會聽,還能自己決策並行動嗎?

讓我們進入 AI 時代的第三部曲,全面開啟自主學習與智能演化的探索之路!


AIGAITEC 2060

(AIHANS Innovative General Artificial Intelligence TEChnology)

2025.05.20



留言
avatar-img
留言分享你的想法!
avatar-img
Hansen W的沙龍
2會員
106內容數
AIHANS沙龍是一個結合AI技術實戰、產業策略與自我成長的知識平台,主題涵蓋機器學習、生成式AI、創業經驗、財務規劃及哲學思辨。這裡不只提供系統化學習資源與實作案例,更強調理性思維與行動力的結合。無論你是AI初學者、創業者,還是追求人生升維的行者,都能在這裡找到前進的方向與志同道合的夥伴。
Hansen W的沙龍的其他內容
2025/06/01
通用人工智慧(AGI)被視為AI終點,讓機器跨領域推理、學習與自省,如人類般適應未知。近年大型語言模型、多模態融合、神經符號混合與自進化代理帶來突破,但仍受常識推理、價值對齊、算力與倫理風險所限。本章結合理論、研究與框架,並透過測驗檢視你對AGI路徑、關鍵技術與挑戰的理解,引領你迎向下一波AI革命。
Thumbnail
2025/06/01
通用人工智慧(AGI)被視為AI終點,讓機器跨領域推理、學習與自省,如人類般適應未知。近年大型語言模型、多模態融合、神經符號混合與自進化代理帶來突破,但仍受常識推理、價值對齊、算力與倫理風險所限。本章結合理論、研究與框架,並透過測驗檢視你對AGI路徑、關鍵技術與挑戰的理解,引領你迎向下一波AI革命。
Thumbnail
2025/06/01
量子機器學習結合量子位疊加與糾纏,於特徵映射、優化與生成模型上展現指數級並行潛力,可望破解高維資料與組合爆炸,為藥物發現、材料設計、金融組合優化開啟新境界;同時透過變分量子電路、混合量子經典框架,降低當前NISQ器件雜訊及量子位限制,提前佈局未來量子優勢時代,值得企業學研界立即試水佈局,搶占算力高地
Thumbnail
2025/06/01
量子機器學習結合量子位疊加與糾纏,於特徵映射、優化與生成模型上展現指數級並行潛力,可望破解高維資料與組合爆炸,為藥物發現、材料設計、金融組合優化開啟新境界;同時透過變分量子電路、混合量子經典框架,降低當前NISQ器件雜訊及量子位限制,提前佈局未來量子優勢時代,值得企業學研界立即試水佈局,搶占算力高地
Thumbnail
2025/06/01
AI 代理人系統讓多智能體協作,自駕車隊即時共享感知並動態排程路權,智慧城市則整合交通號誌、能源網與公共安全;結合邊緣計算、強化學習、V2X 通訊與區塊鏈,確保決策高效、可靠且可追溯,推動城市韌性與永續未來。
Thumbnail
2025/06/01
AI 代理人系統讓多智能體協作,自駕車隊即時共享感知並動態排程路權,智慧城市則整合交通號誌、能源網與公共安全;結合邊緣計算、強化學習、V2X 通訊與區塊鏈,確保決策高效、可靠且可追溯,推動城市韌性與永續未來。
Thumbnail
看更多
你可能也想看
Thumbnail
TOMICA第一波推出吉伊卡哇聯名小車車的時候馬上就被搶購一空,一直很扼腕當時沒有趕緊入手。前陣子閒來無事逛蝦皮,突然發現幾家商場都又開始重新上架,價格也都回到正常水準,估計是官方又再補了一批貨,想都沒想就立刻下單! 同文也跟大家分享近期蝦皮購物紀錄、好用推薦、蝦皮分潤計畫的聯盟行銷!
Thumbnail
TOMICA第一波推出吉伊卡哇聯名小車車的時候馬上就被搶購一空,一直很扼腕當時沒有趕緊入手。前陣子閒來無事逛蝦皮,突然發現幾家商場都又開始重新上架,價格也都回到正常水準,估計是官方又再補了一批貨,想都沒想就立刻下單! 同文也跟大家分享近期蝦皮購物紀錄、好用推薦、蝦皮分潤計畫的聯盟行銷!
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 77 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 77 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Decoder
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Decoder
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 41中,提及 Transformer 的 Encoder 架構如下圖所示: 此外我已經在AI說書 - 從0開始 - 42中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧我們在AI說書 - 從0開始 - 41中,提及 Transformer 的 Encoder 架構如下圖所示: 此外我已經在AI說書 - 從0開始 - 42中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 首先先展示 Transformer 的架構圖: 可以看到架構中不再出現 RNN 、 LSTM 、 CNN 等物件,因為 Recurrence 已被摒棄。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 首先先展示 Transformer 的架構圖: 可以看到架構中不再出現 RNN 、 LSTM 、 CNN 等物件,因為 Recurrence 已被摒棄。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News