2024-06-05|閱讀時間 ‧ 約 22 分鐘

AI說書 - 從0開始 - 2

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


延續AI說書 - 從0開始 - 1,我們從Transformer開始談起:


ChatGPT的根基是一種名為Transformer的Foundation Model,其約莫始於2017年,那究竟它有什麼魔力,能成為改變AI歷史的推手呢?


我們將從以下面向來探討:

  1. Transformer的運算時間複雜度
  2. Transformer能否用硬體加速器
  3. Transformer的多樣性
  4. 生成式 (Generative) AI與辨別式 (Discriminative) AI
  5. 非監督式學習、半監督式學習與監督式學習
  6. 通用模型 (General-Purpose Model)與特定領域模型 (Task-Specific Model)
  7. Transformer模型的挑選
分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.