我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
ChatGPT的根基是一種名為Transformer的Foundation Model,其約莫始於2017年,那究竟它有什麼魔力,能成為改變AI歷史的推手呢?
我們將從以下面向來探討:
- Transformer的運算時間複雜度
- Transformer能否用硬體加速器
- Transformer的多樣性
- 生成式 (Generative) AI與辨別式 (Discriminative) AI
- 非監督式學習、半監督式學習與監督式學習
- 通用模型 (General-Purpose Model)與特定領域模型 (Task-Specific Model)
- Transformer模型的挑選