我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。延續AI說書 - 從0開始 - 1,我們從Transformer開始談起:ChatGPT的根基是一種名為Transformer的Foundation Model,其約莫始於2017年,那究竟它有什麼魔力,能成為改變AI歷史的推手呢?我們將從以下面向來探討:Transformer的運算時間複雜度Transformer能否用硬體加速器Transformer的多樣性生成式 (Generative) AI與辨別式 (Discriminative) AI非監督式學習、半監督式學習與監督式學習通用模型 (General-Purpose Model)與特定領域模型 (Task-Specific Model)Transformer模型的挑選