2024-09-25|閱讀時間 ‧ 約 24 分鐘

AI說書 - 從0開始 - 190 | 第六章額外閱讀

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


AI說書 - 從0開始 - 159 | Pretain 模型緣起AI說書 - 從0開始 - 189 | 製作聊天介面,我們完成書籍:Transformers for Natural Language Processing and Computer Vision, Denis Rothman, 2024 第六章說明。


以下附上參考項目:


以下附上額外閱讀項目:

  • Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova, 2018, Pretraining of Deep Bidirectional Transformers for Language Understanding: https://arxiv.org/abs/1810.04805
  • Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov, RoBERTa: A Robustly Optimized BERT Pretraining Approach: https://arxiv.org/abs/1907.11692
分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.