我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
先列出目前擁有的材料:
延續 AI說書 - 從0開始 - 242 | 微調 GPT 模型與 GPT4 比較,可以輸入以下程式呈現 OpenAI GPT4 的結果:
response.choices[0]
結果為:
實驗的目的不是斷言標準模型比微調模型表現更好,而是表明在微調模型之前我們必須盡可能使用標準模型,結論是沒有靈丹妙藥,在投入時間、精力和資源之前,我們必須探索不同的選擇。