我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
回顧目前有的素材:
在 AI說書 - 從0開始 - 336 | Embedding Based Search 新資訊當 Prompt 並開始發問 中遇到效能不好的問題,我們可以透過把 Print Message 功能打開,以進行排查:
ask('Which athletes won the gold medal in curling at the 2022 Winter Olympics?', print_message = True)
結果為:
可以看到我們需要的資訊有納入其中,因此將問題源頭指向模型本身,有鑑於此,我們把 GPT 3 的模型改為 GPT 4 看看:
ask('Which athletes won the gold medal in curling at the 2022 Winter Olympics?', model = "gpt-4-turbo")
結果就可以完美詮釋了: