2024-09-03|閱讀時間 ‧ 約 23 分鐘

AI說書 - Prompt Engineering - 80 | N-Shot Prompting 討論

我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


如果正確利用 N-Shot Prompting,有可能顯著提高大型語言模型在複雜任務上的表現,然而,與任何技術一樣,存在固有的限制和值得討論的細微差別。


在 OpenAI 的開創性論文「Language Models are Few-Shot Learners」中,GPT-3 的表現在三種不同的學習環境中進行了嚴格評估:Zero-Shot、Few-Shot 和 Fine-Tuning,每個設定都提供了了解模型優勢和潛在改進領域的視角:

  • Zero-Shot Learning:模型泛化的最純粹的測試,其中 GPT-3 在沒有事先特定範例的情況下響應任務,完全在預訓練中學習,雖然由於它迴避了特定於任務的數據而非常方便,但它並不是 GPT-3 的最強項
  • Few-Shot Learning:GPT-3 透過少量範例作為上下文,無需進一步調整即可處理類似的任務,該方法在從翻譯到即時推理的眾多 NLP 挑戰中表現出了穩健性
  • Fine-Tuning:這種方法雖然佔用大量資源,但允許透過在專用資料集上進行訓練來針對特定任務最佳化模型,它的主要限制是每個不同的資料集都需要新鮮的、廣泛的資料集



分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.