我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
討論
有趣的是,Chain of Thought 的本質與 Daniel Kahneman 的開創性著作《Thinking, Fast and Slow》中闡述的原則產生了共鳴,這本書描繪了兩個不同的思考系統:系統1,它是快速的、直觀的和感性的;系統2,它是緩慢的、更深思熟慮的、更邏輯的。Chain of Thought 反映了系統 2 的屬性,提出了一個更慢的、逐步的分析推理過程來遍歷複雜的問題,非常類似於慢速思維範式。這種一致性強調了 Chain of Thought 在幫助LLM 仔細剖析和導航複雜的推理任務、培育更準確和更易於理解的解決方案方面的潛力
隨著 LLM 的引入,人工智慧領域迅速崛起,尤其是在 Few-Shot Learning 領域。然而,一項名為「Large Language Models are Zero-Shot Reasoners」的開創性研究揭示了這些模型鮮為人知的一面 - 它們作為 Few-Shot Learning 的能力。研究人員主張,一個簡單、富有洞察力的提示,讓我們一步一步思考,可以顯著提高 LLM 在各種推理任務中的表現
當僅用八個思想鏈範例提示的 PaLM 540B 模型在 GSM8K 基準上獲得前所未有的準確性時,這一點得到了顯著證明,甚至超過了帶有驗證器的微調 GPT-3 模型。有趣的是,研究強調,Chain of Thought 提示的效果會隨著模型規模的增加而增強 - 只有在模型擁有約 1000 億個或更多參數時,它才開始顯示出希望。這表明生成一致 Chain of Thought 的能力是一個新興特徵,隨著模型大小的增加而變得明顯
Google 和史丹佛大學的合作團隊將這項探索更進一步,透過將 Chain of Thought 提示應用於 23 項任務,他們能夠顯著提高模型的性能,甚至在多項任務上超過了人類的得分。這項努力表明,傳統的僅回答問題的提示可能會低估 LLM 在複雜任務上的真正潛力,而 Chain of Thought 提示有效地彌補了這一差距

























