還在chain of thought prompting?不學Chain of Draft (CoD)你就落伍了!-免費

iBonnie_愛邦尼-avatar-img
發佈於AI領域展開 個房間
更新於 發佈於 閱讀時間約 10 分鐘
投資理財內容聲明

大型語言模型(LLMs)已透過「思維鏈(Chain-of-Thought, CoT)」提示技術大幅提升其複雜推理能力。儘管 CoT 在提升準確性方面成效顯著,但其冗長的輸出方式也帶來了高昂的計算成本與顯著的延遲。這在講求效率的真實應用場景中,往往成為導入障礙。

🧠 Chain of Draft(CoD):用更少的文字,思考得更快

Xu, S., Xie, W., Zhao, L., & He, P. (2025) 所提出的 Chain of Draft(簡稱 CoD),正是為了解決上述問題而生。CoD 概念受到人類問題解決習慣的啟發:我們在解題時傾向只紀錄關鍵資訊,而非冗長敘述。CoD 表明,有效的推理不一定需要冗長說明,簡潔亦可達成高效與高準確率的結果。


🧩 CoD 帶來的三大關鍵革新:

  1. 極簡表達(Minimalist Expression)
    • 捨棄繁瑣敘述,轉而生成密度高、資訊集中的推理步驟。
  2. 高效使用 Token(Token Efficiency)
    • 相較於 CoT,CoD 在達成相似甚至更佳準確度的同時,僅使用約 7.6% 的 token 數量。
  3. 類人化設計(Human-Inspired Design)
    • 模仿人類解題行為,只記錄「必要訊息」,將模型導向更接近人類直覺的思維模式。

🚀 如何實作 Chain of Draft(CoD)

要有效發揮 CoD 的潛力,建議使用簡化後的提示模版來引導 LLM 進行推理。以下為建議的 Prompt 結構(後續可補上具體模板範例):

Prompt 模板:


「請根據下列問題,簡明扼要地列出解題草稿,只包含必要的資訊與步驟,避免冗長描述。」


這樣的設計能讓 LLM 更聚焦於「關鍵推理元素」,同時大幅降低 token 消耗,提升整體推理速度與成本效益,特別適用於低延遲、高效能需求的 AI 應用情境(如即時決策系統、多輪對話代理等)。

英文Template:

Think step by step, but only keep a minimum draft for each thinking step, with 5 words at most. Return the answer at the end of the response after a separator ####.
Guidelines:
- Limit each step to 5 words
- Focus on essential calculations/transformations
- Maintain logical progression
- Mark final answer with ####

中文Template:

一步一步思考,但每個思考步驟只保留一個最低限度的草稿,最多5個字。在分隔符號 #### 之後回傳回應的答案。
指南:
- 每個步驟限制為 5 個字
- 專注於基本計算/轉換
- 保持邏輯進展
- 用 #### 標記最終答案




📌 實務範例:使用 CoD 解決問題

為了展示不同提示策略在推理過程中的差異,讓我們以一個簡單的算術問題作為例子,來比較傳統的 Chain-of-Thought(CoT)與 Chain-of-Draft(CoD)在處理方式上的不同。

💡 問題:

「Samantha 有 12 顆糖果,她給了 Jason 5 顆,然後又買了 8 顆。請問她現在有幾顆糖果?」


🧠 CoT(Chain of Thought)提示範例:

首先,Samantha 原本有 12 顆糖果。  
她給了 Jason 5 顆,因此剩下 12 - 5 = 7 顆。
接著她又買了 8 顆,因此她現在有 7 + 8 = 15 顆糖果。
答案是 15

這種方式具備可解釋性,但明顯冗長,尤其在處理大量任務時將導致成本與延遲提升。


⚡ CoD(Chain of Draft)提示範例:

12 - 5 = 7  
7 + 8 = 15
答:15

在這個範例中,CoD 採取極簡的表達形式,僅保留關鍵的運算步驟與最終答案。這樣的輸出不僅大幅減少 Token 數量,也保留了解題的可追溯性,非常適合用於大規模推理任務、低延遲應用場景或行動端資源有限的部署情境


✅ 重點總結:

比較項目CoT(Chain of Thought)CoD(Chain of Draft)可讀性高(說明詳盡)中(簡明易讀)計算成本高(Token 使用多)低(Token 使用精簡)推理效率較低高適用場景教學、需詳細解釋的任務實務應用、低延遲/高效率場景


🧪再看一個CoD解決問題實例分析:比較三種提示策略在處理算術問題上的差異,讓我們來觀察三種不同的提示方法(Prompting)如何處理以下這個簡單的數學問題:

📌 問題敘述

Jason 原本有 20 顆棒棒糖。他送了一些給 Denny。現在 Jason 手上剩下 12 顆。請問 Jason 給了 Denny 幾顆棒棒糖?

Jason had 20 lollipops. He gave Denny some lollipops. Now Jason has 12 lollipops. How many lollipops did Jason give to Denny?
Jason 原本有 20 顆棒棒糖。他送了一些給 Denny。現在 Jason 手上剩下 12 顆。請問 Jason 給了 Denny 幾顆棒棒糖?


⚙️ 方法一:標準提示(Standard Prompting) – 直接輸出答案

A: 8

此方法快速提供最終答案,適合對推理過程沒有說明需求的場景。但缺乏解釋與可追溯性,不利於除錯或教學應用。


🧠 方法二:Chain-of-Thought(CoT)提示 – 詳細步驟推理



英文:

Let's think through this step by step:

Initially, Jason had 20 lollipops.
After giving some to Denny, Jason now has 12 lollipops.
To find out how many lollipops Jason gave to Denny, we need to calculate the difference between the initial number of lollipops and the remaining number.
We can set up a simple subtraction problem: Initial number - Remaining number = Lollipops given
Putting in the numbers: 20 - 12 = Lollipops given to Denny
Solving the subtraction: 20 - 12 = 8
Therefore, Jason gave 8 lollipops to Denny.

8


中文:

讓我們一步步思考:

Jason 一開始有 20 顆棒棒糖。
他送了一些給 Denny,現在手上剩下 12 顆。
我們可以用減法找出 Jason 給了多少顆:
原始數量 - 剩餘數量 = 給出的數量
代入數字:20 - 12 = 8
因此,Jason 給了 Denny 8 顆棒棒糖。

答案:8

這種方式強調可解釋性與推理過程,適合需要明確邏輯說明的應用,如教育場景或複雜任務解析。


⚡ 方法三:Chain-of-Draft(CoD)提示 – 精簡關鍵步驟



英文:

20 - x = 12 x = 20 - 12 = 8

8


中文:

20 - x = 12  
x = 20 - 12 = 8
答:8

這種策略極度精簡,僅保留必要資訊與核心邏輯,大幅減少 Token 使用量,同時保有推理可見性,適合大規模應用、高效推理或運算資源有限的部署場景。


✅ 三種提示方式比較總結


項目       |Standard Prompting|Chain-of-Thought (CoT)|Chain-of-Draft (CoD)
推理清晰度 |||
可解釋性 |||
計算資源消耗|最低 ||低(僅使用約 7.6% Token)
適用情境 |簡答、快速回應 |教學、複雜任務 |大規模部署、低延遲應用

📈 優勢與限制分析:Chain of Draft(CoD)

✅ 核心優勢

效能提升

  • ⏱ 顯著縮短回應生成時間
  • 🧮 降低運算資源需求
  • 🔡 精簡 Token 使用量,提升效能與成本效益

🛠 實務應用優勢

  • 💰 更具經濟效益,適合部署至正式環境
  • 🚀 提供更快速的用戶反應時間
  • 🖥 降低基礎設施負載與部署門檻

⚠️ 當前限制

🧠 模型相依性

  • 需依賴較大型模型(3B 參數以上)以發揮最佳效能
  • Zero-shot(零範例) 情境下成效較弱
  • 可能需搭配特定的訓練資料或微調策略

🧩 應用限制

  • 最適用於結構化推理任務(如數學、邏輯、代碼生成)
  • 在某些場景下需提供**Few-shot(少量範例)**輔助
  • 效果可能隨任務類型而有明顯差異

🔍 注意事項

為獲得最佳結果,建議配合以下策略使用 CoD:

  • ✅ 使用具 3B 以上參數的大型語言模型(如 GPT-4, Claude 3, Mistral-large 等)
  • ✅ 提供結構良好、目標清晰的 Few-shot 提示範例
  • ✅ 評估任務類型是否適合「精簡推理結構」的處理方式

📌 結語:CoD 的價值定位

Chain of Draft(CoD)不只是 CoT 的簡化版,更是推理效率的顛覆性創新。

在保持推理正確性的前提下,CoD 大幅降低了運算與基礎設施成本,使得 LLM 更易於在資源受限的環境中大規模部署。隨著 AI 技術邁向實用化與商業化,CoD 的「效能與效益平衡」特性,將成為未來智慧應用的重要基石。


如有進一步問題討論,歡迎來信:
averyaveavi@gmail.com


原始論文來源:

https://arxiv.org/html/2502.18600v1

留言
avatar-img
留言分享你的想法!
avatar-img
iBonnie_愛邦尼
6會員
81內容數
記錄生活與技術的小細節
iBonnie_愛邦尼的其他內容
2025/04/17
本文提供 LangGraph、MCP(Model Context Protocol)與 Ollama 整合的實作教學,示範如何快速構建多代理聊天機器人系統。文章涵蓋 MCP 的優缺點、與 Function Call 的比較、應用場景選擇,以及逐步的實作步驟。
Thumbnail
2025/04/17
本文提供 LangGraph、MCP(Model Context Protocol)與 Ollama 整合的實作教學,示範如何快速構建多代理聊天機器人系統。文章涵蓋 MCP 的優缺點、與 Function Call 的比較、應用場景選擇,以及逐步的實作步驟。
Thumbnail
2025/03/27
AnythingLLM 是一款簡化大型語言模型應用程式的強大工具,支援多種文件格式、多人使用和管理,並提供彈性的 LLM 和向量資料庫選擇。同時,它也提供網頁文字爬取和 YouTube 字幕擷取等功能。本文介紹Docker 架設方法,並提供設定步驟與使用範例,例如建立一個會議紀錄小祕書。
Thumbnail
2025/03/27
AnythingLLM 是一款簡化大型語言模型應用程式的強大工具,支援多種文件格式、多人使用和管理,並提供彈性的 LLM 和向量資料庫選擇。同時,它也提供網頁文字爬取和 YouTube 字幕擷取等功能。本文介紹Docker 架設方法,並提供設定步驟與使用範例,例如建立一個會議紀錄小祕書。
Thumbnail
2024/06/04
自然語言模型中,「Temperature」和「Top_p」扮演著重要的角色,它們可以影響生成的文本風格和內容的豐富度。本篇將探討這兩個概念,並提供了多個相關的範例來幫助讀者更好地理解它們的作用。無論您是開發人員還是使用者,這些設定值的調整都可能會對生成的內容產生重大影響,因此值得進行實驗和測試。
Thumbnail
可能包含敏感內容
2024/06/04
自然語言模型中,「Temperature」和「Top_p」扮演著重要的角色,它們可以影響生成的文本風格和內容的豐富度。本篇將探討這兩個概念,並提供了多個相關的範例來幫助讀者更好地理解它們的作用。無論您是開發人員還是使用者,這些設定值的調整都可能會對生成的內容產生重大影響,因此值得進行實驗和測試。
Thumbnail
可能包含敏感內容
看更多
你可能也想看
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
全球科技產業的焦點,AKA 全村的希望 NVIDIA,於五月底正式發布了他們在今年 2025 第一季的財報 (輝達內部財務年度為 2026 Q1,實際日曆期間為今年二到四月),交出了打敗了市場預期的成績單。然而,在銷售持續高速成長的同時,川普政府加大對於中國的晶片管制......
Thumbnail
全球科技產業的焦點,AKA 全村的希望 NVIDIA,於五月底正式發布了他們在今年 2025 第一季的財報 (輝達內部財務年度為 2026 Q1,實際日曆期間為今年二到四月),交出了打敗了市場預期的成績單。然而,在銷售持續高速成長的同時,川普政府加大對於中國的晶片管制......
Thumbnail
重點摘要: 6 月繼續維持基準利率不變,強調維持高利率主因為關稅 點陣圖表現略為鷹派,收斂 2026、2027 年降息預期 SEP 連續 2 季下修 GDP、上修通膨預測值 --- 1.繼續維持利率不變,強調需要維持高利率是因為關稅: 聯準會 (Fed) 召開 6 月利率會議
Thumbnail
重點摘要: 6 月繼續維持基準利率不變,強調維持高利率主因為關稅 點陣圖表現略為鷹派,收斂 2026、2027 年降息預期 SEP 連續 2 季下修 GDP、上修通膨預測值 --- 1.繼續維持利率不變,強調需要維持高利率是因為關稅: 聯準會 (Fed) 召開 6 月利率會議
Thumbnail
最近在上LLM線上課 來分享我所學到的 LangChain LangChian是把ChatGPT API 轉換為物件導向的形式來使用我所學到 LangChain 的五個方法 : Prompt Template / LLMChain / OutputParser / Agent / Conversat
Thumbnail
最近在上LLM線上課 來分享我所學到的 LangChain LangChian是把ChatGPT API 轉換為物件導向的形式來使用我所學到 LangChain 的五個方法 : Prompt Template / LLMChain / OutputParser / Agent / Conversat
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續xxxx,ChatGPT 產生的程式,我們將它匯入 Colab 執行看看 ( Colab 使用教學見 使用Meta釋出的模型,實作Chat GPT - Part 0
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續xxxx,ChatGPT 產生的程式,我們將它匯入 Colab 執行看看 ( Colab 使用教學見 使用Meta釋出的模型,實作Chat GPT - Part 0
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 仔細看 AI說書 - 從0開始 - 66 中,Decoder 的 Multi-Head Attention 框框,會發現有一條線空接,其實它是有意義的,之所以空接,是因
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 仔細看 AI說書 - 從0開始 - 66 中,Decoder 的 Multi-Head Attention 框框,會發現有一條線空接,其實它是有意義的,之所以空接,是因
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News