大型語言模型(LLMs)已透過「思維鏈(Chain-of-Thought, CoT)」提示技術大幅提升其複雜推理能力。儘管 CoT 在提升準確性方面成效顯著,但其冗長的輸出方式也帶來了高昂的計算成本與顯著的延遲。這在講求效率的真實應用場景中,往往成為導入障礙。
🧠 Chain of Draft(CoD):用更少的文字,思考得更快
Xu, S., Xie, W., Zhao, L., & He, P. (2025) 所提出的 Chain of Draft(簡稱 CoD),正是為了解決上述問題而生。CoD 概念受到人類問題解決習慣的啟發:我們在解題時傾向只紀錄關鍵資訊,而非冗長敘述。CoD 表明,有效的推理不一定需要冗長說明,簡潔亦可達成高效與高準確率的結果。
🧩 CoD 帶來的三大關鍵革新:
- 極簡表達(Minimalist Expression)
- 捨棄繁瑣敘述,轉而生成密度高、資訊集中的推理步驟。
- 高效使用 Token(Token Efficiency)
- 相較於 CoT,CoD 在達成相似甚至更佳準確度的同時,僅使用約 7.6% 的 token 數量。
- 類人化設計(Human-Inspired Design)
- 模仿人類解題行為,只記錄「必要訊息」,將模型導向更接近人類直覺的思維模式。
🚀 如何實作 Chain of Draft(CoD)
要有效發揮 CoD 的潛力,建議使用簡化後的提示模版來引導 LLM 進行推理。以下為建議的 Prompt 結構(後續可補上具體模板範例):Prompt 模板:
「請根據下列問題,簡明扼要地列出解題草稿,只包含必要的資訊與步驟,避免冗長描述。」
這樣的設計能讓 LLM 更聚焦於「關鍵推理元素」,同時大幅降低 token 消耗,提升整體推理速度與成本效益,特別適用於低延遲、高效能需求的 AI 應用情境(如即時決策系統、多輪對話代理等)。
英文Template:
Think step by step, but only keep a minimum draft for each thinking step, with 5 words at most. Return the answer at the end of the response after a separator ####.
Guidelines:
- Limit each step to 5 words
- Focus on essential calculations/transformations
- Maintain logical progression
- Mark final answer with ####
中文Template:
一步一步思考,但每個思考步驟只保留一個最低限度的草稿,最多5個字。在分隔符號 #### 之後回傳回應的答案。
指南:
- 每個步驟限制為 5 個字
- 專注於基本計算/轉換
- 保持邏輯進展
- 用 #### 標記最終答案
📌 實務範例:使用 CoD 解決問題
為了展示不同提示策略在推理過程中的差異,讓我們以一個簡單的算術問題作為例子,來比較傳統的 Chain-of-Thought(CoT)與 Chain-of-Draft(CoD)在處理方式上的不同。
💡 問題:
「Samantha 有 12 顆糖果,她給了 Jason 5 顆,然後又買了 8 顆。請問她現在有幾顆糖果?」
🧠 CoT(Chain of Thought)提示範例:
首先,Samantha 原本有 12 顆糖果。
她給了 Jason 5 顆,因此剩下 12 - 5 = 7 顆。
接著她又買了 8 顆,因此她現在有 7 + 8 = 15 顆糖果。
答案是 15。
這種方式具備可解釋性,但明顯冗長,尤其在處理大量任務時將導致成本與延遲提升。
⚡ CoD(Chain of Draft)提示範例:
12 - 5 = 7
7 + 8 = 15
答:15
在這個範例中,CoD 採取極簡的表達形式,僅保留關鍵的運算步驟與最終答案。這樣的輸出不僅大幅減少 Token 數量,也保留了解題的可追溯性,非常適合用於大規模推理任務、低延遲應用場景或行動端資源有限的部署情境。
✅ 重點總結:
比較項目CoT(Chain of Thought)CoD(Chain of Draft)可讀性高(說明詳盡)中(簡明易讀)計算成本高(Token 使用多)低(Token 使用精簡)推理效率較低高適用場景教學、需詳細解釋的任務實務應用、低延遲/高效率場景
🧪再看一個CoD解決問題實例分析:比較三種提示策略在處理算術問題上的差異,讓我們來觀察三種不同的提示方法(Prompting)如何處理以下這個簡單的數學問題:
📌 問題敘述
Jason 原本有 20 顆棒棒糖。他送了一些給 Denny。現在 Jason 手上剩下 12 顆。請問 Jason 給了 Denny 幾顆棒棒糖?
Jason had 20 lollipops. He gave Denny some lollipops. Now Jason has 12 lollipops. How many lollipops did Jason give to Denny?
Jason 原本有 20 顆棒棒糖。他送了一些給 Denny。現在 Jason 手上剩下 12 顆。請問 Jason 給了 Denny 幾顆棒棒糖?
⚙️ 方法一:標準提示(Standard Prompting) – 直接輸出答案
A: 8
此方法快速提供最終答案,適合對推理過程沒有說明需求的場景。但缺乏解釋與可追溯性,不利於除錯或教學應用。
🧠 方法二:Chain-of-Thought(CoT)提示 – 詳細步驟推理
英文:
Let's think through this step by step:
Initially, Jason had 20 lollipops.
After giving some to Denny, Jason now has 12 lollipops.
To find out how many lollipops Jason gave to Denny, we need to calculate the difference between the initial number of lollipops and the remaining number.
We can set up a simple subtraction problem: Initial number - Remaining number = Lollipops given
Putting in the numbers: 20 - 12 = Lollipops given to Denny
Solving the subtraction: 20 - 12 = 8
Therefore, Jason gave 8 lollipops to Denny.
8
中文:
讓我們一步步思考:
Jason 一開始有 20 顆棒棒糖。
他送了一些給 Denny,現在手上剩下 12 顆。
我們可以用減法找出 Jason 給了多少顆:
原始數量 - 剩餘數量 = 給出的數量
代入數字:20 - 12 = 8
因此,Jason 給了 Denny 8 顆棒棒糖。
答案:8
這種方式強調可解釋性與推理過程,適合需要明確邏輯說明的應用,如教育場景或複雜任務解析。
⚡ 方法三:Chain-of-Draft(CoD)提示 – 精簡關鍵步驟
英文:
20 - x = 12 x = 20 - 12 = 8
8
中文:
20 - x = 12
x = 20 - 12 = 8
答:8
這種策略極度精簡,僅保留必要資訊與核心邏輯,大幅減少 Token 使用量,同時保有推理可見性,適合大規模應用、高效推理或運算資源有限的部署場景。
✅ 三種提示方式比較總結
項目 |Standard Prompting|Chain-of-Thought (CoT)|Chain-of-Draft (CoD)
推理清晰度 |低 |高 |中
可解釋性 |無 |高 |中
計算資源消耗|最低 |高 |低(僅使用約 7.6% Token)
適用情境 |簡答、快速回應 |教學、複雜任務 |大規模部署、低延遲應用
📈 優勢與限制分析:Chain of Draft(CoD)
✅ 核心優勢
⚡ 效能提升
- ⏱ 顯著縮短回應生成時間
- 🧮 降低運算資源需求
- 🔡 精簡 Token 使用量,提升效能與成本效益
🛠 實務應用優勢
- 💰 更具經濟效益,適合部署至正式環境
- 🚀 提供更快速的用戶反應時間
- 🖥 降低基礎設施負載與部署門檻
⚠️ 當前限制
🧠 模型相依性
- 需依賴較大型模型(3B 參數以上)以發揮最佳效能
- 在 Zero-shot(零範例) 情境下成效較弱
- 可能需搭配特定的訓練資料或微調策略
🧩 應用限制
- 最適用於結構化推理任務(如數學、邏輯、代碼生成)
- 在某些場景下需提供**Few-shot(少量範例)**輔助
- 效果可能隨任務類型而有明顯差異
🔍 注意事項
為獲得最佳結果,建議配合以下策略使用 CoD:
- ✅ 使用具 3B 以上參數的大型語言模型(如 GPT-4, Claude 3, Mistral-large 等)
- ✅ 提供結構良好、目標清晰的 Few-shot 提示範例
- ✅ 評估任務類型是否適合「精簡推理結構」的處理方式
📌 結語:CoD 的價值定位
Chain of Draft(CoD)不只是 CoT 的簡化版,更是推理效率的顛覆性創新。
在保持推理正確性的前提下,CoD 大幅降低了運算與基礎設施成本,使得 LLM 更易於在資源受限的環境中大規模部署。隨著 AI 技術邁向實用化與商業化,CoD 的「效能與效益平衡」特性,將成為未來智慧應用的重要基石。
如有進一步問題討論,歡迎來信:
averyaveavi@gmail.com
原始論文來源:
https://arxiv.org/html/2502.18600v1