
ChatGPT使用者需要知道的「o1」使用技巧
2024年底,OpenAI的首席架構師 Colin Jarvis,
在 DeepLearning 推出了免費短課程「Reasoning with o1」。
主要是在教大家如何有效的使用「o1」模型。內容偏向AI應用軟體工程師,
講很多o1在AI系統中扮演的角色、
自動化迭代生成系統用提示詞的方法之類的。
除此之外有提到一個 o1 使用技巧,
就算不是開發者,對一般的ChatGPT使用者也非常重要。
「專注於對『目標』的描述,而不是『手段』」。
這個技巧具體體現在以下3個層面上:
▋不要描述「手段」
這會對 o1 的思考會產生干擾。
o1 被訓練成要精確的達成「目標」,
「手段」則已經用上了AI 來自動生成。
如果輸入的提示詞中加入對「手段」的描述,
(例如:「一步一步思考」、「請遵照以下步驟」…)
會讓 o1 誤以為這些「手段」就是「目標」,
最後把這些推論過程當作成果輸出給你。
這會讓 o1 變笨,會擠壓到對真正「目標」的思考空間。
會思考越久的模型越會受到干擾。
(以術語來說:reasoning token 會跑進 output token)
▋用清晰的「目標」描述
目的是防止 o1 的思考過度發散。
o1 很聰明但不會讀心術,
你需要明確到告訴他你要做什麼。
比如說:
・對應用場景的描述:「這要寫給客戶的致歉信」、「這是放在商品頁的標題」
・對讀者偏好的描述:「老闆喜歡看到數字」、「主管喜歡先看結論」
・對資訊價值的定義:「結論需要帶有提案」、「策略需要有多重附加價值」
這一點不僅只針對o1,對GPT-4o 或其他語言模型也適用。
只是因為o1 自由發揮能力變強了,如果不寫清楚目標,生成結果不好控制。
(聰明AI,有用但不好用的概念)
▋給範例讓 o1 分析
在某些任務中,如果已有成果的範例。
把他放進提示詞吧!
(比如翻譯任務,你手上有資深同事的最佳範本。)
可能有人覺得這不是few-shot 嗎?
老早就知道了啊!已知用火?
但這邊要強調的是,
提供範例給 4o跟 給o1 意義完全不同。
用個比喻來說:
4o 模仿的是,範例的「型」;
o1 模仿的是,範例的「神」。
把範例給4o 這種無推理能力的語言模型,
純粹只在機率計算的層次上影響輸出結果。
所以通常只在輸出風格上造成影響。
而「o1」不同,他不再是所謂「機率計算的文字接龍機器」。
而具備「可對事物進行歸納和演繹」的高階分析能力。
他在思考中會針對範例分析,找出這些範例的共同特徵。
針對這些抽象化、概念化的特徵進行模仿。
(類似一種「得意忘象」的智能表現)
所以模仿的不單是像,可能還青出於藍。
——
以上整理了o1時代的提示詞技巧跟以前相比的改變。
(這樣我更新舊教材的時候比較知道要改哪裡...)
最後,我覺得可能…
越聰明的AI對使用者的智力要求也會變高。
因為,識別「目標」和「手段」不是容易的事情。
因為,有時候今天的「目標」是明天的「手段」。
因為,「你的目標」可能是「你客戶的手段」。
如何決定要讓 o1 處理什麼樣的目標。
這需要有一個清晰的思路。
或許ChatGPT的進階模型操作,也會發展成一種專業吧。
類似數位廣告代操一樣,以後可能也會有AI代操服務。