課程「Reasoning with o1」觀後心得筆記

更新於 發佈於 閱讀時間約 3 分鐘
raw-image

ChatGPT使用者需要知道的「o1」使用技巧

2024年底,OpenAI的首席架構師 Colin Jarvis,

在 DeepLearning 推出了免費短課程「Reasoning with o1」。

主要是在教大家如何有效的使用「o1」模型。

內容偏向AI應用軟體工程師,

講很多o1在AI系統中扮演的角色、

自動化迭代生成系統用提示詞的方法之類的。

除此之外有提到一個 o1 使用技巧,

就算不是開發者,對一般的ChatGPT使用者也非常重要。


專注於對『目標』的描述,而不是『手段』」。


這個技巧具體體現在以下3個層面上:


▋不要描述「手段」

這會對 o1 的思考會產生干擾。

o1 被訓練成要精確的達成「目標」,

「手段」則已經用上了AI 來自動生成。

如果輸入的提示詞中加入對「手段」的描述,

(例如:「一步一步思考」、「請遵照以下步驟」…)

會讓 o1 誤以為這些「手段」就是「目標」,

最後把這些推論過程當作成果輸出給你。

這會讓 o1 變笨,會擠壓到對真正「目標」的思考空間。

會思考越久的模型越會受到干擾。

(以術語來說:reasoning token 會跑進 output token)


▋用清晰的「目標」描述

目的是防止 o1 的思考過度發散。

o1 很聰明但不會讀心術,

你需要明確到告訴他你要做什麼。

比如說:

・對應用場景的描述:「這要寫給客戶的致歉信」、「這是放在商品頁的標題」

・對讀者偏好的描述:「老闆喜歡看到數字」、「主管喜歡先看結論」

・對資訊價值的定義:「結論需要帶有提案」、「策略需要有多重附加價值」

這一點不僅只針對o1,對GPT-4o 或其他語言模型也適用。

只是因為o1 自由發揮能力變強了,如果不寫清楚目標,生成結果不好控制。

(聰明AI,有用但不好用的概念)


▋給範例讓 o1 分析

在某些任務中,如果已有成果的範例。

把他放進提示詞吧!

(比如翻譯任務,你手上有資深同事的最佳範本。)

可能有人覺得這不是few-shot 嗎?

老早就知道了啊!已知用火?

但這邊要強調的是,

提供範例給 4o跟 給o1 意義完全不同。

用個比喻來說:

4o 模仿的是,範例的「型」;

o1 模仿的是,範例的「神」。

把範例給4o 這種無推理能力的語言模型,

純粹只在機率計算的層次上影響輸出結果。

所以通常只在輸出風格上造成影響。

而「o1」不同,他不再是所謂「機率計算的文字接龍機器」。

而具備「可對事物進行歸納和演繹」的高階分析能力。

他在思考中會針對範例分析,找出這些範例的共同特徵。

針對這些抽象化、概念化的特徵進行模仿。

(類似一種「得意忘象」的智能表現)

所以模仿的不單是像,可能還青出於藍。

——

以上整理了o1時代的提示詞技巧跟以前相比的改變。

(這樣我更新舊教材的時候比較知道要改哪裡...)

最後,我覺得可能…

越聰明的AI對使用者的智力要求也會變高。


因為,識別「目標」和「手段」不是容易的事情。

因為,有時候今天的「目標」是明天的「手段」。

因為,「你的目標」可能是「你客戶的手段」。


如何決定要讓 o1 處理什麼樣的目標。

這需要有一個清晰的思路。

或許ChatGPT的進階模型操作,也會發展成一種專業吧。

類似數位廣告代操一樣,以後可能也會有AI代操服務。

留言
avatar-img
留言分享你的想法!
avatar-img
幻詠 Gen Ai Studio
9會員
103內容數
探索ChatGPT等生成式AI 的各領域應用 1.分享 AI 工具的實測結果&提示詞技巧 2.分享 AI 創作內容
幻詠 Gen Ai Studio的其他內容
2025/04/29
善用AI解決真實的人生煩惱​ 先說結論, ChatGPT-4.5可以提供充足的情緒價值, ChatGPT-o1則可以洞察出問題的本質。
Thumbnail
2025/04/29
善用AI解決真實的人生煩惱​ 先說結論, ChatGPT-4.5可以提供充足的情緒價值, ChatGPT-o1則可以洞察出問題的本質。
Thumbnail
2025/04/25
ChatGPT依然有語言的資訊壁壘 一樣的問題,用不一樣的語言問ChatGPT答案一樣嗎? 結論是,實測體感大概7:3, 約3成的資訊,取決於和ChatGPT互動的語言。
Thumbnail
2025/04/25
ChatGPT依然有語言的資訊壁壘 一樣的問題,用不一樣的語言問ChatGPT答案一樣嗎? 結論是,實測體感大概7:3, 約3成的資訊,取決於和ChatGPT互動的語言。
Thumbnail
2025/04/23
以DeepResearch功能整理Andy老師事件懶人包為例 我有些後知後覺,沒有跟上這波議題。 有些好奇心想了解,但又覺得沒空研究。 我想是ChatGPT幫我們省時間的時候了。
Thumbnail
2025/04/23
以DeepResearch功能整理Andy老師事件懶人包為例 我有些後知後覺,沒有跟上這波議題。 有些好奇心想了解,但又覺得沒空研究。 我想是ChatGPT幫我們省時間的時候了。
Thumbnail
看更多
你可能也想看
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 32中,展示了OpenAI的API如何使用,儘管 API 可以滿足許多需求,但它們也有其限制,例如,多用途 API 可能在所有任務
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 32中,展示了OpenAI的API如何使用,儘管 API 可以滿足許多需求,但它們也有其限制,例如,多用途 API 可能在所有任務
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想要操作ChatGPT,我們可以參考OpenAI的範例: https://platform.openai.com/examples/default-sql-trans
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想要操作ChatGPT,我們可以參考OpenAI的範例: https://platform.openai.com/examples/default-sql-trans
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News