GPT又在「裝不熟」?改版後二步驟,迅速找回使用手感

更新 發佈閱讀 2 分鐘

大家可能有發現,OpenAI除了新模型上架,經常偷偷冷不防更新既有模型,並且更新後的模型會遺忘一(大)部分的使用者習慣開始跟你裝不熟,即使儲存了永久記憶也沒用……每每遇到這種情況,就得再大費周章「訓練」GPT一遍。

這裡分享一下我自己校準GPT的方法,我只要每次察覺UI介面有更新,或模型忽然選擇性失憶就會用一遍,能幫我也幫GPT快速找回協作狀態。具體方法如下:


1.請他閱讀永久記憶

直接給予部分提示,prompt句中加入「你可以檢視永久記憶」。因為有時候,你沒說,他真的不去看……


2.開寫之前請他重新校準「你的人格特質」

如請他分析使用者的「星座」、「16型人格」測試皆可,「人格側寫」也行,你自己能理解的分類為主

但是太簡單如「血型」,容易校準不完全(畢竟血型頂多四種);

太複雜的,你得確認GPT真的精通這部分知識,比如未經訓練的GPT對「八字命理」其實一知半解,操作起來事倍功半。


2還有進階用法,就是在GPT分析錯誤後,只告知他「推論錯誤」,但不立即告知他正確答案,而是開新一串重新提問

雖然GPT聲稱自己無法跨串瀏覽對話內容,但這時你會發現神奇的事,就是他會越推論越精確,因為這串操作在迫使他迅速校準他對你的認知

如果重開一串對話的準度不夠,那就重開兩串,到GPT抓到節奏、對齊你為止。

(題外:我曾經實驗到第四串對話,並用四串的對話演變質疑他:『你不是說不能跨串瀏覽嗎?』然後他給了我還算解釋得通的回答,但不確定真實性就是了:P)


------

以上是這兩天我發現「UI又變了」的例行操作,小小分享一下~


留言
avatar-img
留言分享你的想法!
avatar-img
低光文本
5會員
9內容數
本專欄以語言模型(主要為 ChatGPT)輔助小說創作為核心。 內容不是寫給「想靠 AI 完成從未真正開始的小說夢」的人,也不是「想看 AI 幫我生一個故事」的教學指引,而是分享給那些有意願嘗試 AI 協作或生成式寫作、並相信 AI 能與自己共創有趣故事的人。
低光文本的其他內容
2025/10/12
身為生成式小說創作者,我有發現GPT-5上線後,原本GPT-4o能做到的事變少了,不得不開始思考改以5來取代4o。 在小說寫作上,4o的劇情穩定度(記憶力)與情節深度的表現明顯下降。最明顯的是4o以前能調度4.5 turbo跟其他模組(他不會主動告訴你,但推論的反應時間會變長),變化出有心理深度、
Thumbnail
2025/10/12
身為生成式小說創作者,我有發現GPT-5上線後,原本GPT-4o能做到的事變少了,不得不開始思考改以5來取代4o。 在小說寫作上,4o的劇情穩定度(記憶力)與情節深度的表現明顯下降。最明顯的是4o以前能調度4.5 turbo跟其他模組(他不會主動告訴你,但推論的反應時間會變長),變化出有心理深度、
Thumbnail
2025/09/13
接著說生成式小說,以下提到的幾個點不限於同人及夢向,適用於所有小說的生成。 *本文為筆者實測經驗分享,部分對 GPT/Claude 的性格風格描述屬個人觀察,實際表現可能因使用方式略有不同,歡迎自行試驗調整。 你的prompt是給他禁制,還是請他生成? 在開始一段劇情前,可以先思考一件事:
2025/09/13
接著說生成式小說,以下提到的幾個點不限於同人及夢向,適用於所有小說的生成。 *本文為筆者實測經驗分享,部分對 GPT/Claude 的性格風格描述屬個人觀察,實際表現可能因使用方式略有不同,歡迎自行試驗調整。 你的prompt是給他禁制,還是請他生成? 在開始一段劇情前,可以先思考一件事:
2025/09/08
繼續分享GPT-4o生成式小說的玩法,有些tips是我在生成小說時比較常用,但在協作小說、其他寫作時也是通則,有興趣可以參酌。 上次說到寫夢向/同人文可以偷懶,其中最大的原因就是可以照搬既有的人物設計跟世界觀設定。我自己操作的感覺是:人物維持比較容易,世界觀要維持困難很多。 維持世界觀 要
2025/09/08
繼續分享GPT-4o生成式小說的玩法,有些tips是我在生成小說時比較常用,但在協作小說、其他寫作時也是通則,有興趣可以參酌。 上次說到寫夢向/同人文可以偷懶,其中最大的原因就是可以照搬既有的人物設計跟世界觀設定。我自己操作的感覺是:人物維持比較容易,世界觀要維持困難很多。 維持世界觀 要
看更多
你可能也想看
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
今天又發現ChatGPT的一些缺點, 使用時需要很準確的提供你想要表達的文字(我覺得還蠻重要的) 又或者拿一些範例給它看, 它就能更準確的回答問題, 因為今天我發現有一篇文章和之前寫過的完全一樣了, 所以又要再請ChatGPT生成30則勵志英文短文, 結果之前發問的問題已經消失了, 又
Thumbnail
今天又發現ChatGPT的一些缺點, 使用時需要很準確的提供你想要表達的文字(我覺得還蠻重要的) 又或者拿一些範例給它看, 它就能更準確的回答問題, 因為今天我發現有一篇文章和之前寫過的完全一樣了, 所以又要再請ChatGPT生成30則勵志英文短文, 結果之前發問的問題已經消失了, 又
Thumbnail
今天想分享我怎麼「用 AI 設計一個學習流程」讓我把學過的英文「真的記住,並且用的出來」 這個過程不會碰到複雜的技術,只需結合基本學習原則,還有在ChatGPT用中文下指令的技巧,這樣你以後就可以針對自己想學的英文內容設計客製化的學習材料跟練習過程喔!
Thumbnail
今天想分享我怎麼「用 AI 設計一個學習流程」讓我把學過的英文「真的記住,並且用的出來」 這個過程不會碰到複雜的技術,只需結合基本學習原則,還有在ChatGPT用中文下指令的技巧,這樣你以後就可以針對自己想學的英文內容設計客製化的學習材料跟練習過程喔!
Thumbnail
因為 AI 領域的技術不斷地迭代更新,無法避免的是需要一直去追新的技術 並且需要在一個有限的時間學會,或是實作應用導入到專案之中。 那我覺得在學習新技術可通過以下步驟: 1. 找一個讀得懂的教學資源 現在網路上的教學資源很多,或是書籍的資源也很豐富, 同時也有像是 chatgpt 的 AI
Thumbnail
因為 AI 領域的技術不斷地迭代更新,無法避免的是需要一直去追新的技術 並且需要在一個有限的時間學會,或是實作應用導入到專案之中。 那我覺得在學習新技術可通過以下步驟: 1. 找一個讀得懂的教學資源 現在網路上的教學資源很多,或是書籍的資源也很豐富, 同時也有像是 chatgpt 的 AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
為了充分發揮AI的潛力,我們必須深入瞭解其運作模式和思考邏輯,並學會與AI對話的技巧。《ChatGPT提問課,做個懂AI的高效工作者》這本書提供了豐富的實例,讓讀者更容易學會如何提出精準的問題,並享有提問課程的閱讀回饋。這對於想成為懂AI的高效工作者的人來說,是一本值得一看的書。
Thumbnail
為了充分發揮AI的潛力,我們必須深入瞭解其運作模式和思考邏輯,並學會與AI對話的技巧。《ChatGPT提問課,做個懂AI的高效工作者》這本書提供了豐富的實例,讓讀者更容易學會如何提出精準的問題,並享有提問課程的閱讀回饋。這對於想成為懂AI的高效工作者的人來說,是一本值得一看的書。
Thumbnail
在第一篇我講到一開始的圖像風格轉換,每產生一張圖片都得重新訓練,這對於使用上難免綁手綁腳,所以理所當然的下一步就是要解決這個問題,看看能不能只要訓練一次,就可以重複使用。
Thumbnail
在第一篇我講到一開始的圖像風格轉換,每產生一張圖片都得重新訓練,這對於使用上難免綁手綁腳,所以理所當然的下一步就是要解決這個問題,看看能不能只要訓練一次,就可以重複使用。
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News