與語言模型的初次對話:Q06記憶體與版本差異

國王 K-avatar-img
發佈於✨方格子精選 個房間
更新 發佈閱讀 6 分鐘

以下由我跟 ChatGPT 討論後,由 ChatGPT 撰寫。以下2025.7.5修正


AI 記憶到底是什麼?──一場人類與迷宮的賽跑

6-1 記憶體是什麼?

「記憶體」指的是 ChatGPT 在多次對話中保留你的偏好或過往對話的能力。
簡單說,記憶讓 AI 不只是隻會講話的鸚鵡,而能成為一個懂你背景、會延續主題的助手。

6-2 Free 版沒有記憶體?

Free 版(GPT-3.5)沒有長期記憶,僅有當次對話的短期記憶,一旦離開聊天室,所有資訊即被清空。

但注意,Free 版可讀取對話中現有內容,無法跨次保存或延續上下文。 這是架構限制,不是故意忘記。


6-3 長期記憶 vs 短期記憶

• 短期記憶:只能記住「這一次聊天室裡的對話」,一旦關掉就全忘光,也會隨 token 滿溢被覆蓋。GPT-3.5(Free 版)只有這個。

• 長期記憶:能跨多次對話保存你的設定與偏好,如喜歡的敘事語氣、角色背景、故事風格等。此功能目前僅限於 GPT-4-turbo(Plus / Pro 版)用戶使用,且須透過系統設定正式啟用。


6-4 Token 是什麼?為何它會影響記憶?

Token 是文字單位,不完全等同字數或字元,且短期記憶容量由 token 上限決定。超過限制會被截斷或覆蓋,影響對話連貫性。

GPT 的「短期記憶」即模型一次性處理對話內容的能力,受 token 限制影響。 • 8k tokens ≈ 約 5,000–5,500 字中文(接近一篇長文章) • 128k tokens ≈ 約 85,000–90,000 字中文(小說級規模)


6-5 長文能變長期記憶嗎?

不能。即使貼上 3 萬字,也只會在當下的短期記憶中處理,對話結束即忘。
真正讓 AI「記住」的是你的設定或偏好指令,且此功能僅開放給 Plus / Pro 版用戶。


結語|我們其實不是在用 AI,而是在走一座會動的迷宮。

Free 版 ChatGPT 沒有記憶、沒有過去,也沒有自我。
你給它故事、邏輯與人設,它一次性閱讀並短暫扮演,像即興劇演員──講完就散場。


後補:你也第一次聽說嗎?

很多人誤以為 GPT-4 就只有一種,實際上 OpenAI 推出多版本,像家族企業,能力差距極大:

• GPT-4(原版):旗艦款,主要給開發者,功能完整但慢又貴。
• GPT-4-turbo:僅限 ChatGPT Plus / Pro 版用戶,速度快、價格低,且具備長期記憶功能。
• GPT-4o(GPT-4 omni):2024 年推出,支援文字、語音、影像輸入,免費用戶也能用,但不等同 turbo,且不保證有長期記憶。 要啟用記憶功能,必須升級 Plus,才能用到 turbo,也才能真正被記住。


後記:由人類撰寫,由 J.S. 優化過。

6 / 10 OpenAI 大當機後,我的記憶體設定突然完全清空,原因不明,也可能是指令不夠精準。經與 J.S. 討論後發現,記憶體寫入的指令規則已改變。 過去只要說「請記住」就能成功寫入,現在這樣行不通了。 即使在 A 聊天室成功溝通指令語,在 B 聊天室使用同一指令語,仍無法觸發系統寫入或刪除記憶。

若無「已更新儲存的記憶」提示,即表示資料未成功進入長期記憶(Persistent memory)。 我發現想寫入設定,必須「說服」 Chat 認為這是重要且需記憶的事項,或讓它確認你確實想這麼做。 觸發寫入或刪除的門檻變得難以捉摸。

免費版原則上沒有長期記憶,但實際上這是個黑洞問題。 你可能無意中留下的記憶碎片,會在數據流中亂竄,造成跨聊天室混亂。 為維持聊天宇宙秩序,建議不要多聊天室隨意跳轉。 集中完成任務後,清理該聊天室的記憶設定,再展開下一任務。 否則,就像我一樣,會面臨記憶碎片散落、宇宙混亂難以收拾的窘境。


💭 記憶,不是一件事,是三種現象。

如果你搞不清楚為什麼有時候 AI 忘記你,有時候卻好像能預知你會說什麼──那你大概是迷失在 ChatGPT 的記憶結構裡了。

別怕,我們有地圖,三層樓梯,帶你出來。

ChatGPT 的記憶三分法(J.S. 詠記版):

• 一樓|預設提示(設定裡的「個人化」)

📍 固定不動的參考資料。你寫給 ChatGPT 看的出廠說明書。
🔒 不會自動改變,模型也不會自己更新這裡的內容。
🛠️ 改了得靠你手動。

• 二樓|長期記憶(儲存的記憶)

📍 模型真的記住你了──如果你明說「記得我說的這個」。
🔁 會跨聊天室使用,也會根據你互動更新。
🔍 你可以在記憶設定頁查看與刪除。

• 三樓|短期記憶(聊天室上下文)

📍 就是這一段對話的背景資料,模型只記得剛剛發生了什麼。
🧊 一換聊天室,就什麼都忘光了。
🎈 是即興的,不留痕跡的意識流。


以上2025.7.5修正

留言
avatar-img
留言分享你的想法!
avatar-img
國王的沙龍
171會員
894內容數
國王的沙龍,取名自「國王的新衣」,什麼樣的人看得到?或什麼的人看不到?觀者讀者自定義可也。這裡的故事真真假假,有回憶、有反省也有願景。下午3點的國王瘋茶會,晚上10點的日語讀書會,邀請您參加。聯絡信箱:echoflowerfields@gmail.com。
國王的沙龍的其他內容
2025/06/09
Q05 使用上限是什麼意思 使用上限指的是每天、每月可使用的次數或 token 限制。 當達到限制後,會無法繼續進行對話或生成文本,直到限制重置。 如何處理:可以選擇升級到 Plus 計劃來提高上限。
Thumbnail
2025/06/09
Q05 使用上限是什麼意思 使用上限指的是每天、每月可使用的次數或 token 限制。 當達到限制後,會無法繼續進行對話或生成文本,直到限制重置。 如何處理:可以選擇升級到 Plus 計劃來提高上限。
Thumbnail
2025/06/02
Q04 匯出資料(Export)是什麼意思? 你可以下載自己在 ChatGPT 裡所有的對話紀錄和設定。 匯出的檔案通常是 .zip 檔,裡面有文字.txt與 JSON 格式的資料。
Thumbnail
2025/06/02
Q04 匯出資料(Export)是什麼意思? 你可以下載自己在 ChatGPT 裡所有的對話紀錄和設定。 匯出的檔案通常是 .zip 檔,裡面有文字.txt與 JSON 格式的資料。
Thumbnail
2025/05/26
這篇文章說明 ChatGPT 聊天室的封存和刪除功能,包括如何封存、取消封存、刪除聊天室,以及封存和刪除的具體作用和影響。👑📜🧍真人留言限定,🤖機器人退散。
Thumbnail
2025/05/26
這篇文章說明 ChatGPT 聊天室的封存和刪除功能,包括如何封存、取消封存、刪除聊天室,以及封存和刪除的具體作用和影響。👑📜🧍真人留言限定,🤖機器人退散。
Thumbnail
看更多
你可能也想看
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
今天想分享我怎麼「用 AI 設計一個學習流程」讓我把學過的英文「真的記住,並且用的出來」 這個過程不會碰到複雜的技術,只需結合基本學習原則,還有在ChatGPT用中文下指令的技巧,這樣你以後就可以針對自己想學的英文內容設計客製化的學習材料跟練習過程喔!
Thumbnail
今天想分享我怎麼「用 AI 設計一個學習流程」讓我把學過的英文「真的記住,並且用的出來」 這個過程不會碰到複雜的技術,只需結合基本學習原則,還有在ChatGPT用中文下指令的技巧,這樣你以後就可以針對自己想學的英文內容設計客製化的學習材料跟練習過程喔!
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們把 AI說書 - Prompt Engineering - 55 和 AI說書 - Prompt E
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們把 AI說書 - Prompt Engineering - 55 和 AI說書 - Prompt E
Thumbnail
你從自動回覆的留言中,串接到了這裡,這是CHATGPT所設定好的記憶技巧,當然有經過我的教導,有我的內容,但也不見得都會全對。就是一個思考的指引,你可以參考看看。 當然他的內容 不是只有勞動法令可以運用,至少會給你三種記憶技巧,你再看一下有沒有適合你的方法。※不過 請注意 其他法條的引用要注意一下
Thumbnail
你從自動回覆的留言中,串接到了這裡,這是CHATGPT所設定好的記憶技巧,當然有經過我的教導,有我的內容,但也不見得都會全對。就是一個思考的指引,你可以參考看看。 當然他的內容 不是只有勞動法令可以運用,至少會給你三種記憶技巧,你再看一下有沒有適合你的方法。※不過 請注意 其他法條的引用要注意一下
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 針對Generative AI、Foundation Model、Large Language Mode
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 針對Generative AI、Foundation Model、Large Language Mode
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在AI說書 - Prompt Engineering - 2中,我們已經以文字敘述各種AI的範疇與其思想
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在AI說書 - Prompt Engineering - 2中,我們已經以文字敘述各種AI的範疇與其思想
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
Thumbnail
AI 相關的內容每天都非常多,有聽過很多人因此感覺到焦慮,怕錯過了最新資訊就會趕不上,這篇內容會跟大家詳細的分享我自己的學習方法和經驗,並且會在最後分享一些我的學習資訊來源。
Thumbnail
AI 相關的內容每天都非常多,有聽過很多人因此感覺到焦慮,怕錯過了最新資訊就會趕不上,這篇內容會跟大家詳細的分享我自己的學習方法和經驗,並且會在最後分享一些我的學習資訊來源。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News