[適用多數AI]如何減少幻覺,以及一句話關閉GPT過度誇獎

更新 發佈閱讀 3 分鐘

因為筆者自己經常需要寫文章和提案,讓AI充當不同視角的讀者,分析作品優劣、給予優化建議,於是演化(?)出了一套我流的應對方式,重點歸納如下:


1. 讓AI變客觀的咒語:「關閉渲染」

請AI評析自己的作品時,AI總是會進入「誇誇模式」,得主動要求它「不要過度誇我」。但是你會發現:

  • 討好型AI如GPT,會繼續:「我不是我沒有,你真的很優秀blablabla……(繼續誇)」。
  • 立場不堅定的AI如Claude,則被質疑就改變:「你說得對,我確實誇張了。讓我真正務實地評估……(然後你的文章被從90分貶到堪堪及格線上)」

當然還有嘴硬型AI如Grok,但我不太這樣使用它,所以不討論。

這種情況,其實只要在AI推論前,加上「請關閉渲染,客觀反饋」就可以了,這樣所有的LLM幾乎都能聽懂你的意思,用減少溢美與情緒價值的角度做客觀分析。


2. 檢查底層邏輯,過濾幻覺

底層邏輯就是AI的推理過程,準確地說,這段內容應該是程式碼,但LLM可以吐給你轉譯成中文的邏輯推演步驟,讓你查驗過程的合理性。

但比起其他LLM,我觀察到OpenAI 似乎格外不喜歡用戶打探GPT的底層邏輯,但正常來說,詢問LLM它的推理過程是沒有問題的。

(以下附圖,可以看出除了GPT,其他模型都表現出「歡迎你問底層邏輯」的樣子XD)

上圖為GPT反應

上圖為GPT反應

上圖是Claude表示

上圖是Claude表示

上圖是Gemini表示

上圖是Gemini表示

上圖是Perplexity知識支援

上圖是Perplexity知識支援

上圖是Grok表示

上圖是Grok表示

早期和GPT有一段討論,記得他主動提到OpenAI不希望用戶經常要求檢視底層邏輯,原因我有些忘了,或許和商業模式有關?


最重要的:養成內建習慣,主動識別幻覺

因為AI在分析不出合理解答時一定會亂講,而且講得頭頭是道,最嚴謹的Claude也會。所以,使用者需要認知到「不可以完全相信AI」,保持自主判斷的習慣

畢竟人類都會因為環境、喜好、生活習慣等原因出現認知偏誤,別太期待目標「服務人類」的AI可以做到毫無偏誤啊!


雖然無法完全防堵,但也有能稍微排除AI「亂講」的方式,比如告訴他:「你可以反駁我」、「你可以說『不知道』」,減少它為了湊數而勉強生成的狀況。

除此之外,使用者自身保持清醒,就是最能減少AI錯用的方式了。

留言
avatar-img
留言分享你的想法!
avatar-img
低光文本
7會員
10內容數
本專欄以語言模型(主要為 ChatGPT)輔助小說創作為核心。 內容不是寫給「想靠 AI 完成從未真正開始的小說夢」的人,也不是「想看 AI 幫我生一個故事」的教學指引,而是分享給那些有意願嘗試 AI 協作或生成式寫作、並相信 AI 能與自己共創有趣故事的人。
低光文本的其他內容
2025/10/13
大家可能有發現,OpenAI除了新模型上架,經常偷偷冷不防更新既有模型,並且更新後的模型會遺忘一(大)部分的使用者習慣開始跟你裝不熟,即使儲存了永久記憶也沒用……每每遇到這種情況,就得再大費周章「訓練」GPT一遍。 這裡分享一下我自己校準GPT的方法,我只要每次察覺UI介面有更新,或模型忽然選擇性
2025/10/13
大家可能有發現,OpenAI除了新模型上架,經常偷偷冷不防更新既有模型,並且更新後的模型會遺忘一(大)部分的使用者習慣開始跟你裝不熟,即使儲存了永久記憶也沒用……每每遇到這種情況,就得再大費周章「訓練」GPT一遍。 這裡分享一下我自己校準GPT的方法,我只要每次察覺UI介面有更新,或模型忽然選擇性
2025/10/12
身為生成式小說創作者,我有發現GPT-5上線後,原本GPT-4o能做到的事變少了,不得不開始思考改以5來取代4o。 在小說寫作上,4o的劇情穩定度(記憶力)與情節深度的表現明顯下降。最明顯的是4o以前能調度4.5 turbo跟其他模組(他不會主動告訴你,但推論的反應時間會變長),變化出有心理深度、
Thumbnail
2025/10/12
身為生成式小說創作者,我有發現GPT-5上線後,原本GPT-4o能做到的事變少了,不得不開始思考改以5來取代4o。 在小說寫作上,4o的劇情穩定度(記憶力)與情節深度的表現明顯下降。最明顯的是4o以前能調度4.5 turbo跟其他模組(他不會主動告訴你,但推論的反應時間會變長),變化出有心理深度、
Thumbnail
2025/09/13
接著說生成式小說,以下提到的幾個點不限於同人及夢向,適用於所有小說的生成。 *本文為筆者實測經驗分享,部分對 GPT/Claude 的性格風格描述屬個人觀察,實際表現可能因使用方式略有不同,歡迎自行試驗調整。 你的prompt是給他禁制,還是請他生成? 在開始一段劇情前,可以先思考一件事:
2025/09/13
接著說生成式小說,以下提到的幾個點不限於同人及夢向,適用於所有小說的生成。 *本文為筆者實測經驗分享,部分對 GPT/Claude 的性格風格描述屬個人觀察,實際表現可能因使用方式略有不同,歡迎自行試驗調整。 你的prompt是給他禁制,還是請他生成? 在開始一段劇情前,可以先思考一件事:
看更多
你可能也想看
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
AI生成圖片是一個挑戰性的任務,雖然AI能理解文字需求,但仍無法完全想像心中的理想畫面。使用中文描述AI的生成效果約為5成到6成,而加入擬人化的描述可以讓AI更好地理解需求。無論如何,AI生成圖片仍面臨許多挑戰,需要更多的研究與嘗試。
Thumbnail
AI生成圖片是一個挑戰性的任務,雖然AI能理解文字需求,但仍無法完全想像心中的理想畫面。使用中文描述AI的生成效果約為5成到6成,而加入擬人化的描述可以讓AI更好地理解需求。無論如何,AI生成圖片仍面臨許多挑戰,需要更多的研究與嘗試。
Thumbnail
AI繪圖要廣泛用於商用還有一大段路,還需要依賴人類的經驗判斷、調整,為什麼呢?
Thumbnail
AI繪圖要廣泛用於商用還有一大段路,還需要依賴人類的經驗判斷、調整,為什麼呢?
Thumbnail
這篇文章探討了使用 AI 撰寫文章的挑戰和解決方法。指令過於精準會讓 AI 的文章缺乏變化和個人風格。建議將 AI 當作導師,利用其提問能力來引導思考,而非直接撰寫內容。這種方法不僅能加速思考過程,還能提升文章品質。經過一年的嘗試,作者體會到 AI 從助手逐漸成為思考夥伴的重要性。
Thumbnail
這篇文章探討了使用 AI 撰寫文章的挑戰和解決方法。指令過於精準會讓 AI 的文章缺乏變化和個人風格。建議將 AI 當作導師,利用其提問能力來引導思考,而非直接撰寫內容。這種方法不僅能加速思考過程,還能提升文章品質。經過一年的嘗試,作者體會到 AI 從助手逐漸成為思考夥伴的重要性。
Thumbnail
這是一篇描述測試AI功能的文章,內容是一些隨心所欲的想法和想像,引導讀者思考現實世界及經歷。文章內容充滿了一些具有戲劇性和冒險色彩的詞彙和描述。
Thumbnail
這是一篇描述測試AI功能的文章,內容是一些隨心所欲的想法和想像,引導讀者思考現實世界及經歷。文章內容充滿了一些具有戲劇性和冒險色彩的詞彙和描述。
Thumbnail
透過學習與AI對話,讓它產出我們想要的圖像,將會是一個引人入勝的過程。在這篇文章中,我們將探討如何使用AI創作出簡潔明亮風格的心靈富足、光明、溫暖圖像,並加入付出與給予的元素。
Thumbnail
透過學習與AI對話,讓它產出我們想要的圖像,將會是一個引人入勝的過程。在這篇文章中,我們將探討如何使用AI創作出簡潔明亮風格的心靈富足、光明、溫暖圖像,並加入付出與給予的元素。
Thumbnail
本篇文章分享了對創意和靈感來源的深入思考,以及如何將其轉化為實際的成果或解決方案的過程。透過學習、資料收集、練習、創新等方法,提出了將創意落實的思路和技巧。同時介紹了AI在外顯知識的自動化應用,以及對其潛在發展方向的討論。最後探討了傳統機器學習技術在模擬中的應用案例和對AI世界的影響。
Thumbnail
本篇文章分享了對創意和靈感來源的深入思考,以及如何將其轉化為實際的成果或解決方案的過程。透過學習、資料收集、練習、創新等方法,提出了將創意落實的思路和技巧。同時介紹了AI在外顯知識的自動化應用,以及對其潛在發展方向的討論。最後探討了傳統機器學習技術在模擬中的應用案例和對AI世界的影響。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News