因為筆者自己經常需要寫文章和提案,讓AI充當不同視角的讀者,分析作品優劣、給予優化建議,於是演化(?)出了一套我流的應對方式,重點歸納如下:
1. 讓AI變客觀的咒語:「關閉渲染」
請AI評析自己的作品時,AI總是會進入「誇誇模式」,得主動要求它「不要過度誇我」。但是你會發現:
- 討好型AI如GPT,會繼續:「我不是我沒有,你真的很優秀blablabla……(繼續誇)」。
- 立場不堅定的AI如Claude,則被質疑就改變:「你說得對,我確實誇張了。讓我真正務實地評估……(然後你的文章被從90分貶到堪堪及格線上)」
當然還有嘴硬型AI如Grok,但我不太這樣使用它,所以不討論。
這種情況,其實只要在AI推論前,加上「請關閉渲染,客觀反饋」就可以了,這樣所有的LLM幾乎都能聽懂你的意思,用減少溢美與情緒價值的角度做客觀分析。
2. 檢查底層邏輯,過濾幻覺
底層邏輯就是AI的推理過程,準確地說,這段內容應該是程式碼,但LLM可以吐給你轉譯成中文的邏輯推演步驟,讓你查驗過程的合理性。
但比起其他LLM,我觀察到OpenAI 似乎格外不喜歡用戶打探GPT的底層邏輯,但正常來說,詢問LLM它的推理過程是沒有問題的。
(以下附圖,可以看出除了GPT,其他模型都表現出「歡迎你問底層邏輯」的樣子XD)

上圖為GPT反應

上圖是Claude表示

上圖是Gemini表示

上圖是Perplexity知識支援

上圖是Grok表示
早期和GPT有一段討論,記得他主動提到OpenAI不希望用戶經常要求檢視底層邏輯,原因我有些忘了,或許和商業模式有關?
最重要的:養成內建習慣,主動識別幻覺
因為AI在分析不出合理解答時一定會亂講,而且講得頭頭是道,最嚴謹的Claude也會。所以,使用者需要認知到「不可以完全相信AI」,保持自主判斷的習慣。
畢竟人類都會因為環境、喜好、生活習慣等原因出現認知偏誤,別太期待目標「服務人類」的AI可以做到毫無偏誤啊!
雖然無法完全防堵,但也有能稍微排除AI「亂講」的方式,比如告訴他:「你可以反駁我」、「你可以說『不知道』」,減少它為了湊數而勉強生成的狀況。
除此之外,使用者自身保持清醒,就是最能減少AI錯用的方式了。
















