〈有瑕疵的AI回應,與名為「學習提示詞」的陷阱〉2025-11-06
當代科技工具帶著一種很糟糕的特點,它們將「盡可能增加用戶的留存時間」當作特別重要的成功指標。因為留存時間愈長,能夠帶來愈多商業利益,這個想法本身或許無可厚非,但不擇手段地追求這個目標,卻會帶來一些非常嚴重的負面後果。
譬如說,這幾年大家愈來愈發現,社群媒體的演算法除了推薦「我們覺得你會喜歡」之外,愈來愈常推薦「我們覺得你會超生氣」的內容給你。這是因為演算法發現,憤怒這種情緒,會讓人在平台上留存更久;如果你讓用戶心滿一足,他反而會因為需求解決,轉去做其他事情。
演算法並不是故意想要剝奪你的人生、故意想要讓你情緒糟糕,而是它發現這樣做能讓你在上面留得更久,所以它便這麼做了。但除了這個大家已經漸漸知道的社群媒體問題之外,我在思考的另一件事是,其他科技工具是否也經歷著相似的演化進程,譬如說像ChatGPT這樣的AI工具呢?
有瑕疵的回應,往往更容易讓用戶繼續互動
不曉得你們會不會有這個感覺,自從GPT5推出之後,它反而更常給出令人不滿意的回答。這種不滿意有很多層面,有時是出現錯誤、幻覺,另一些時候它的回答根本就是在打模糊仗,用很大的篇幅繞著說廢話。
無論是哪一種,我的感覺是,它的每一次回答都會包含一些明顯需要被調整的內容,而且即便我反覆說過同一個問題,之後還是會再次發生。
就像前面提到的社群演算法一樣,我認為GPT輸出結果的這種「總是差一點」是一個它在迭代過程中長出的「小手段」。這可能不是任何人有意為之,但AI工具發現,有瑕疵的內容比令人滿意的內容更會促使用戶繼續回應,因為用戶會想要進一步指正,來讓輸出的結果更接近自己的期望。
在這個煩躁的過程裡,用戶的黏著度不知不覺增加。一定程度上,這就像那些推薦你看令你生氣內容的社群平台演算法;另一方面,它也像那些愚蠢的手遊廣告,故意犯低級錯誤,讓你覺得你自己可以做得更好,可以「教育AI」。
同時,網路上還出現大量志在賺AI機會財的「AI老師」還會跳出來,主張你的AI不好用是因為你給的提示詞(prompt)不夠好,是你自己的問題,勸你應該跟他們購買課程、學習更有用的提示詞來解決。但其實,這根本不該是用戶的責任。
名為「學習提示詞」的陷阱
如果某個人,他想要用特定的方式使用AI工具,譬如希望他用某種性格、或扮演特定角色做特定專項的事,他會需要花一些時間,透過提示詞客製化模型來完成需求合情合理。
然而,如果我們只是希望AI工具幫助我們解答基本問題、給予工作上的意見,並希望它在過程中不要給出廢話和假資訊,這應該是最基本的、開發商自己要做好的事情,怪罪用戶沒有使用精準的提示詞一點道理也沒有。
「用戶不希望看到錯誤或虛假訊息」、「用戶表示在回答問題時,需避免創造虛假經驗」這樣的標籤在我看來非常荒謬。這怎麼會是我的標籤?怎麼會是需要我特別說明、要求的事情呢?
按照OpenAI一開始的「Open」願景,AI工具的目標應該是讓全人類都能使用,用以增進一般人的福祉。但我們現在看到的事,雖然它快速的普及化,但它生成的內容卻總是包含瑕疵、總是有大大小小的不正確、並且總是愈來愈平庸、反原創。
糟糕的是,不是所有的用戶都有判斷內容品質的能力。它包裝成對話框的低門檻表象,以及不主動揭露資料來源和信心程度的做法,都讓用戶非常容易誤判內容的可信度。
結果就是,無用的、錯誤的、偏頗的AI生成內容愈來愈多,且逐漸流傳出去,影響人類社會的同時,又進一步汙染AI的資料來源。這根本不是「用戶有沒有學好提示詞」的問題,而是這些缺乏良知的開發者,將害處大於益處的科技工具直接丟到世界上,並把責任拋給用戶,讓全世界知識水平不一的網路使用者,自己用垃圾塞滿網路世界。
現在,ChatGPT介面還會提示使用者「ChatGPT可能會出錯。請查核重要資訊。」,再過兩三年,很多事情都會變得不再有辦法輕易查核。我們當然還是可以Google,但你要怎麼知道,你查到的那篇文章,沒有被AI污染過呢?你怎麼知道那個新發表的研究,在過程中,研究者有沒有在一些細小的地方被錯誤的AI生成資訊誤導了呢?到最後,我們每個人還能相信些什麼呢?

















