
前陣子我分享如何用AI幫孩子準備期末考教材的重點、考點和模擬考題,不少朋友好奇提示詞,同時我也收到許多關於資料正確性的提醒。
提防AI幻覺的心態非常正確,但千萬別因為AI有幻覺而放棄使用。怎麼對付AI幻覺呢?
當然還是要用魔法打敗魔法!
當AI在生成內容時同時告訴你引用來源,通常會用連結的方式‘呈現,對於內容好奇,立刻去查證這個來源是否可靠,大大降低了AI「一本正經胡說八道」的風險。
①資料量大使用研究工具
例如 Gemin有 #DeepResearch 、ChatGPT的 #深入研究
這類工具通常會在文章段落顯示其引用的文章、報告或網頁連結。我會優先點擊這些連結,快速瀏覽來源內容,確認AI的總結是否符合原文。

②資料量小使用Perplexity AI 、Felo
當 Perplexity AI 給出答案後,你會看到答案上方顯示來源頁籤,生成部分句子旁邊有小小的 [1]、[2] 數字標記。這些就是引用來源的註腳。點擊連結直接進入原始網站,確保獲得的資訊是真實、可靠的。

這招是透過提示詞,讓AI在生成答案前先進行一次自我審核,或是在給出答案後,讓它自己檢查。
①生成前先要求它反思:
「在回答我的問題之前,請你先檢查一下你的資料庫,確保你的回答是基於事實而非推測。」
「請你生成一份關於XX市場趨勢的報告,但在你給出最終答案前,請先列出你將如何查核這些數據的可靠性。」
②生成後要求它自問自答:
「你確定這個答案是完全正確的嗎?有沒有任何潛在的錯誤或需要補充的資訊?」
「請你重新審視你剛才提供的行銷策略,評估一下其中是否存在任何不符合實際情況的假設?」
「你覺得你的回答還有哪些地方可以更詳細或更精準?請列舉出來。」
別放過,再追問:
「你確定嗎?」
「還有沒有其他需要補充的細節?」
「這個說法有什麼數據支持嗎?」
▌#交叉比對:多方求證是真理!
法官不會只聽一面一詞,新聞也講求平衡報導。面對AI的輸出,多問幾個AI,讓它們「互相印證」,是個非常有效的策略。
① 各方AI 交叉詰問
不同的AI模型有不同的訓練數據和演算法,它們各自的「偏見」也會不一樣。透過交叉比對,你可以發現不同AI之間答案的差異,進而找到更接近事實的答案,或是發現潛在的幻覺。
你可以先問 Perplexity,再問 #Gemini,再試試看 #ChatGPT ,將A的答案問B,B的分析問C,最後綜整不同AI的優點和差異,找出最佳解。
② 抽查關鍵資訊
主要比對數字、日期、人名、事件等關鍵事實。如果這些核心資訊有出入,那就是你需要保持懷疑、深入查證的信號。
你也有幻覺防治的撇步嗎?
留言和我分享。