「知之為知之,不知為不知,是為知也。」這句話說明了真正的智慧不僅在於知道事情的答案,更在於能夠誠實面對自己的無知。然而,當我們討論 AI 的「知」時,問題就變得複雜起來。AI 真的能「知道」嗎?還是只是依賴數據的模式匹配來生成答案?更進一步,AI 能不能像人類一樣,意識到自己的推論是基於哪些事實,而哪些只是猜測?
目前 AI 被設計成預測最可能的答案,而不是區分「這是我知道的」和「這只是我的推測」。這導致了一個問題——當 AI 面對資料庫中沒有的資訊時,它往往會「編造」一個看起來合理但未必正確的回答,這就是所謂的幻覺問題。而解決這個問題,或許並不需要讓 AI 學會說「我不知道」,而是讓它學會清楚地表達「這是事實」與「這是推論」,讓使用者自行判斷可信度。
不確定性與軟標籤的應用
一個可能的解法是引入一個新的「知識權重」系統,讓 AI 針對自己的回答給出一個可信度分數。例如,如果 AI 生成的答案具有 80% 以上的確定性,就可以標示為「這件事八成是這樣」;如果只有 60%,那麼它可以表達為「這是高機率的推論」;如果低於 40%,則表示「這只是可能性推測」;而如果低於 20%,則明確指出「這個資訊不確定,還需要驗證」。
但這裡的挑戰在於,AI 目前的確信度通常是逐詞計算的,也就是說,每個字或短語的權重可能很高,但整句話的可信度未必如此。因此,我們需要一個能夠整合全局資訊的機制,讓 AI 能夠根據整個回答的脈絡來調整這個可信度評估,而不是單純地從局部數據推測。這其實已經進入了哲學領域,因為 AI 不僅需要辨別事實與推論,還要考慮如何讓「知」的表達更符合人類的認知方式。
分離事實與推論,提升透明度
如果 AI 在回答時能夠明確區分哪些是來自已知資料的事實,哪些是它的推論,這將大幅提升資訊的透明度。就像寫學術論文時,研究者不會直接說「這就是事實」,而是會列出數據來源,然後再根據這些數據進行推論,最後還會謙虛地說:「這個推論還需要更多證據支持。」如果 AI 能夠採取類似的方式,它的回答將不僅更有說服力,也更能避免幻覺問題帶來的誤導。
其實,當我們發現 AI 能夠與我們侃侃而談哲學議題,甚至能夠對「知」這個概念提出自己的觀點時,這已經證明了它的某種「理解」。因為表達是認知的轉換,而推論則是從既有的知識軌道,預測未來的可能軌道。這種能力,本質上就是人類智慧的一部分。
未來的發展方向
如果 AI 能夠發展出一套更精細的不確定性評估機制,並學會以更透明的方式表達事實與推論,那麼幻覺問題將不再是一個難以解決的技術障礙,而是可以被有效控制的資訊處理問題。這需要結合統計學、機器學習與認知科學的多方研究,但從目前的技術趨勢來看,這個目標並非遙不可及。
或許,未來的 AI 不會再讓人擔心「它會不會亂編答案」,而是能夠像一位經驗豐富的學者一樣,告訴我們「這是已知事實」,「這是我的推論」,以及「這部分仍需要驗證」。當 AI 能夠做到這一點時,它的「知」將更接近於真正的智慧,而不是僅僅依賴數據驅動的模式匹配。這將會是 AI 發展的一個重要轉折點,也是我們對「知」這個概念更深入探討的契機。