在網絡上有關 AI 的討論經常會把 AI 稱為訓練資料的平均值,我認為這是錯的。
我們可以先把 AI 的輸出分成兩個部分:形式和內容。AI 的輸出形式
「AI 寫作的輸出是訓練資料的平均值」這句話聽起來很合理,畢竟 AI 沒有自由意志,那麼輸出的事物必然是基於輸入的。
然而我們首先要考慮的是,到底甚麼是平均?
AI 的訓練資料包含了法律文件和詩,那麼這兩種文體有平均嗎?
「文體」不是「量」的不同,而是「質」的不同,因此根本沒有平均可言。
如果 AI 在輸出時同時使用了兩種文體的資料,又怎麼會有平均?
又假如 AI 只是用了一種文體訓練,例如議論文。
但不同的議論文使用了不同的編排結構,有些把主旨放在文章開頭,有些放在結尾。那麼平均值是甚麼?平均值存在嗎?
再者,AI 在訓練的時候其實控制了輸出的形式,也就例如較多使用點列式等等,這些不是人類寫作的平均,而是 AI 公司為了方便用户使用而調整的輸出形式。

AI 的內容
如果 AI 的形式不是平均,AI 輸出的內容是平均嗎?
我認為大多數時候是的,例如在詢問 AI 有關議題的現狀時,它們的論點會是「平均的」,也就是很多人會同意的,很多人會提出的論點。
然而 AI 輸出的內容不一定是平均。
當使用者向 AI 表達了自己的觀點,很多時候 AI 會開始「討好」使用者,舉出支持用家立場的論點。這些論點在某個立場內或許是「平均的」,然而有立場本身已經是一種「不平均」。
例如用家支持死刑,AI 會嘗試列出支持死刑的觀點,這些觀點或許在「支持死刑」的圈子裏是平均的,但不代表這些論點是「所有人」的平均。
AI 在訓練的時候,也會收到訓練資料的偏見影響,例如因為訓練資料不足無法識別少數族裔、把負面的形容詞和弱勢社群綁定在一起等等。
這些「偏見」其實才是更加接近「平均值」。
但為了避免這些偏見,AI 公司在訓練模型時通常會盡力避免它們出現在模型中,因此也就偏離了平均值。
結語
把 AI 的輸出當成平均實際上是危險的想法。假如 AI 公司把政治上的偏見加入模型,可能會讓模型輸出特定的立場。
AI 公司的價值取向,透過「看似中立」的形式包裝,會無意識地重塑使用者的世界觀。
如何應對 AI 這種看似平均但有立場的輸出,或許是當代及未來很重要的課題。
🚀 訂閱「一鴴的洞察」:拒絕廢話,提升思辨力
如果你覺得這種深入底層邏輯的分析對你有幫助,請訂閱「一鴴的洞察」。
我專注於拆解網絡環境中的裝懂術語、邏輯謬誤與社交心理。
💪加入我們,不再為無聊的內容浪費時間。




















