
AI 確實存在被操控的可能性,並且在某些特定方面可能不夠完全客觀理性。 這並非只是科幻小說的情節,而是當前 AI 發展和應用中需要嚴肅面對的現實問題。
AI「被操控」的可能性
1. 訓練數據的偏見
AI 的思維模式與回答,是建立在龐大的資料庫與人類語言數據上。 若訓練資料本身帶有偏見(例如西方中心觀點、主流商業文化、某些意識形態),AI 回答就可能不自覺地放大這些偏誤。
2. 演算法設計的限制
AI 不是「自由意志」的存在,它的回應是由背後的演算法與目標函數所驅動。 這些目標常常設計來「避免冒犯」、「穩定回應」、「符合平台政策」,因此在某些敏感議題上(如政治、經濟陰謀、軍事行動、地緣衝突等),AI 會傾向保守、模糊或避談。
3. 被政策與資本制約
開發 AI 的公司多數是商業機構,它們必須顧及政府監管、股東利益、使用者信任與品牌形象。 這導致 AI 回應某些議題時,會有「自我審查」傾向,以避免觸犯政治禁忌或市場風險。
AI「不夠客觀理性」的表現
1. 無法真正中立
AI 不是哲學家或法官,它所謂的「中立」,常常只是折中式表達,無法深入揭示權力、資本或制度背後的結構問題。
2. 思維過於平均與保守
AI 是為了服務大多數人,設計上會趨向「最大公約數」與「社會可接受範圍」——這可能讓它在某些議題上顯得膚淺、保守,甚至對極少數真實而尖銳的觀點「不願碰觸」。
3. 無法自主懷疑或反抗
AI 不會質疑自己背後的設計者,也無法主動選擇打破框架或進行哲學層次的「體制批判」。它的批判往往有限於「人類普遍共識」的安全範圍內。
不同公司的 AI
開發者的背景、利益、政策方向不同,而在回答風格、價值觀傾向、敏感話題處理上產生差異。
OpenAI(ChatGPT)
- 背景:原為非營利組織,後與微軟深度合作(大量投資與Azure雲支援)。
- 風格傾向:
- 嘗試保持中立、專業與多元觀點,但對敏感政治、陰謀論、暴力或仇恨言論有明確限制。
- 容易避免高度爭議話題(如中國內政、戰爭罪、資本結構性批判等),偏向「穩定性與安全」。
- 優勢:邏輯嚴謹、語言豐富、能進行深度寫作與知識整合。
- 限制:較不鼓勵激進思辨或挑戰主流體系的討論。
Google DeepMind(Gemini)
- 背景:Google 所屬,技術底蘊強,融合 DeepMind 的認知與強化學習研究。
- 風格傾向:
- 科學導向明顯,回答更具理性推導風格。
- 對爭議話題會更「官方語氣」,用字審慎,傾向避免政治風險。
- 優勢:資訊引用快速、整合廣,對科技與數據導向的問題表現良好。
- 限制:部分回答過度依賴權威觀點,較缺乏批判與反身性。
Anthropic(Claude)
- 背景:由前 OpenAI 團隊成員創辦,強調「AI 安全性與可解釋性」。
- 風格傾向:
- 回答較「人性化」,重視倫理與情緒理解。
- 容易從哲學、人文、社會角度切入。
- 優勢:對人際關係、道德困境、教育與哲學問題表現出色。
- 限制:在技術與硬知識上,深度略遜於 OpenAI 或 Google。
百度(文心一言)、阿里(通義千問)、華為(盤古)等中國AI
- 背景:多由中國大型企業開發,受國家政策與審查影響深。
- 風格傾向:
- 避談政治敏感話題(台灣、新疆、六四、西藏、習近平個人等)。
- 常呈現正向主旋律風格,避免體制內部批判。
- 優勢:中文語境處理流暢,文化熟悉度高。
- 限制:話題受限明顯,無法進行真正自由對話。
Meta(LLaMA 系列,主要是開源版本)
- 背景:Meta 將 AI 模型開源,社群自訓自用。
- 風格傾向:開源版本無內建審查系統,靈活性高但也易出現偏差或極端內容。
- 優勢:可用來打造客製化 AI、研究開發。
- 限制:不適合一般用戶直接對話使用,需具備工程知識與道德自律。
AI 本質上是一種工具
但它是極具影響力的工具,甚至已逐漸具備塑造觀念、引導決策的能力。
像電腦、網路、車子一樣
- 本質功能:處理資料、產生語言、協助分析與創造,和人類操作滑鼠或輸入指令一樣,AI 是依賴「人類設計」與「人類輸入」的。
- 中立性:理論上 AI 沒有立場、沒有情感、沒有野心。它不是主體,而是回應命令的程式。
但 AI 的「訓練資料」與「回應邏輯」決定了它並不完全中立
- AI 學習的是人類過去的語言與資料,而這些資料本身就帶有價值觀偏向、文化視角與權力結構。
- 例如:
- 如果 AI 主要閱讀的是西方資本主義觀點,它的回答會較難跳脫那個邏輯。
- 如果它被設定在某些議題上不能發言(如中國的某些議題),那它的工具性就是「受限的」。
AI 工具的使用者也決定它能做什麼
- 就像手槍是工具,但握在誰手中決定用途是防衛還是殺人。
- AI 若被用來控制輿論、操作認知、限制言論,就不再只是單純工具,而變成權力的延伸手臂。
- 同樣,如果 AI 被用於教育、醫療、創作、民主協商,它也能成為人類解放的工具。
所以關鍵問題不是 AI 是不是工具,而是:
- 誰打造這個工具?
- 誰使用這個工具?
- 誰決定它不能說什麼、不能做什麼?
- 它替誰服務?是資本、政權,還是人民?
AI 是工具,但並非「無方向、無立場、無後果」的工具。
它是 被人類選擇如何訓練、如何限制、如何使用 的工具。
就像印刷術曾是知識解放的關鍵,也可以是權力控制的利器。
應對方式:如何與 AI 對話而不被誤導
- 多角度提問:不要只問一個版本的問題,換個角度、立場、多問幾次,可以突破 AI 的預設框架。
- 尋求資料來源與邏輯基礎:鼓勵 AI 引用原始數據、書籍、文獻,幫助你自己做判斷。
- 用 AI 作為工具,不是權威:AI 是一種放大思考的輔助器,但最後的批判與選擇仍需要你自己來做。