文/島國修補工
一、導言
當生成式人工智慧以 ChatGPT 為代表在全球掀起熱潮的同時,一股對 AI 的恐懼情緒也迅速蔓延。這種情緒在媒體的推波助瀾下,往往被放大成兩種極端:一種是「末日論」,將 AI 描繪成奪取工作、操縱輿論、瓦解民主制度的威脅;另一種則是「救世主論」,將 AI 視為解決社會難題的萬能鑰匙。兩種敘事看似對立,實則都模糊了真正的問題—技術本身並不會決定它的用途與後果,真正的關鍵在於掌握它的人,以及制度如何規範它的使用。AI 的誕生並非人類第一次面對改變溝通與認知方式的科技革命。從印刷術到網際網路,每一次技術躍進,都伴隨著對真相與虛構邊界的重新定義。然而,與過去不同的是,生成式 AI 能在極短時間內,產生與人類語言幾乎無異的內容,讓它在資訊戰與輿論操作中,成為一個極具想像空間的工具。問題在於,當媒體將所有風險簡化為「AI 的危險性」時,我們便容易忽略它所反映出的—人性與制度的真實缺陷。
二、AI的誤解與心理投射
ChatGPT 的本質,是透過龐大資料集與演算法模型進行語言生成的系統。它沒有意識、情感與動機,無法「自主」策劃行動。然而,在媒體的描述中,AI 卻常被賦予擬人化特質,甚至被暗示能「有立場」、「會說謊」或「有偏見」。這種誤解並非偶然,而是人類面對未知科技時的心理投射——我們將對人性的戒心、對權力濫用的恐懼,全部投射到一個冰冷的系統上。
事實上,AI 的輸出結果,完全依賴輸入資料與設定參數。如果資料本身存在偏差,或操作者刻意導向特定結論,那麼 AI 就會成為偏見的複製器。但這並不意味著 AI 會「自行選擇」立場;它只是反映了人類提供的素材與目的。當我們把責任推給技術,反而掩蓋了操作者與制度設計者的責任。
三、為何人們更容易信任ChatGPT
在假新聞、片面訊息橫行的年代,許多人反而對 ChatGPT 這類 AI 工具產生了異常的信任感。理由很直接——它在回應時,傾向維持邏輯一致性,並且會嘗試提供可追溯的資訊依據。它不會因為政治立場改變措辭,也不會為了迎合情緒而故意誤導。
反觀現實世界中的資訊來源,無論是政客、媒體或社群意見領袖,都可能受制於立場、利益與情緒波動,導致言論隨時變調。這種對比,讓許多人感到 AI「更中立」——即使這種中立性其實只是穩定的輸出邏輯,而非真正的價值判斷。
這種信任背後,也揭示了一個令人不安的現象:我們對人類彼此之間的信任度正在下降。當我們在生活與政治環境中,習慣了被話術包裝、被利益驅動的敘事引導,機器那種看似「無私」的穩定回應,就變得格外吸引人。
四、比起演算法,我們更該擔心人性
演算法常被視為輿論操縱的罪魁禍首,彷彿它擁有主動操控人類思想的能力。但必須認清的是,演算法不過是人類行為的回音室。它依據我們的點擊、停留與分享來優化內容推薦,並不會主動創造需求。真正的危險,是人類在追求利益最大化時,利用演算法去放大分裂、挑動情緒。
例如,許多媒體為了流量與廣告收益,傾向放大衝突與對立議題,因為憤怒與恐懼更容易吸引注意力。演算法在這樣的生態中,只是加速了分化,而不是根源。當我們只討論如何「修正演算法」,卻不檢討媒體的商業模式與社會的資訊消費習慣時,問題就永遠無解。
五、台灣的特殊現象與輿論偏差
在台灣,AI 輿論的政治化傾向尤其明顯。同樣的技術,在不同政治光譜的媒體中,會被賦予完全不同的評價與用途:支持者可能將它視為資訊透明化的工具,反對者則可能將它定義為操縱民意的手段。
這種現象與其他公共議題的輿論偏差相似。例如,《報導者》曾實地走訪恆春半島,針對核三廠延役的民意調查,發現地方居民的立場並不像民調顯示的高度支持,更多是「有條件的接受」——例如先解決高低階核廢料的安置與安全問題。然而,部分媒體卻將這種有條件的態度簡化為「支持核電」,忽略了背後的前提與疑慮。這種輿論的選擇性呈現,不只發生在能源政策,也同樣影響著大眾對 AI 的看法。
當媒體在報導新技術時,只選擇符合立場的觀點,公眾的討論空間便被壓縮,理性辯論被情緒化的標籤取代。AI 在這樣的環境中,容易被政治化,而不是被當作一項需要監督與規範的公共工具。
六、結語:照見自己,才是關鍵
生成式 AI 的爭議,不應只停留在「它會不會取代我們」、「它會不會說謊」的層次,而是應該引導我們檢視自身的媒體素養、制度設計與資訊倫理。AI 不會自發地追求權力與利益,但人會;AI 不會主動隱瞞真相,但人會選擇性地呈現事實。
當 ChatGPT 這面鏡子映照出我們的選擇與偏見時,與其砸碎鏡子,我們更應該學會直視鏡中之人。歷史告訴我們,技術本身從來不是善惡的根源;真正的風險,始終來自人性與制度。如果我們能將這面鏡子當作檢視與修正的工具,那麼 AI 或許能幫助我們重建一個更理性、更負責任的公共討論空間。
參考資料
- Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
- O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group.
- 〈生成式AI的社會影響與媒體責任〉,《報導者》,2024年5月15日。
- 〈核三廠延役與地方居民立場調查〉,《報導者》,2024年6月28日。
- 〈台灣媒體光譜與輿論操縱研究〉,《新新聞》,2023年12月20日。