作為一個入行18年的媒體從業人員,AI真的是一個令人又愛又恨的存在。還記得,我剛剛開始從事外電翻譯時,「Google翻譯」的品質奇差無比、錯誤百出。2011年8月,「Google字典」突然宣布取消服務時,我還為此惆悵了幾個晚上。
坦白說,我一點也不懷念那個在沒有AI翻譯工具下,必須在截稿期限內,瘋狂翻閱數十頁的英文報告,試圖拼湊出幾百個流暢文字的時光。
但隨著各種AI工具不斷發展,「文字」開始變得很廉價,這彷彿從根本上否定了文字工作者的存在。我們不得不思考,當我們可能再也無法分辨「AI文字」時,要如何重新定義「人類創作的價值」?
當機器能完美模仿人類,甚至被人類誤認為更有「人味」時,當AI偵測工具,也無法分辨何者是真正的「人類文字」時,我們該如何面對這個新時代?
人類的「AI 雷達」或將成為一種集體錯覺
最近幾項調查發現,人類在區分真人與AI生成內容的表現,其實非常糟糕。
市場研究公司Ipsos的一項民調顯示,在九千名受訪者中,高達97%的人無法分辨AI生成的歌曲與人類創作的歌曲。
此外,匹茲堡大學的一項研究也發現,當人們閱讀由真人及AI創作的詩歌時,多數人反而認為 AI寫的詩是出自人類之手。
《金融時報》的作家Elaine Moore更分享了她的親身經歷,她曾被一個偽裝成房地產經紀人的聊天機器人欺騙,在WhatsApp上與其交談了整整15分鐘。這些例子都指向一個令人不安的結論。
我們自以為擁有一種能從文字中感知「人類溫度」的天賦,但隨著AI快速發展,這個想法本身就是一種幻覺。
一些AI寫作特徵,其實是人類的書寫習慣
許多人聲稱,能靠一些「線索」來辨識 AI,例如頻繁使用破折號(——)、舉例時慣用「三點法則」,或是偏好使用「拆解」、「深入探討」、「不是……而是……」等特定詞彙等。
然而,這些所謂的AI特徵,每一個都源自人類寫作中的書寫習慣。
例如,連續舉出三個例子也是人類作家敘事時的常見結構」,在英文世界裡,記者們也非常喜歡使用「破折號」,因此在一些國際新聞與翻譯作品中也很常見。
說到底,AI之所以會展現這些特徵,是因為它忠實地反映了從大量人類文本中學到的模式。
為何連AI都無法分辨「AI文字」?
有些人認為,如果人類無法分辨「AI文字」,讓AI來做就行了吧?但事實上,這也是一個天方夜譚。
要理解為何連AI都難以分辨,得先了解 AI 偵測器的運作邏輯。
從理論上來看,這類工具的運作邏輯極其類似「垃圾郵件過濾器」。技術人員會蒐集大量文本,標記好「人類撰寫」與「AI生成」,讓另一個 AI 模型來學習兩者間的模式差異。當新文字輸入時,模型會根據過往經驗預測它更偏向哪一類。
這類工具並非真的「讀懂」文章,而是進行統計學上的特徵分析。其中有兩個關鍵指標:困惑度(Perplexity)與突發性(Burstiness)。
這聽起來很抽象,但可以用一個簡單的生活情境來理解:如果有人說「我早上喝了一杯咖啡」,這句話的「困惑度」就很低,因為符合常理;但如果他說「我早上喝了一杯血液」,困惑度就極高。
大型語言模型(LLM)在訓練時的目標就是降低困惑度,因此它們傾向選擇機率最高、最安全的詞彙組合。
也有研究指出,AI生成的文字句子長短較均勻,不像人類那樣錯落有致。以英文來說,每個句子大約是15個單字左右。
然而,這種方式對訓練數據的依賴度極高,一旦出現新型態的寫作風格,準確度就會大幅下降。而且,一旦這些統計模式被發現,技術人員就可以在新的模型中「改進缺點」。
不平等的「貓捉老鼠」遊戲
現實是,這場「貓捉老鼠」的遊戲從一開始就不公平。攻擊方只要找到一個漏洞,但防守方必須防禦所有弱點。這使得AI偵測工具一點也不可靠。
1. 工具的自相矛盾:研究人員曾將同一段ChatGPT生成的文字放入不同工具測試,結果「ZeroGPT」判定為100% AI生成,但另一款知名工具「Winston AI」卻判定可能是人類寫的。甚至同一款工具在不同時間點,對同一段文字的判斷也會截然不同。這讓判定結果變得像擲硬幣一樣隨機。
2. 以子之矛,攻子之盾:更諷刺的是,市面上出現了專門用來規避偵測的「人工化」(Humanizing)工具。
有研究者把AI文字餵給一款名為Surfer的工具進行「人工化」潤飾後,再用Surfer自家的偵測器檢查,竟然顯示為「100% 人類寫作」。廠商一手賣鎖、一手賣萬能鑰匙,無異於自己摧毀了偵測可信度。
為了解決「偵測器」的功能不足,有人認為可以為AI文字加上肉眼無法看見的「水印技術」(Watermarking),也就是讓AI在生成文本時,嵌入的一種隱形標記,讓後續識別更加容易。
然而,這項解決方案必須要科技巨頭主動配合。然而,任何一家公司若採用了「水印標記」,都可能讓他們失去競爭優勢。其次,法規的落後與政治干預也讓強制執行變得遙不可及。
誤判的代價:當人類被當作機器
在這場獵巫行動中,最大的受害者往往是無辜的人類。這就是所謂的「假陽性」(False Positive)風險。
由於AI是透過模仿海量的人類文本訓練出來的,這意味著它學習了人類寫作中那塊最龐大、最常見的部分(如商業報告、新聞稿)。因此,當一位人類作者使用比較制式的寫作風格,或者習慣使用排比句、破折號等特定語法時,就極易被誤判為AI。
如果我們過度依賴這些不可靠的工具,可能會毀掉一名學生的名譽,或是讓一位作家的心血被貼上造假的標籤。
解方:從「內容」轉向「情境」
如果文字本身的特徵分析這條路走不通,我們還剩下什麼?答案是:跳出文字,尋找情境(Context)。
CNA報導了一個真實案例。一位加拿大報社編輯識破了AI寫手,並非因為文筆有破綻,而是因為背景資訊的矛盾。這名寫手自稱住在多倫多,但履歷上全是紐約的工作經歷,且對多倫多當地的社會脈絡一無所知。
這個案例告訴我們,未來的鑑別關鍵不在於字句的排列組合,而在於外部事實的查核以及個人風格的一致性。例如,一位平常用語簡短的同事,突然交出一份詞藻華麗的報告,這個「風格突變」本身就是一個可疑的訊號。
如何與AI寫作共存 回歸思考 重視「認知主權」
有學者認為,面對完美的AI偽裝,我們或許該放棄尋找完美的偵測器,轉而思考如何與之共存。
正如印刷術的發明讓「複製書籍」不再稀有,AI 的崛起則讓「生產文字」變得廉價。
這迫使我們將評斷價值的標準回歸「思想」與「思考」,不再看誰的文筆華麗,而是看誰擁有最獨特、源於真實生命經驗的想法或體會。
這導向了一個核心概念:認知主權(Cognitive Sovereignty)。這意味著在人機協作的過程中,人類必須始終掌握主導權。AI可以是你的導航機(GPS),幫你檢查文法、提供靈感,但手握方向盤的駕駛必須是你。學術界如《Nature》期刊也已轉向這種思維:不禁止使用 AI,但要求公開透明。
在不遠未來,真正珍貴的不是完美的句子,而是文句背後那無法被演算法抄襲的靈魂。
參考資料
- 《評論:不,你無法辨別某物是否由 AI 撰寫》(Commentary: No, you can’t tell when something was written by AI)。
2. 《學術文本的 AI 偵測器有多可靠?》(How Reliable Are AI Detectors For Academic Text?)。
3. 《為何辨別一段文字是否由 AI 撰寫如此困難——即使對 AI 而言也是如此》(Why it’s so hard to tell if a piece of text was written by AI – even for AI)。















