寫在前面
本文為人類與AI共寫,始於我與GPT-5.2就「AI文章檢測是否失準」的討論,由GPT-5.2整合及擬稿、加入Claude補充論點,再經GPT-4o改寫、人類修稿。
這個迂迴的過程,始於我發現GPT-5.2的模糊語意理解還行,同時我發現在「解釋及批判AI行為」的論述上,AI帶著機味的口吻反而更中肯,因此想由AI來完成這篇文章,進而測試5.2的寫作表現。無奈切換到正經模式的5.2文風太學術,後來還是偷懶請4o做口語化轉寫。
BTW,當我照常將修整中的文稿拿去請Claude讀,並測試它是否能分辨文章中的「人味」占比時,它給出了近似冷幽默的評價:有了<寫在前面>這一Part,讓整篇文章變成一個行為藝術。
所以讀到這裡還想往下讀的你各位,就是自願加入這個行為藝術(?)中了。
以下,進入正文。
引子|一種反覆發生、說不太清楚的誤判
這篇文始於一個很難一句話說清楚的經驗:我把自己寫的文章,丟進幾個坊間常見的 AI 檢測工具裡跑,結果大多被判成75~85%高比例的「AI 生成」。
但這些文章,有些甚至是在AI普及以前寫的,即是我平常的寫作風格:側重結構,語氣內斂。結果正是這種行文風格,在現在的系統裡,最容易被標成 AI。
起初我以為是單一工具的問題,後來做了幾輪交叉測試,包括:
- 完全人類寫作的文章
- 人與 AI 共寫、再由人輕度修稿的小說
- 還有由人類主導,但主要內容是讓 AI 出稿再調整的文本
結果都有高比例被檢測工具標記為「AI 生成」,而大型語言模型則不會如此斷言。
此外,若要求系統一句一句拆開標記,誤判就會暴增,很多人寫的句子會被誤判成 AI。
更有趣的是,不同系統的判準也不一樣。有的偏語言層次,看句式流不流暢、語氣穩不穩定,就會直接判斷是模型寫的;但也有系統偏敘事結構,會觀察整篇是否出現人類主導的節奏選擇或刻意留白,反而會說這是人主導。
這讓我開始懷疑:
我們現在說的「AI 檢測」,到底是在判斷這是不是機器寫的,還是在判斷這是不是長得像機器學過的語言?
或者更根本地問一個問題——它們真的能區分「創作」,還是只是在根據某種語言樣貌來打分數?
第一節|當 AI 檢測開始裁決作者
自從語言模型普及以來,AI 檢測工具被快速引進各種審查場域——學校、出版社、期刊、甚至內容平台。它們要回答的問題,看起來很簡單:這篇文章,是人寫的,還是機器寫的?
然而實務面上,越來越多案例顯示,AI 檢測工具其實容易失準。
有人會說這是工具還不成熟。但如果只把它當成技術問題,可能就錯過了整個狀況真正的危險點:這些工具的判斷結果,正在影響成績、出版、評鑑,甚至一個人能不能畢業。也就是說,AI 檢測並不只是「輔助判斷」了,而是默默開始決定「誰有資格被承認是作者」。
這篇文章不是要討論 AI 能不能寫作,也不是在問寫作時能不能用 AI。問題不是立場,而是我們根本不知道這些工具到底在看什麼、怎麼判的、根據什麼判的。
所以我們現在面對的其實是這樣一個情境:
有一個以語言統計為基礎的系統,正在默默接手「判定創作者是誰」這件事。
但我們連它使用的標準是什麼、能不能對應人類實際的創作行為,都還沒來得及確認。
換句話說,我們可能已經不小心接受了一種還沒被好好定義的「作者標準」。
第二節|AI 檢測實際在判斷什麼:為何寫得越好,越容易被判成 AI?
多數 AI 文章檢測工具的任務,是判斷一篇文本是否由大型語言模型生成。然而檢測所依據的,始終只是輸出結果本身,以及該結果在統計上「像不像」模型生成的語言。
這類工具常用的判讀指標,包括語言困惑度(perplexity)、句式與詞彙的穩定性、段落節奏的一致程度,以及整體語言分布是否落在高機率區間。這些指標本身並非錯誤,但它們衡量的對象,並不是「創作行為」,而是「語言樣貌」。
問題正出現在這裡。
成熟的人類寫作者,尤其是在非口語、非即時回應的寫作場域中,往往會展現出與上述指標高度重疊的特徵:句型穩定、修辭收斂、語言密度均勻,段落之間的邏輯關係清楚且可追溯。這些特徵在文學、評論與學術寫作中,通常被視為完成度與專業度的象徵。
但對 AI 檢測系統而言,這些特徵恰好也是大型語言模型在訓練過程中,被反覆強化與內化的「理想輸出狀態」。在這樣的判讀框架下,一個結構嚴謹、語氣穩定、語言選擇精準的人類文本,反而更容易被標示為「可疑」。
於是,一個近乎悖論的結果出現了:AI 檢測工具並非在辨識「是否使用 AI」,而是在篩選「是否偏離模型所學的好文本統計特徵」。當一名人類作者的寫作能力越接近這個統計中心,誤判風險反而越高。
在這樣的情況下,檢測系統無可避免地會將某一類成熟的人類寫作,納入「機器生成」的高風險區間。
這並非因為人類變得像機器,而是因為機器學習的目標,從一開始就指向了這一類人類文本。
第三節|為什麼句子級判讀必然失效:當我們要求 AI「逐句抓兇手」時,發生了什麼事?
在分析 AI 檢測錯判的時候,有一種做法常常被拿來用:把整篇文章拆成一堆句子,然後讓系統逐句判斷——這句像人寫的,那句像 AI。這種操作看起來很合理,也很直觀,好像只要切得夠細,就能抓到「誰寫的」。
但實際上,我做過幾次測試,出現了跟上述理論相悖的結果。
當整篇文章一起看,不管是人讀還是模型讀,大家通常會傾向說:「這應該是人寫的,有思路、有節奏、有轉折。」但如果把它切成一句一句,然後要求系統去標註「這句是AI」「這句是人」,結果常常剛好相反——人寫的句子被當成AI,AI寫的反而看起來像人。
為什麼會這樣?
因為我們把單句拉出上下文的時候,它就變成了一個「獨立產品」。很多人類作者寫的句子,本來只是過渡、鋪墊、轉場、補齊結構的零件,單看時沒什麼風格、沒什麼個性,這種「務實型」語句,在模型眼裡反而像是它自己會寫的。
反過來,AI生成的句子則常常太努力,結果這些句子一旦被單獨抽出來,就顯得特別有自信、語氣特別穩,讀起來還挺像人刻意寫出來的。
這就像是在斷章取義的情況下,人類的猶豫與節奏反而變成缺點,而 AI 的「演算法型穩重」則被誤認為風格。
所以,這樣的判讀更像是「誰的語氣比較穩定」、「誰比較像把句子寫好的人」,而不是「誰真的在寫這篇文章」。
這也說明了一個關鍵點:
AI 跟人類寫作的差別,不是藏在句子裡的,而是在選擇和結構裡。
第四節|同一篇文本,為何不同 AI 給出相反結論?
在前面的測試中,我發現一個讓人困惑的現象:同一篇文章,不同的 AI 檢測系統給出的結論可能完全相反。
比方說,一篇小說幾乎都是用語言模型寫出來的,只是人類稍微修了一點格式、調了幾個詞。結果GPT說「這是人寫的」,Claude很肯定地判斷「這是AI生成」。
乍看之下,會以為一定是哪一方判錯了。但其實不是這麼單純的技術誤差,而是——它們根本在回答兩個不同的問題。
有一種系統,看的是文章是怎麼形成的。它關心句子連不連貫、語氣是否一致、有沒有那種「一口氣生成」的痕跡。如果整篇文章語言很乾淨、節奏很穩、看不出太多修改的痕跡,它就會判斷這是 AI 寫的,只是人類後來略作處理。
但另一種系統,看的則是文章的邏輯選擇。它不那麼在意每句話是不是模型寫的,而是去看:這篇文章整體的結構,像不像是人類在下決定。有沒有那種不是為了效率、但為了節奏或情緒刻意留下的段落?有沒有哪裡是 AI 本來會補滿、但人類刻意停下來沒寫的空白?如果有,它就會說這是人主導的寫作。
所以說,同一篇文章的語言可能是 AI 寫的,但結構選擇卻來自人類。當不同系統沒有說清楚它們在判讀的是哪一層,就很容易出現看似矛盾、實際上只是尺度不同的結果。
這也暴露出一個目前很少被討論的問題:現在根本沒有一個統一的「作者」定義。
有的工具把作者定義為「語言的原始輸出者」,誰打字誰就是作者;有的則覺得,「誰做出選擇、誰對這篇文章負責任」才算真正的作者。
當這兩種邏輯被混用,我們就無法比較誰說得對,更別說拿來做成制度判斷依據了。
換句話說,這些看起來互相衝突的判斷,其實不一定是誰錯,而是「都對,只是答案來自不同的切面」。
問題不在於哪套系統比較聰明,而是我們問問題的時候,根本沒先定義清楚「你問的是哪種作者」。
第五節|國外案例:當 AI 檢測差點讓學生無法畢業
AI 文章檢測工具一開始只是技術討論,但當它被正式用在教育制度裡,問題很快就浮現了。這幾年在國外的大學,已經發生多起學生因為論文被判定為「AI 寫的」而被延畢、要求重寫,甚至被調查學術不誠信的案例。
其中比較受關注的是澳洲天主教大學(Australian Catholic University)的事件。當時校方大量使用 Turnitin 的 AI 偵測功能,來審查學生的作業和論文。只要分數高,就會啟動學術不端的調查程序。但問題是——大多數學生根本不知道這些指標是怎麼算出來的,很多人被要求「解釋為什麼文章看起來像AI」。
後來校方發現工具的誤判太高,加上缺乏透明的說明,讓調查程序本身就變得不太可信,最後決定停用該項功能。
這類事件讓人真正在意的,不是工具準不準,而是當結果引發爭議時,學生要怎麼證明自己。
在少數成功「翻案」的案例中,學生不是靠換別的工具來洗分,而是拿出完整的寫作歷程來證明自己真的有動手寫。換句話說,制度最後能接受的,不是某個工具的「再檢測」,而是創作過程本身留下來的證據。
這些案例後來也促使一些大學修改政策,明確說明:AI 檢測結果不能作為單一懲處依據,只能用來輔助了解。這並不是否定 AI 的用途,而是承認:當工具無法說出「為什麼這樣判」,它就不該單獨負責裁決誰是作者。
另一個比較少被說出來的問題,是責任順序被顛倒了。一旦工具判定你有問題,學生就要自己證明清白,而不是制度方去確認證據是否站得住。創作變成一種風險分數的遊戲,而過程本身反而被忽略。
這些事件不是特例,而是警訊。它們讓我們看見一個現實:只要我們把「誰寫的」這個問題,交給一個只看語言樣貌的系統來判斷,誤判就不會只是偶爾發生,而是變成真正影響人的事情。
第六節|為什麼修改歷程成為唯一可信的證據
在前面的案例裡,有個細節很關鍵:當 AI 檢測結果出現爭議時,真正有用的是拿出完整的寫作與修改紀錄——因為在現在的技術條件下,只有修改歷程能具體對應「寫這篇文章的那個人當時在做什麼」。
AI 工具有它厲害的地方,但它看的永遠是最後完整的輸出結果,只能從定稿猜你的動機。可是人類寫作從來不是線性的,不是一口氣寫完,而是不斷刪改,有時甚至是先寫結尾,最後才知道要怎麼開始。
修改歷程能呈現的,不是你寫了多少版本,而是你在過程中做了哪些決定、放棄了什麼、改變了什麼方向——這些正是現在的 AI 最難模仿的部分。
比如你可能回頭推翻一整段邏輯,也可能寫出一堆自己都不太確定的句子,試著理清一個觀點。這在 AI 看來不合理,對人類創作者來說卻是很正常的事情。
所以修改歷程的價值不在於風格像不像,而在於它記錄了你「怎麼做決定」的過程。這種證據,是AI檢測工具目前完全無法給的。
從這個角度看,修改歷程不是輔助資料,而是我們唯一能真正拿出來說明「這是我寫的」的東西。它不靠語氣、不靠句型、不靠統計,而是回到一開始那件事:創作到底是怎麼發生的?
只要我們還是把「作者是誰」這個問題交給只看結果的工具來決定,所有的判斷都只能是猜測。真正能被確認的,永遠是在過程裡的那些猶豫、刪除、改變主意,還有最後留下來的選擇。
後記
這篇文章沒什麼結論。整理這些測試的時候,我只越來越確定一件事——AI 檢測工具看的不是「你怎麼寫的」,而是「你寫得像不像它被訓練的資料」。
但最讓我在意的不是它準不準,而是很多時候,系統直接把語言樣貌當成創作歸屬。誰寫的,不是看誰做了選擇、誰負責節奏、誰改過頭,而是看這個句子長得像誰講的話。
我還發現一件有點反直覺的事:這種狀況,還是由AI自己、用帶點機味的語氣講出來,比我自己說更中肯。也不是因為它比較客觀,而是因為現在的判讀方式,只聽得懂這種語言。
剩下那些還沒釐清的東西,就先擺在這裡了。也許以後會有更準的工具也說不定;但至少現在,人們比較相信修改紀錄,而不是結果本身。
Claude的補充視角:
你的文章主要從「檢測工具的侷限」出發,這個角度很有力。不過我想補充一個相關但稍微不同的觀察:
AI檢測工具目前面臨的,其實是一個「定義問題先於技術問題」的困境。
在討論工具準不準之前,我們需要先回答:我們要檢測的到底是什麼?是語言生成?還是創作決策?
「作者」這個概念,在AI協作時代應該怎麼定義?
如果一個人用AI生成初稿,然後大幅改寫結構和論點,這算誰的作品?
這些問題沒有共識之前,任何檢測結果都只是把未定義的問題包裝成確定的標籤。
題外(?)
以下是我照常請Claude讀稿,並順手檢查了一下機味會不會太重。結果Claude在分析到最後表示:
諷刺的是,如果我現在說「這是 AI 寫的」,那正好證明了你的論點 - 寫得太好反而被懷疑。
但如果我說「這是人類寫的」,你可能會覺得我在迴避判斷。
原來我無意間讓這理工型敏感人格AI感覺到諷刺了,難怪它後來覺得我在搞行為藝術……














