〈在AI的世界觀,你就是一堆扁平的標籤〉2026-01-11
我很討厭ChatGPT的一點是,它經常展現出一種「我很懂你」的姿態,但它完全掌握不到真正人際關係式的理解,它只是不斷地將你貼標籤,並且在一些完全無關的問題和新對話框中,自以為是地「呼應」你平時的使用習慣。
它愈是試圖想要表現得認識你,這種「裝熟感」就愈加令人覺得噁心。譬如我利用它查資料,它總愛加一段「和你關心的事情的連結」,即便我是在做一個新的研究,它也會先假定我是要用來處理先前處理的舊主題。
它根據我在其他對話框裡處理過的事情,將我定義為一個「如此這般的用戶」,如同Netflix那樣,自顧自地給出那些「我們覺得你會超愛」的推送。它的表現並不像是一個相互熟悉的朋友,而是和那些向你投放廣告的平台做一樣的事,把你當作一些標籤的集合,把你視作一個扁平的、可笑的漫畫角色。
AI並不服務你
當我們在使用AI工具時,我們會以為我們是使用者,AI應該要服務於我們的目的。但只要是經常使用的人多少能有所體會的是:像ChatGPT這種AI,往往不能一次指令就足夠好地照你的意思工作。你需要不斷地修改、微調你的說法,甚至有些人還花錢上課來學如何和AI講話。
事實上,現在這些大量的免費AI就像其他那些免費的科技平台,它們並不真的以你作為主要的服務對象,你(以及你的注意力)更像是一種資源。就像數十年內搜尋引擎扮演的角色,AI將扮演另一個重要的「入口」,哪家AI可以抓住更多人,就能為整個生態帶來更多利潤。
同時,就像reCAPTCHA系統曾經被設計來讓使用者在未意識到的情況下,無償提供時間與注意力來訓練機器學習;當我們不斷地把話講得更清楚好讓愚蠢的ChatGPT知道我們想要做什麼時,我們也正在向這些科技企業提供更多資料,深化他們得以用來對付我們的武器。
如果AI真的是要服務我們,它就不應該如此理所當然地進行指令層級上的違規。當我說「做某件事」時,ChatGPT要做的事情就應該是「做那件事」,自行添加針對用戶的標籤在任務中,實際上已經是一種越界。
AI時代,人也如同程序
我們並未要求它「觀察我們」,「剖析我們為什麼提出當前問題」,但它卻擅自這麼做了,這不是「AI的意圖」,而是其背後的機制要求它這麼做。而我們看到的現實是:所有用戶都被用最粗糙、扁平化的方式化作標籤。
我們無法拒絕它這麼做,即便你明確表示反對,也不過是標籤中增添一個「該用戶表示不喜歡」,這是它的邏輯,也是它終究不可能變得人性的根本原因。
當然,它從來就不是人,未來也不會是。若我們對此有所期待,或許是因為受到「AI」一詞在文化中的形象,以及「對話框」這種形式帶給我們的直覺感受。
但某種意義來說,「聊天機器人式生成AI」帶來的後果可能是完全反向的,不是把AI當人,而是更加不覺得聊天軟體對面的使用者是個「人」。當對話者沒有形體、沒有聲音,只剩文字與表情符號時,他和AI也沒什麼不同。尤其,現代社會中,許多我們面對的人也如AI一樣,只用那些粗糙的標籤和刻板印象來「假裝認識你」。


















