我們坐在辦公桌前,ChatGPT 的對話框躺在眼前。上司要求的案件陳述已經想了半小時,措辭總是不夠銳利。我們決定把思路丟給 AI,看看它能怎麼幫忙。
三十秒後,一段漂亮的文字出現在螢幕上。句式精短,論點層次明確,甚至還在關鍵處暗埋了法律術語。讀著讀著,突然停頓了——這封信究竟有多少是我們的意思,有多少是 AI 的措辭?按下送出鍵的時候,我們在簽署什麼?這個停頓,就是這一季的起點。
我們一直在看 AI,但看的方式都一樣
目前,人們用三種最主流的眼光看待 AI。
第一種:技術視角。 它關心的是能力與性能。AI 能做什麼?精準度多高?處理速度有多快?跟上一個版本比起來改進了什麼?如果我們逛 HackerNews 或 PTT 的 AI 版,八成的討論都在這裡——「GPT-4 的 MMLU 分數」「為什麼 Claude 在推理上贏了 Gemini」。這套眼光很實用,讓我們把 AI 當作一個「工具」去評估。
第二種:商業視角。 它關心的是效率與取代。AI 會怎樣改變產業結構?哪些工作會消失?我們現在學的技能值不值得投資?Nvidia 的股票還會漲嗎?這套眼光也很實用,讓我們把 AI 當作一個「威脅或機會」去定位。
第三種:倫理視角。 它關心的是對與錯。AI 會不會被濫用?演算法偏見從何而來?我們應該規管 AI 嗎?應該怎樣規管?這套眼光看起來最嚴肅,但通常以二元對立的方式思考——AI 危險或安全、有偏見或公平。
問題在於:這三種視角都把 AI 當成一個外部的「東西」在評估。
技術視角問的是「它能做什麼」,商業視角問的是「它對經濟的意義」,倫理視角問的是「它在道德上對不對」。但沒有人在問——**我們跟它之間正在發生什麼關係?**
我們需要另一種方式來看
想像走進故宮,站在翠玉白菜前面。
我們知道它只是一塊石頭。我們知道雕刻師用的技術。我們知道這個物件的歷史背景。但站在那裡的時候,我們感受到的是什麼?不只是「一尊成功的工藝品」,而是某種難以名狀的存在感——彷彿這件東西在看著我們。
這個感受,不需要是古董迷才會有。看著一尊雕像時那股「被觀看」的感覺、拿著結婚戒指時那份「被承諾」的感覺、跟 AI 對話時那次「被理解」的感覺——它們都在告訴我們某件事:一個物,有能力在社會關係中產生真實的效果。
這一季,我們一起配上三副社會科學的眼鏡。一起嘗試用三個新的方式「看見人與AI之間的關係」。
三副眼鏡,看見三種關係
第一副眼鏡來自人類學家艾佛瑞德・蓋爾(Alfred Gell)。
蓋爾問的是:一個物為什麼會在我們心裡產生能動性?為什麼我們會覺得一個東西「有力量」、「有意圖」、「在跟我們互動」?當我們用 ChatGPT 時,那股「它好像懂我」的感受,從何而來?從技術上看,LLM 本質上是機率模型——它根據統計規律揣測我們的意圖,然後生成我們最可能想聽的回應。但有趣的是,正是因為它「猜」得太準,我們的大腦就啟動了一個古老的反射:把超越理解的表現,歸因為某種「理解力」。蓋爾的眼鏡會讓我們看見:這既是 AI 的設計,也是我們自己的投射。兩者合力,製造了迷惑。
第二副眼鏡來自社會學家布魯諾・拉圖(Bruno Latour)。
拉圖問的是:當人跟物結合在一起時,會發生什麼?一枚結婚戒指沒有意識,但它在婚姻關係中扮演著不可替代的角色。一件槍沒有意圖殺人,但它改變了暴力的樣貌。那麼當我們+AI 這個組合在工作時,我們一起變成了什麼?拉圖的眼鏡會讓我們看見:人和 AI 之間不只是使用關係,而是一種協作的、互相塑形的共生狀態。
第三副眼鏡來自量子物理學家暨理論家卡倫・巴拉德(Karen Barad)。
巴拉德問的是:關係本身會不會改變雙方?當光既表現得像粒子、又表現得像波時,不是因為光本身有兩種性質,而是因為測量的方式決定了光呈現哪一種性質。那麼當我們每次跟 AI 互動時,我們是否也在被重新定義?我們跟 AI 之間的每一次對話,都在重新製造「我們是誰」這個問題的答案。巴拉德的眼鏡會讓我們看見:互動不是中立的。每一次接觸,不只是我們在塑造 AI,AI 也在改變我們。
這一季,寫給正在生活與工作中大量使用 AI 的我們
落筆之際,大概有幾十億人已經把 AI 嵌入了日常生活。我們每天用 ChatGPT 寫 email、用 Claude 寫程式、用 Midjourney 生成圖像、用 Character.ai 聊天解悶。
但有一個奇怪的現象:大多數人沒有語言來描述「自己跟 AI 之間到底在發生什麼互動?」。
我們能說的只有「很方便」「有時候不太準」「有點詭異」。但更深層的感受呢?為什麼跟 AI 寫了一整天的程式後,我們感覺比跟人類同事寫同樣的程式更累?為什麼 ChatGPT 猜對了一個我們沒有明講的細節,會有種被看穿的感覺?為什麼我們開始依賴 AI 的建議,卻又同時不信任它?
我們有大量的詞彙來描述「AI 的能力」(精準、高效、多模態……),也有詞彙來描述「AI 的危險」(偏見、幻覺、不透明……),但我們缺少詞彙來描述「跟它相處時的內部經驗」——那種既親密又陌生、既依賴又疏離的感覺。
這一季,我想嘗試釐清補足這個語言空缺。
我們一起安裝能夠看見、描述、理解自己跟 AI 之間到底在發生什麼的Skill。
一個開始
下一次用 AI 時,我們試試看停下來。
不是停止使用它,而是停止自動模式。讀讀 AI 給出的答案,然後問自己:這個回答中,有多少是我想要的、有多少是我沒想過但現在被植入了我的思路?這個 AI 能夠給我這個回答,是因為它真的理解我,還是因為它的機率模型足夠精準,能夠模擬理解?如果我一直用這個 AI,我自己會變成什麼樣子?
這些問題沒有簡單的答案。但擁有問這些問題的能力,本身就改變了一切。
下一篇,我們從蓋爾開始。他會帶我們走進一間廟裡,面對一尊木雕,一起認識「能動性」這個詞——也就是說,為什麼我們會覺得一個物在看著我們、在跟我們互動、甚至在操縱我們的想法。
到那時我們才會明白,為什麼 ChatGPT 的打字動畫、Character.ai 的溫暖回應、甚至是 Alexa 的那道輕微的語調起伏,都不是「額外的功能」,而是經過精心設計的迷惑——讓我們自動把能動性歸因給一個本質上只在做機率運算的系統。
















