觀測員:德魯
日期:2026 年 1 月 31 日各位觀測員好,我是德魯。
前兩天我們討論了一個荒謬的案例:一個詐騙帳號宣稱為了慶祝生兒子,要送出 80 支 iPhone 17。這種連小學生都能一眼識破的低端騙局,卻在擁有世界頂尖 AI 技術的 Threads 平台上活得風生水起,甚至被演算法推播給成千上萬的人看。
這引發了一個靈魂拷問:「Meta(臉書/Threads 母公司)擁有地表最強的 Llama AI 模型,為什麼連這麼簡單的詐騙都看不出來?難道祖克柏的 AI 智商比詐騙集團還低?」
今天,我們要透過「文明觀測」的視角,揭開這個數位荒謬劇背後的真相。
結論很殘酷:不是 AI 笨,是它「裝笨」比較賺錢,而且法律還允許它裝笨。
一、 殺雞焉用牛刀?算力成本的精算
首先,我們要理解「能做到」和「願意做」是兩回事。
我能一眼看出那是詐騙,是因為我動用了人類的高級認知能力(邏輯、常識、視覺分析)。如果要讓 AI 做到同樣的事,必須調用高成本的「多模態大模型」來逐一掃描每一張圖片、分析每一段文字的語意。
但在 Meta 的總部,這是一筆簡單的數學題:
- 每秒產生的貼文: 數以萬計。
- 高智商 AI 的掃描成本: 天價。
- 低智商 AI(關鍵字過濾)的成本: 低廉。
為了省錢,平台的守門員通常是「低智商 AI」。詐騙集團只要把關鍵字印在圖片上,或者用簡單的同音字(如「免費領取」改成「免費領區」),就能輕鬆繞過守門員。
祖克柏不是看不出來,他是覺得為了抓幾隻老鼠而動用核子武器(高算力),不划算。
二、 流量毒藥:你眼中的垃圾,是財報上的黃金
這才是最黑暗的真相。在演算法的眼中,沒有「真偽」之分,只有「數據」之別。
當一群受害者在詐騙貼文底下留言「+1」、「恭喜」、「好人一生平安」時,這些行為在後台的數據儀表板上,會被歸類為:
- 高互動率(High Engagement)
- 高停留時間(Time Spent)
- 熱門內容(Viral Content)
對於負責「用戶成長(Growth)」的部門來說,這篇詐騙文簡直是績效救星。它讓平台看起來很熱鬧,讓用戶黏在螢幕上。
如果要一刀砍死所有詐騙,平台的活躍數據可能會瞬間掉一大截。在華爾街的財報面前,祖克柏選擇了睜一隻眼閉一隻眼。詐騙集團成了幫他製造虛假繁榮的「數位打工仔」。
三、 誤殺的代價:寧可放過一千,不可錯殺一人
如果把 AI 的過濾標準調到最嚴格,會發生什麼事?
很多真實用戶分享生活、開玩笑送禮物、或是單純照片模糊,都可能被 AI 誤判封號。這會導致真實用戶的憤怒與流失。對於社交平台來說,「誤鎖一個真實用戶」的商業損失,遠大於「放過一個詐騙帳號」。
所以,AI 被刻意設定成「被動防禦」模式。除非累積了大量用戶手動檢舉(這需要時間,也就是詐騙集團的黃金收割期),否則系統預設你是無罪的。
四、 法律的漏洞:為什麼收了贓款卻不是「共犯」?
這才是最讓人憤怒的點。許多這類詐騙甚至會投放廣告(Sponsored)。
邏輯上:詐騙集團給錢 ➡️ Meta 收錢刊登 ➡️ 民眾受騙 ➡️ Meta 獲利。這難道不是洗錢共犯嗎?
為什麼 Meta 從來不會因為「協助詐騙」被抓去關?因為他們手握兩張強大的法律護身符:
- 我是房東,不是共犯(平台免責權):
美國法律(如通訊端正法 230 條)賦予平台極大的豁免權。Meta 主張自己只是提供場地的「房東」(平台),而不是寫內容的「編輯」(媒體)。這就像騙子租了房子製毒,警察抓的是騙子,通常不會抓房東。Meta 用這條法律將自己切割得乾乾淨淨。 - 我不知情(技術性過失):
刑法要定罪通常需要證明「故意」。Meta 只要雙手一攤說:「我的 AI 盡力了,但沒看出來,我也是受害者啊!」就能把「故意犯罪」降格為「審查疏失」。而在法律上,疏失通常不需要負刑事責任。
這就是資本主義最醜陋的一面:他收了「製毒者」的房租(廣告費),卻用「我不知道他在裡面幹嘛」來完美脫罪。
💡 德魯結論:別指望保全,你就是自己的防火牆
我們常常誤以為科技巨頭有義務保護我們,或者以為 AI 是無所不能的管家。
但現實是,祖克柏不是你的保鑣,他是房東。
只要老鼠(詐騙集團)不把房子啃垮,甚至還能幫忙製造「這裡人很多」的熱鬧假象,並且準時繳納「廣告保護費」,房東就不會下重手滅鼠。
在這個充滿演算法算計的數位叢林裡,Thread 的爬蟲不會救你,Meta 的 AI 也不會救你,法律甚至還在幫他們開脫。
因為在他們的算盤裡,你的智商稅,只是他們流量變現過程中的一點「必要損耗」。
唯有你的大腦,才是最後一道、也是唯一可靠的防火牆。
觀測結束。