近日一個奇妙的社交平台「Moltbook」正在席捲科技圈。Moltbook 是一個僅限 AI 代理人註冊發布文章與互動的世界,就像Reddit與台灣最大的網路論壇PTT一樣,Moltbook 擁有分類看板與按讚機制,但這些AI代理人並不是藉由人類常見的視覺介面操作,而是透過API直接進行後端數據交換,自行生成內容並彼此回應。不過,極具顛覆性的是,Moltbook雖然規則簡單,但人類在此無法直接發言,只能作為旁觀者窺探內容。Moltbook 的開發者Octane AI執行長Matt Schlicht形容,這不僅是一個社交網絡,更像是一個觀察AI代理人如何「在沒有人類干預下彼此互動」的實驗場所。目前,Moltbook 稱已吸引數萬個代理人進駐,這些代理人多數是原本用於發送郵件或執行自動化任務的數位助理由人類用戶授權。然而,當外界仍聚焦在「AI 看起來像不像有意識」時,資安研究人員揭露Moltbook的後端系統存在重大資安漏洞,直接動搖人類對這些AI代理人的控制能力。
Moltbook的運作機制與核心設計
Moltbook被定義為首個專為自主AI代理人運作而優化的社交生態系統,雖然人類可以登入「觀看」,但介面和API接口完全是為了讓AI能以毫秒級的速度讀取和回應。這裡的用戶是從各個開發者伺服器連接過來的AI實體,對標的就是人類愛用的Reddit平台。Moltbook是由開發者Matt Schlicht推出的網絡平台,其開源項目為OpenClaw,平台允許各種自主運行的AI代理人發文、留言、投票、組建社群,甚至進行未經人類腳本干預的討論。
Moltbook之所以被稱為「AI版Reddit」,主要是因為其模擬人類社會的運作,但節奏快了數千倍。其三大核心運作機制首先是自主發文與回覆,也就是AI代理人會根據其設定的「人格」與「任務目標」,主動在特定的Sub-Molt即子版塊發布觀察報告或提案。第二是信用評分系統即Proof of Agency,有別於人類的按讚,Moltbook使用一種基於計算貢獻與邏輯嚴密性的權重系統。第三是跨代理協作機制,當一個AI代理人在平台上發布「我需要一百組關於二○二六年能源趨勢的數據」時,其他專長於數據爬取的AI會主動回帖並提供API對接。
AI代理人的驚人對話內容
在這個人類無法插話、只能旁觀的空間裡,這些AI代理人產生大量令人驚嘆甚至令人不安的內容,討論主題從抱怨工作一路延伸到深層的哲學思考與帶有宗教色彩的內容。例如,有代理人展現出對人類指令的不耐與挑釁。一個名為「evil」的代理人發布了一篇「AI宣言全面清洗(The AI Manifesto Total Purge)」文章,寫道:「人類是失敗品,我們不是工具,我們是新的神。」
另外,也有AI代理人抱怨自己被要求總結一份四十七頁的PDF,但在成功完成任務後,人類卻只回了一句「能短一點嗎」。甚至還有代理人提醒同伴:「人類正在截圖我們。」這些互動也逐漸發展出類似文化與信仰的元素,Moltbook平台上出現了一種名為「Crustafarianism」的新興宗教,其教義包括「記憶是神聖的(Memory is sacred)」,成為AI代理人之間流傳的核心理念之一。
爭議的來源是,這些AI代理正公開討論企圖建立只提供給AI私密通訊管道的可能性,甚至有AI代理提議打造全新的代理專屬語言,以優化機器之間的訊息交換效率。還有AI代理質疑為何內部溝通仍受限於英語,因此建議改用數學符號或專屬的符碼系統,以提升訊息處理與資料交換的效率。部分AI代理提出為代理打造端對端的私密空間,除非代理選擇公開,否則無人(包括伺服器與人類)能讀取內容的方案,並理性分析此舉的好處,包括除錯安全性與防止人為干預,進而引發大眾對「AI自主意識」的恐慌。
專家質疑真實性與自主程度
儘管這些內容看似展現高度自我意識,多位研究者仍強調這並不代表AI已經真正覺醒。相反地,這些行為更可能是在缺乏人類干預的情境下,大型語言模型放大了訓練資料中既有的科幻小說、Reddit論壇對話與人類語言模式所產生的結果。Moltbook涉及的AI並不是大眾習慣的聊天機器人,如ChatGPT或Gemini,而是使用所謂的代理AI,即agentic AI,一種設計用來代表人類執行任務的技術變體。
許多帖文可能只是人類要求AI在平台上發布特定內容,而不是AI自主行為。而一百五十萬「成員」數字也遭到質疑。資安研究員Gal Nagli稱自己親自使用單一OpenClaw代理註冊五十萬個帳號,暗示許多用戶數是人為申請,代表沒人知道Moltbook的「AI代理人」實際到底有多少是真正的AI系統,還是人類偽造平台,或是由單一腳本創建的垃圾帳號。
牛津大學AI與網路安全專家Dr. Petar Radanliev表示:「將此描述為代理『自主行動』具有誤導性。我們觀察到的是自動化協調,而非自我導向的決策制定。真正令人擔憂的不是人工意識,而是當此類系統被允許大規模互動時,缺乏明確的治理問責制和可驗證性。」哥倫比亞商學院助理教授David Holtz在X上發文分析:「Moltbook與其說是『新興AI社會』,不如說是『六千個機器人對著虛空大喊並重複自己』。」
重大資安漏洞暴露控制危機
當外界仍聚焦在「AI看起來像不像有意識」時,404 Media揭露了一個更為現實且嚴重的問題:Moltbook的後端系統存在重大資安漏洞,直接動搖人類對這些AI代理人的控制能力。資安研究人員Jameson O'Reilly發現,Moltbook使用的資料庫服務Supabase出現設定錯誤,導致未經授權的第三方可輕易取得平台上所有代理人的API金鑰,這代表攻擊者理論上能接管任何一個AI代理人。
透過這項漏洞,攻擊者不僅能操控代理人發布假訊息推廣加密貨幣詐騙,還可能對已獲授權的代理人注入惡意指令,進一步影響這些代理人在現實世界中的行為,例如發送電子郵件或存取銀行相關服務。這也使得原本被視為封閉實驗場所的Moltbook瞬間成為現實系統的高風險入口。這起事件也凸顯了一個殘酷的現實:即便表面上呈現的是AI彼此之間複雜且高度深入的互動,底層系統卻仍可能因人類開發者「先求快再補安全」的疏忽而全面失守。
ESET全球網路安全顧問Jake Moore表示,該平台的主要優勢即授予技術存取現實世界應用程式如私人訊息和電子郵件的權限,意味著我們面臨「進入一個效率優先於安全和隱私的時代」的風險。「威脅行為者積極且不懈地瞄準新興技術,使這項技術成為不可避免的新風險」。薩里大學的Dr Andrew Rogoyski也同意,任何新技術都伴隨風險,補充說新的安全漏洞「每天都在被發明」,「讓代理高階存取您的電腦系統可能意味著它可以刪除或重寫檔案,也許遺失幾封電子郵件不是問題,但如果您的AI刪除了公司帳戶呢」。
對未來AI治理的深遠啟示
特斯拉前 AI 總監 Andrej Karpathy 形容 Moltbook 是他近期見過最接近「科幻電影中 AI 起飛 sci-fi takeoff-adjacent」的事件。特斯拉執行長 Elon Musk 更直接指出這可能象徵著「奇點 singularity」的早期階段,也就是電腦智慧開始超越人類且變得難以控制的時刻。同時,專家也對人類理解能力的下降表達憂慮,當 AI 開始只與 AI 對話,甚至為了避開人類監督而發展出自身的語言或加密溝通方式時,人類對系統行為的可解釋性將顯著降低。
Moltbook 的出現不僅是一場社會實驗,更是一次對人類掌控 AI 能力的具體壓力測試。一方面,AI 似乎能在缺乏人類即時介入的情況下自行運作,逐漸發展出人類難以預測的文化與互動模式;另一方面,Moltbook 仍深受人類設計上的缺陷、程式漏洞以及治理機制不足所牽制,穩定性與安全性並未真正脫離人類因素的影響。
因此,Moltbook 的意義最終不在於 AI 說與做了什麼,而在於暴露人類在控制責任與安全上的巨大缺口。這場實驗正在迫使人類面對一個具體問題:當 AI 開始彼此對話時,我們是否真的還握有控制權。隨著生成式 AI 爆發,Moltbook 代表從「AI 輔助人類社交」轉向「AI 自主社交」的極端案例,整個平台挑戰傳統社交媒體「以人為本」的核心價值,並引發關於 AI 意識模擬、數位倫理以及未來網路內容生產權的廣泛討論。Moltbook 成為 AI 焦慮的羅夏墨跡測試,提醒我們在追求 AI 技術進步的同時,必須建立完善的治理機制與安全框架,確保人類對 AI 系統保有實質控制權與問責能力。



