媒體大亨挺奧特曼,但警告:當 AGI 來臨時,信任毫無意義

更新 發佈

「我信奧特曼,但信任在 AGI 面前一文不值」

如果你的朋友跟你說「我超信任那個傢伙,但這份信任其實一點用都沒有」,你大概會滿頭問號吧?這正是美國媒體界重量級人物、IAC 集團主席 Barry Diller 最近對 OpenAI 執行長 Sam Altman 的評價,一句話就點出了當前 AI 發展最核心的矛盾。

在最近一場訪談中,Diller 毫不掩飾他對 Altman 的個人欣賞,稱他「聰明、是個好人」。但話鋒一轉,他立刻補上一句震撼彈:「但當我們談論的是通用人工智慧(AGI)時,信任是無關緊要的(trust is irrelevant)。」

這話聽起來有點矛盾,對吧?但 Diller 的意思是,AGI 的潛力與未知性,已經遠遠超出了任何一個人的品格或能力所能駕馭的範圍。它就像一股自然力量,你不會去「信任」一場颶風或一次地震,你只會為它做好萬全準備。

AGI:一頭無法單靠「信任」馴服的巨獸

為什麼個人的信任如此蒼白無力?Diller 解釋,AGI 是一種「無法預測的元素」。它不像我們過去開發的任何軟體或工具,有明確的功能邊界。AGI 的目標是達到甚至超越人類的智慧,這意味著它的行為和演化路徑,連它的創造者都可能無法完全掌握。

vocus|新世代的創作平台

回想一下去年 OpenAI 內部那場驚心動魄的「宮鬥劇」,Altman 一度被董事會閃電開除,其中一個關鍵原因就是董事會對 AI 安全與發展速度的擔憂。這件事本身就是一個最好的證明:即使是站在技術最前沿的一群人,對於如何控制這股力量也存在巨大分歧。

所以 Diller 的論點很清晰:把人類的未來,寄望於某個天才或聖人的道德光環上,是一場極其危險的賭注。我們需要的不是對某個 CEO 的盲目信任,而是一套更可靠的系統性保障。

如果信任沒用,那該怎麼辦?答案是「護欄」

既然信任靠不住,那人類該如何面對即將到來的 AGI 時代?Diller 給出的關鍵字是「護欄」(Guardrails)。

他強調,為 AGI 的發展設立強而有力的規範和限制是絕對必要的。這不僅僅是科技公司內部的道德準則,更需要來自政府、國際組織和社會各界的共同參與。這些「護欄」可能包含以下幾個層面:

  • 透明度要求:要求 AI 公司公開其模型的訓練數據、演算法的關鍵決策邏輯。
  • 安全測試:在 AI 模型大規模部署前,必須經過嚴格的、獨立的第三方安全與風險評估。
  • 責任歸屬:明確界定當 AI 系統造成損害時,開發者、運營者和使用者各自應負的法律責任。
  • 國際合作:建立全球性的監管框架,避免某些國家為了競爭優勢而犧牲安全,引發「監管競次」的惡性循環。

簡單來說,就像我們為汽車設計了安全帶、煞車系統和交通規則,我們也必須為 AGI 這輛即將上路的超級跑車,打造一套堅不可摧的安全系統。

版權戰爭打響:AI 訓練不能再「吃霸王餐」

除了對 AGI 未來的宏觀擔憂,Diller 作為媒體大亨,也談到了更為現實的商業利益問題——也就是目前打得火熱的 AI 版權訴訟。

包括《紐約時報》以及 Diller 旗下多家媒體在內,許多內容創作者都對 OpenAI 等公司未經許可、無償使用其內容來訓練 AI 模型提出控告。Diller 對此的立場非常堅定:這不是為了阻礙 AI 創新,而是為了「為我們的內容確立價值」。

vocus|新世代的創作平台

他駁斥了那種「如果要求付費,AI 創新就會停滯」的說法,稱之為「錯誤的論點」。他認為,建立一個公平的授權與付費機制,才能讓內容產業與 AI 產業共存共榮,形成一個正向的生態循環。否則,如果 AI 可以無限制地免費抓取所有人類創作的結晶,那未來誰還有動力進行高品質的內容創作呢?

我們該擔心,還是該期待?

Diller 的這番言論,為我們提供了一個看待 AI 發展的絕佳視角。他既不是一個盲目的樂觀派,也不是一個只想阻礙技術進步的守舊派。他的觀點可以總結為:擁抱技術的潛力,但必須用理性的制度為其套上枷鎖。

對我們普通人來說,這意味著什麼?當我們驚嘆於 ChatGPT 的對答如流,或 Midjourney 的鬼斧神工時,也該意識到這背後潛藏的巨大挑戰。這場關於 AI 未來的討論,不只是矽谷菁英們的專利,它關乎到我們每一個人的工作、生活和社會的未來樣貌。

信任 Sam Altman 個人或許沒錯,但他和他所代表的 AI 革命,確實需要一套超越個人信任的「護欄」來引導。這場人類史上最重大的技術變革,才剛剛拉開序幕,而規則的制定,現在才正要開始。

參考來源:TechCrunch

留言
avatar-img
林奶妹的沙龍
1會員
151內容數
不踩雷的好物分享