近日曝光的一系列電子郵件揭示了 OpenAI 創立初期的內部緊張局勢,特別是聯合創始人對於 Elon Musk 可能對人工通用智慧(AGI)掌控的擔憂。這些資訊展現了 OpenAI 在確立使命與治理結構時的艱難抉擇,並引發外界對科技巨頭集中權力的深思。
根據曝光的電子郵件,OpenAI 聯合創始人 Ilya Sutskever 和 Greg Brockman 曾表達對 Elon Musk 的警惕,擔心他可能試圖掌握 AGI 的「絕對控制權」,進而成為一個「AI 獨裁者」。他們甚至將這種情境與 DeepMind 的 Demis Hassabis 所帶來的潛在威脅相提並論。這些顧慮反映了 OpenAI 初期對於技術倫理與權力分配的深刻矛盾。
創始團隊強調,必須建立一種防止任何單一個體或機構掌控 AGI 的治理結構,這也成為 OpenAI 初期核心願景的重要組成部分。然而,Musk 本人對 DeepMind 可能實現「AGI 獨裁」的擔憂,進一步強化了他尋求影響力的動機,最終導致他於 2023 年成立了自己的 AI 公司 xAI,宣稱致力於開發「真實性與人類價值對齊」的 AI。
OpenAI 的早期發展階段充滿了對領導權的爭奪,特別是在 CEO 人選的選擇上。當時,Sam Altman 渴望擔任 CEO,卻遭到聯合創始人 Brockman 和 Sutskever 的質疑,他們認為 Altman 的判斷力和動機存疑。在 2017 年的一封電郵中,他們甚至直接要求 Altman 說明其想成為 CEO 的理由,並坦言對他的領導能力缺乏信任。
這種內部緊張局勢也延伸至 Elon Musk 身上。Brockman 和 Sutskever 擔心公司的治理結構可能讓 Musk 在關鍵時刻掌握「獨裁性權力」,儘管 Musk 堅稱自己無意完全控制 AGI。最終,這些矛盾導致 Musk 與 OpenAI 分道揚鑣,並促使 OpenAI 從非營利組織轉型為營利性實體,以吸引更多資金和資源。
Altman 與 OpenAI 董事會之間的矛盾,也反映了公司內部對於 AI 開發速度與安全性的深層次分歧。董事會指控 Altman 在關鍵決策上缺乏透明度,例如 ChatGPT 的推出,董事會竟然是從社交媒體得知,而非直接來自 Altman 的報告。此外,Sutskever 等成員認為,Altman 對於商業化的急切追求,可能犧牲對 AI 風險的謹慎管理。
這些矛盾最終導致 Altman 一度被解職,但在員工的強烈支持下迅速復職,顯示出 OpenAI 內部對領導權和使命感的激烈爭論。
近期,包括聯合創始人 Sutskever 和安全部門領袖 Jan Leike 在內的多名高層離職,對 OpenAI 的 AI 安全計畫構成重大挑戰。他們的離開意味著 OpenAI 在長期風險管理和倫理建設上的領導力出現空缺,也引發外界對該公司是否仍專注於公共利益的質疑。
同時,OpenAI 的資源重新分配顯示其可能更注重技術創新和商業化,而非長期的安全性研究。這種轉向不僅削弱了內部員工對公司的信心,也為監管機構提供了更多理由對其進行審查。
OpenAI 的領導層更迭和內部權力鬥爭揭示了科技領域在快速發展與負責任治理之間的難題。面對外界的審視和競爭對手的挑戰,OpenAI 必須平衡創新與安全,並重新建構一個能夠持續推動 AI 公共利益的治理架構。未來,無論是尋求穩定領導還是重塑使命,OpenAI 都將面臨一場艱鉅的考驗。