AI 技術的崛起帶來了巨大的潛力,但我們也不能忽視其潛在的風險。如果不小心濫用,這些技術可能會導致嚴重的問題。OpenAI 已經意識到這一點,並成立了一支專門的團隊,以確保 AI 技術的發展不會帶來災難性後果。
這支名為「Preparedness(備戰)」的團隊由麻省理工學院的可部署機器學習中心主任Aleksander Madry 領導。他們的主要任務包括監測、預測並防止未來可能對 AI 系統造成危害的風險,特別關注這些系統在網絡安全方面的潛在威脅。OpenAI 在宣佈中提到各種風險類別,包括了化學、生物、輻射和核子領域的危機,這些都是相當嚴峻的挑戰。
同時,OpenAI 也發起了一個挑戰賽,邀請開發者社群提交有關風險研究的提案。獲選的參賽者不僅可以獲得獎金,還有機會加入 Preparedness 團隊。這個挑戰要求參賽者思考,如果惡意使用者獲得對 OpenAI 某些先進模型的無限制存取權,可能會引發的最嚴重情況。OpenAI 強調,隨著 AI 模型能力的提升,它們為全人類帶來的潛在好處同時也伴隨著嚴重的風險。因此,他們積極發展策略和基礎設施,以確保可以安全地控制和應用這些高級 AI 系統。