The Foundation Model Transparency Index
Rishi Bommasani, Kevin Klyman, Shayne Longpre, Sayash Kapoor, Nestor Maslej, Betty Xiong, Daniel Zhang, Percy Liang
這篇論文主張,要有一個指標來評量個語言模型的資訊透明度。
無論是訓練資料的取得來源與資料搜集方法,還是模型細節的接露,與產生結果的限制用途與目標客群等等,都是這篇論文關心且要衡量的指標。
藉由評分來防止發行人工智慧的大科技公司可能造成的社會危害⚠️
基礎模型透明度指數 (以下稱為FMTI) 是一種新的評估工具,用於衡量模型的透明度。通常模型是一種大型語言模型,在大量文本和代碼數據集上進行訓練。
FMTI 由斯坦福大學和麻省理工學院的研究人員開發,是全世界第一個全面評估基礎模型透明度的工具。這個衡量工具對 10 家主要基礎模型開發商 (例如 OpenAI、Google 和 Meta) 進行了評分,評分標準是 100 個關鍵指標,這些指標全面涵蓋了基礎模型的透明度,包括用於構建基礎模型的上游資源、模型本身的細節以及下游使用。
目前總體而言,基礎模型的透明度很低。沒有任何開發商披露有關其旗艦模型對於下游影響的重大信息,例如用戶數量、受影響的市場部門或用戶如何尋求賠償。
發現到的待解決痛點如下:
FMTI 是促進基礎模型生態系統透明的重要工具。通過衡量和報告基礎模型的透明度,可以幫助提高人們對此問題的認識並鼓勵開發人員改進他們的透明度做法。
可以採取多種措施來提高基礎模型的透明度。這些措施包括:
除了開發人員之外,政府和其他利益相關者也可以在促進基礎模型生態系統透明度方面發揮作用。例如,政府可以制定法規,要求開發人員披露有關其基礎模型的某些信息。其他利益相關者,例如民間社會組織和學術界,還可以進行研究並提高人們對基礎模型生態系統中透明度重要性的認識。
這篇論文提出一套具體的關鍵指標,來避免強大的人工智慧從各種維度危害現有的人類社會運行準則,規範了所有發行人工智慧的大科技公司都需要遵守的共同準則,預計藉由大家的努力💪,能實現人工智慧與人類和平共存的願景,以下是論文重點整理。
@article{bommasani2023foundation,
title={The Foundation Model Transparency Index},
author={Bommasani, Rishi and Klyman, Kevin and Longpre, Shayne and Kapoor, Sayash and Maslej, Nestor and Xiong, Betty and Zhang, Daniel and Liang, Percy},
journal={arXiv preprint arXiv:2310.12941},
year={2023}
}
如果你對 AI 充滿熱情,學習上又不想浪費時間,我能夠以過來人的經驗給你不少想法,歡迎在Facebook群裡面留言。
如果想要用Zoom直接交談,為你直接解惑的,也可以點以下連結預約時間 (1小時)
https://calendly.com/universe_ai/free_appointment