避免GPT語言模型危害世界,能力越強責任越大

更新於 發佈於 閱讀時間約 5 分鐘

The Foundation Model Transparency Index

Rishi BommasaniKevin KlymanShayne LongpreSayash KapoorNestor MaslejBetty XiongDaniel ZhangPercy Liang

前言:

這篇論文主張,要有一個指標來評量個語言模型的資訊透明度。

無論是訓練資料的取得來源與資料搜集方法,還是模型細節的接露,與產生結果的限制用途與目標客群等等,都是這篇論文關心且要衡量的指標。

藉由評分來防止發行人工智慧的大科技公司可能造成的社會危害⚠️

臉書推出的 llama2 為開源模型,有交代訓練資源,模型細節,使用限制,取得這些競品裡面相對高的的得分

臉書推出的 llama2 為開源模型,有交代訓練資源,模型細節,使用限制,取得這些競品裡面相對高的的得分

基礎模型透明度指數

基礎模型透明度指數 (以下稱為FMTI) 是一種新的評估工具,用於衡量模型的透明度。通常模型是一種大型語言模型,在大量文本和代碼數據集上進行訓練。

FMTI 由斯坦福大學和麻省理工學院的研究人員開發是全世界第一個全面評估基礎模型透明度的工具。這個衡量工具對 10 家主要基礎模型開發商 (例如 OpenAI、Google 和 Meta) 進行了評分,評分標準是 100 個關鍵指標,這些指標全面涵蓋了基礎模型的透明度,包括用於構建基礎模型的上游資源、模型本身的細節以及下游使用。

目前總體而言,基礎模型的透明度很低。沒有任何開發商披露有關其旗艦模型對於下游影響的重大信息,例如用戶數量、受影響的市場部門或用戶如何尋求賠償

發現到的待解決痛點如下:

  • 上游資源:開發人員對用於構建基礎模型的上游資源相對透明,例如使用的數據和計算資源,但是沒有說明取得這些資源所付出的成本,和是否有善盡企業社會責任去照顧好這些資料工人,關於訓練資料的著作權問題,隱私權問題。再來就是訓練所需的運算時間,硬體成本,時間成本,能源消耗,碳排放等等,目前都未必有完整的揭露。
  • 模型細節:開發人員對基礎模型的細節透明度較低,例如使用的特定訓練算法和模型相關的風險,模型的架構與參數量,模型使用上的限制與範圍,目前尚沒有做到大部分論文裡面規範的事項。
  • 下游使用:開發人員對基礎模型的下游使用最不透明,例如模型如何被用戶使用以及在社會上產生了什麼影響,包含如果有模型更新要寫好更新日誌,對外要有免責聲明,詳盡的使用說明書,提及相關使用政策與範圍的事項。

FMTI 是促進基礎模型生態系統透明的重要工具。通過衡量和報告基礎模型的透明度,可以幫助提高人們對此問題的認識並鼓勵開發人員改進他們的透明度做法。

如何提高基礎模型的透明度?

可以採取多種措施來提高基礎模型的透明度。這些措施包括:

  • 開發人員應披露更多有關用於構建其基礎模型的上游資源的信息,例如使用的數據來源和計算資源。這些信息可以幫助用戶了解模型的潛在偏見和局限性
  • 開發人員應更加透明地披露基礎模型的細節,例如使用的特定訓練算法和模型相關的風險。這些信息可以幫助用戶做出明智的決定如何使用模型。
  • 開發人員應更加透明地披露基礎模型的下游使用情況,例如模型如何被用戶使用以及在社會上產生了什麼影響。這些信息可以幫助確保基礎模型以負責任和道德的方式使用。

除了開發人員之外,政府和其他利益相關者也可以在促進基礎模型生態系統透明度方面發揮作用。例如,政府可以制定法規,要求開發人員披露有關其基礎模型的某些信息。其他利益相關者,例如民間社會組織和學術界,還可以進行研究並提高人們對基礎模型生態系統中透明度重要性的認識。

結論:

這篇論文提出一套具體的關鍵指標,來避免強大的人工智慧從各種維度危害現有的人類社會運行準則,規範了所有發行人工智慧的大科技公司都需要遵守的共同準則,預計藉由大家的努力💪,能實現人工智慧與人類和平共存的願景,以下是論文重點整理。

  • 開發人員應公開發布有關其基礎模型的技術細節,包括訓練數據、算法和架構。
  • 開發人員應建立可靠的審核和監控流程,以識別和解決基礎模型中的偏見和錯誤。
  • 開發人員應與用戶和其他利益相關者合作,開發透明和問責的基礎模型使用政策。

引用:

@article{bommasani2023foundation,
title={The Foundation Model Transparency Index},
author={Bommasani, Rishi and Klyman, Kevin and Longpre, Shayne and Kapoor, Sayash and Maslej, Nestor and Xiong, Betty and Zhang, Daniel and Liang, Percy},
journal={arXiv preprint arXiv:2310.12941},
year={2023}
}


如果你對 AI 充滿熱情,學習上又不想浪費時間,我能夠以過來人的經驗給你不少想法,歡迎在Facebook群裡面留言。

如果想要用Zoom直接交談,為你直接解惑的,也可以點以下連結預約時間 (1小時)

 https://calendly.com/universe_ai/free_appointment


留言
avatar-img
留言分享你的想法!
avatar-img
無限智慧學院的沙龍
95會員
128內容數
帶你用上帝視角,針對市面上具有高度價值的影片/論文/書籍,用東方取象,與西方邏輯辯證的角度同時出發,跟著我一起來探討宇宙萬事萬物的本質,隨時隨地都可以來一場說走就走的思維旅行。作者在台積電 / 聯發科等科技產業有累計10年的資歷,近期對於人工智慧,東方易經,西方辯證邏輯,還有佛法向內求有深度興趣。
2024/06/09
介紹這次Computex的兩大主題,AI Server與AI PC,展現了台灣廠商強大的供應能力,隨處可見黃仁勳的簽名,展示了美國頂尖企業與台灣製造那層密不可分的夥伴關係,就讓我們一起來探索,這些尖端科技產品。
Thumbnail
2024/06/09
介紹這次Computex的兩大主題,AI Server與AI PC,展現了台灣廠商強大的供應能力,隨處可見黃仁勳的簽名,展示了美國頂尖企業與台灣製造那層密不可分的夥伴關係,就讓我們一起來探索,這些尖端科技產品。
Thumbnail
2023/12/07
這段時間大量的人工智慧應用湧現,有人驚嘆,有人欣賞,有人恐懼,有人忌妒,結合這段日子以來對社會方方面面的觀察,總結出新時代必勝心法,贈予有緣人。
Thumbnail
2023/12/07
這段時間大量的人工智慧應用湧現,有人驚嘆,有人欣賞,有人恐懼,有人忌妒,結合這段日子以來對社會方方面面的觀察,總結出新時代必勝心法,贈予有緣人。
Thumbnail
2023/11/19
隨著人工智慧高速發展,許多重複單調的工作,以肉眼可及的速度,不斷的能夠被機器人取代,許多人因此活在焦慮之中,甚至認為自己該躺平。本文就是針對這個問題來的,論說人之所以為人的波瀾壯闊與慷慨激昂,冥冥之中能夠指引一條道路。
Thumbnail
2023/11/19
隨著人工智慧高速發展,許多重複單調的工作,以肉眼可及的速度,不斷的能夠被機器人取代,許多人因此活在焦慮之中,甚至認為自己該躺平。本文就是針對這個問題來的,論說人之所以為人的波瀾壯闊與慷慨激昂,冥冥之中能夠指引一條道路。
Thumbnail
看更多
你可能也想看
Thumbnail
常常被朋友問「哪裡買的?」嗎?透過蝦皮分潤計畫,把日常購物的分享多加一個步驟,就能轉換成現金回饋。門檻低、申請簡單,特別適合學生與上班族,讓零碎時間也能創造小確幸。
Thumbnail
常常被朋友問「哪裡買的?」嗎?透過蝦皮分潤計畫,把日常購物的分享多加一個步驟,就能轉換成現金回饋。門檻低、申請簡單,特別適合學生與上班族,讓零碎時間也能創造小確幸。
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 新模型和 Human Baselines 排名將不斷變化,Human Baselines 的位置自從基礎模型出現以來,它就不再具有多大意義了,這些排名只是表明經典 NL
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 新模型和 Human Baselines 排名將不斷變化,Human Baselines 的位置自從基礎模型出現以來,它就不再具有多大意義了,這些排名只是表明經典 NL
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
Thumbnail
大型語言模型(LLM)是基於深度學習的自然語言處理模型,而多模態模型(LMM)能處理多種資料型態。這些模型將對未來帶來重大改變。LLM 專注於理解和生成自然語言,LMM 能夠處理跨模態的內容,並整合多種資料的能力,有望成為未來趨勢。
Thumbnail
大型語言模型(LLM)是基於深度學習的自然語言處理模型,而多模態模型(LMM)能處理多種資料型態。這些模型將對未來帶來重大改變。LLM 專注於理解和生成自然語言,LMM 能夠處理跨模態的內容,並整合多種資料的能力,有望成為未來趨勢。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」。 Prompt Pattern 是給予LLM的指示,並確保生成的輸出擁有特定的品質(和數量)。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」。 Prompt Pattern 是給予LLM的指示,並確保生成的輸出擁有特定的品質(和數量)。
Thumbnail
大語言模型(LLMs)對於任何對人工智能和自然語言處理感興趣的人來說都是一個令人興奮的領域。 這類模型,如GPT-4, 透過其龐大的數據集和複雜的參數設置, 提供了前所未有的語言理解和生成能力。 那麼,究竟是什麼讓這些模型「大」得如此不同呢?
Thumbnail
大語言模型(LLMs)對於任何對人工智能和自然語言處理感興趣的人來說都是一個令人興奮的領域。 這類模型,如GPT-4, 透過其龐大的數據集和複雜的參數設置, 提供了前所未有的語言理解和生成能力。 那麼,究竟是什麼讓這些模型「大」得如此不同呢?
Thumbnail
對於熱衷於語言科技的你, 大語言模型(LLMs)在自然語言處理(NLP)領域的發展無疑是一個革命性的進展。 從傳統的規則系統到基於深度學習的方法, LLMs展現了在理解、生成和翻譯人類語言方面的巨大突破。 這不僅是技術上的飛躍, 更是開啟了新的應用和可能性。 下面將介紹這一變革帶來的三大
Thumbnail
對於熱衷於語言科技的你, 大語言模型(LLMs)在自然語言處理(NLP)領域的發展無疑是一個革命性的進展。 從傳統的規則系統到基於深度學習的方法, LLMs展現了在理解、生成和翻譯人類語言方面的巨大突破。 這不僅是技術上的飛躍, 更是開啟了新的應用和可能性。 下面將介紹這一變革帶來的三大
Thumbnail
Llama 2介紹 下一代開源的大型語言模型的 Llama 2 可以免費用於研究和商業用途。 1. 開源的大型語言模型: Llama 2是一個開源的大型語言模型,這意味著它對於研究人員和企業來說是一個極具價值的資源。開源模型可以讓我們深入了解其內部運作,並且可以根據特定需求進
Thumbnail
Llama 2介紹 下一代開源的大型語言模型的 Llama 2 可以免費用於研究和商業用途。 1. 開源的大型語言模型: Llama 2是一個開源的大型語言模型,這意味著它對於研究人員和企業來說是一個極具價值的資源。開源模型可以讓我們深入了解其內部運作,並且可以根據特定需求進
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News