2023-11-13|閱讀時間 ‧ 約 9 分鐘

AI爆炸性的發展!政府單位到底要不要管一下??!!

不知從何時開始,AI、AI、AI、AI、AI、AI、AI、AI、AI、AI、AI、AI、開頭的新聞報導報章雜誌如同下雨前的飛蟻串出,正盤旋在我們凝視的燈光中間打轉。


為此,各國政府高層、科技相關或AI的頂尖學者們似乎也意識到,該為這個火速竄起並持續指數型成長的AI,需受立法制定規範,如同:金融、醫藥、化工等成熟產業一套完整且嚴格的規範機制。當然,正反兩邊該有的辯論開始,有人認為強硬的AI監管如同扼殺AI的興盛

反方則覺得當AI肆無忌憚地成長變成超級智能(Super intelligence)後,是否促使「人類被取代假說」有發生的可能呢?!因此各大企業巨擘專家跳出來唇槍舌戰。


認為AI風險被誇大派的Coursera創辦人兼Google深度學習研究團隊聯合創始人的吳恩達(Andrew Ng)近期接受澳洲金融評論報時受訪指出:
一些產業因受管制導致效率降低,成長反而停滯,他不希望看到技與AI產業也和其他產業一樣,淪為「受管制的俘虜」(regulatory capture)」

背景圖:吳恩達 / Resource: 數位時代


神經網路之父Geoffrey Hinton則提出反方論點:
人工智慧對人類帶來的威脅遠遠超乎人類目前的想像

他更直接否認,吳恩達在澳洲金融評論報受訪時說出的「AI導致人類滅是陰謀論」。更反而分享自己當初離開Google的原因之一,就是希望自己對於AI所帶來的威脅&危害能更自由的表達和闡述。

圖源:Geoffrey Hinton的社群X帳號


近期美國白宮拜登的AI宣言中美歐簽署《布萊切利宣言》等這兩件世界等級的大規模對AI喊話,我們可以體悟到世界正雙眼不眨的緊盯著AI的突飛猛進,更重要的是對於AI無限上綱的憂患意識。


拜登10月底白宮會議上,簽署首項與AI有關的行政命令,提出8項目標,其中包括:

  1. 新的AI安全標準:

強大AI系統的開發者必須與美國政府分享安全測試結果,由國家標準與技術研究院制定嚴格標準和測試,確保AI系統安全可靠。

  1. 保護美國人國民的隱私:

優先支持包括基於AI的隱私保護技術、資助研究推進隱私保護技術。

  1. 促進平等和公民權利:

提供指導,防止住房、福利計畫和聯邦合同中的歧視,通過培訓和機構協調解決算法歧視問題。

  1. 維護消費者、病人和學生權益:

推動在醫療和藥物開發中負責任地使用AI、支持部署基於AI的教育工具。

  1. 支持勞工:

制定減緩AI對勞工潛在危害的原則、進行AI對勞動市場影響及支持受影響勞工的選項的研究。

  1. 促進創新與競爭:

透過國家AI研究資源和擴大補助,催化全美的AI研究,並且推動為小型開發者和企業家建立公平、開放和競爭的AI生態系統。

  1. 提升美國在海外的領導地位:

與其他國家合作,支持全球安全可信的AI部署,在與國際夥伴合作的基礎上加速制定重要的AI標準。

8.確保政府負責任地使用AI:

就機構使用人工智慧發布指導方針,著重保護權利和安全,簡化政府機構的人工智慧採購和合同流程。

總括來說,這些命令著重建立全面的AI安全措施,監控AI的生物合成以及防止AI詐騙、並要求開發者分享安全測試結構等。此目的的宗旨都是為了發展一套標準和有效的工具工具,同時又能確保AI安全可靠性




另一邊,中美歐簽署《布萊切利宣言》內容除了闡述一大堆AI的益處,但既然是宣言,總有那個But,我們直接看他提出的危機部分


人工智慧(AI)所延伸的通用人工智慧模型(AGI),可以執行五花八門的任務,以及相特定狹義人工智慧,可能表現出造成傷害、超乎人類想像的能力若有心人士潛在的故意濫用或出現意外而出現無法控制問題可能會產生重大風險。


這些問題的部分原因是這些功能尚未完全瞭解,因此難以預測。我們特別關注網路安全和生物技術等領域的此類風險,以及前沿人工智慧系統可能放大虛假資訊等風險的地方。

這些人工智慧模型最重要的功能可能像把雙面刃,同時會造成災難性的傷害。鑒於人工智慧變化速度的快速和不確定,以及在技術投資加速的背景下,各國申明:

加深對這些潛在風險的理解以及應對這些風險的行動尤為緊迫,人工智慧帶來的許多風險本質上是國際性的,因此最好通過國際合作來解決。


認知到AI的變革性積極潛力,並作為確保更廣泛的人工智慧國際合作的一部分,各國決心維持包容性的全球對話,讓現有的國際論壇和其他相關倡議參與進來,以開放的方式為更廣泛的國際討論做出貢獻,並繼續研究前沿人工智慧安全,以確保可以負責任地利用該技術的好處,以造福所有人類。

參與此宣言的24國名單

整體來說,每個人對於AI還是有Concern,差別就在於有的人看來是大海等級的Concern,一些人只會看成是漱口杯。就像一個新科技的問世,總會有正反兩方的激烈辯論,就跟世間陰陽太極一樣才會達到一個平衡。


但最後套一句麻省理工學院教授Max Tegmark於前幾天於Ted Talk演講針對AI所提到的關鍵片段,他也引用了AI教父圖靈(Alan Turing)​

背景圖:圖靈 / 圖源:Esri Community



如果我們把AI想成與電力一樣的全新科技,那或許還不用太擔心。然而若他是會「自己開始思考」,你可能對於機器有一天會超出我們能力、甚至取代我們不用太意外。





Max Tegmark的結語也提出對於AI,人們應保持理性的態度:
我們不應該為此停止對於AI的發展。而是要停止超智能(Superintelligence)的無腦競爭,這其中停止包括訓練無法理解的大型語言模型,而造成人類無法收拾的後果。




Ref(參考來源):
  • https://www.afr.com/technology/google-brain-founder-says-big-tech-is-lying-about-ai-human-extinction-danger-20231027-p5efnz (Financial Review)
  • https://twitter.com/geoffreyhinton/status/1719406116503707668?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1719406116503707668%7Ctwgr%5E47d33ca3d115bfd1d33b45dfb86869260abedaf4%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Ftechnews.tw%2F2023%2F11%2F11%2Ftechnology-companies-demand-regulation-of-artificial-intelligence-who-benefits-from-this%2F
  • https://technews.tw/2023/11/11/technology-companies-demand-regulation-of-artificial-intelligence-who-benefits-from-this/ ( 科技新報 )
  • https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/ ( The White House )
  • https://www.afr.com/technology/google-brain-founder-says-big-tech-is-lying-about-ai-human-extinction-danger-20231027-p5efnz
  • https://www.gov.uk/government/topical-events/ai-safety-summit-2023( Summit高峰會綜合檔案 )
  • https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023 ( 布萊德利公園宣言 )
  • https://www.cbsnews.com/news/artificial-intelligence-risks-dangers-geoffrey-hinton-60-minutes/( CBS News )




分享至
成為作者繼續創作的動力吧!
從 Google News 追蹤更多 vocus 的最新精選內容從 Google News 追蹤更多 vocus 的最新精選內容

作者的相關文章

JuRood的沙龍 的其他內容

你可能也想看

發表回應

成為會員 後即可發表留言
© 2024 vocus All rights reserved.