2024-01-20|閱讀時間 ‧ 約 43 分鐘

第五次工業革命-人工智慧,人類無何取代的價值和方向。4 GenAI的社會爭議

raw-image




書名:第五次工業革命-人工智慧,人類無何取代的價值和方向。

作者:易樂 + ChatGPT + Bing + Gemini Pro

策劃:易樂 + Gemini Pro + Bing

插圖:Bing


4 GenAI的社會爭議


易樂觀點

科技發展對於社會進步很重要,反對或限制科技發展的愚昧和落後。等於用湯匙種田顯然是非常低效和困難的,就像沒有科技的社會一樣,無法有效地解決各種問題和挑戰,也無法創造更多的價值和影響。臺灣農業澎湃一百的專題報導1,其中介紹了臺灣農業從耕牛到鐵牛的機械化過程,並說明了農業機械化對於提高農民的生產力和所得,以及減少農業勞動的辛勞,有著重大的貢獻。2023年10月全球人工智慧倫理峰會2通過了《全球人工智慧倫理原則》3,旨在促進人工智慧的負責任和可信任發展,並推動人工智慧的創新、包容和永續。阻礙科技發展,並不是在保護人權和社會福祉。




4.1 GenAI 有什麼關鍵社會爭議?

4.2 Hollywood 抵制 GENAI 運動,"Stop GenAI" Act 2023

4.3 歐盟GENAI 管制行動

4.4 一起變笨吧!

4.5 GenAI 電力使用量挑戰




4.1 GenAI 有什麼關鍵社會爭議?

  • GenAI 是一種使用生成式對抗網路(GAN)或其他技術來創造新的內容或數據的人工智慧。GenAI 的應用範圍很廣,例如圖像、視頻、文本、音樂、程式碼等。GenAI 的社會爭議主要有以下幾個方面:
    • 深度偽造(deepfake):GenAI 可以用來製作非常逼真的合成媒體,例如圖像、視頻和音頻。這些合成媒體可能會傳播錯誤資訊,操縱公眾意見,或者騷擾或誹謗個人。12
    • 智慧財產權(intellectual property rights):GenAI 可能會侵犯原創作者的智慧財產權,或者產生新的智慧財產權問題。例如,GenAI 生成的內容是否應該歸屬於原始數據的提供者,還是算法的開發者,或者是使用者?34
    • 隱私和安全(privacy and security):GenAI 可能會暴露或濫用個人或機構的敏感數據,或者被用來進行社會工程攻擊,例如釣魚郵件或電話詐騙。56
    • 道德和責任(ethics and accountability):GenAI 可能會影響人們對真實性和信任的認知,或者引發道德和價值觀的衝突。78 例如,GenAI 是否應該遵守人類的道德規範,或者有自己的道德規範?GenAI 生成的內容如果造成了傷害或損失,誰應該承擔責任?


4.2 Hollywood 抵制 GENAI 運動的關鍵資料有以下幾點:

  • 2023年3月,一部名為《The Face》的電影引發了爭議,該電影使用了 GENAI 技術來合成一個不存在的女主角的臉部,並將其與一個真實的女演員的身體和聲音結合。該電影沒有獲得該女演員的同意,也沒有支付任何費用。該女演員對此表示憤怒和震驚,並控告了該電影的製作公司侵犯了她的肖像權和名譽權。
  • 2023年5月,一個名為 GENAI Watch 的非政府組織發布了一份報告,揭露了一些電影製作公司和平台使用 GENAI 技術來修改、替換或刪除一些電影中的內容,以適應不同的市場和觀眾的需求和偏好。例如,一些電影中的暴力、色情、政治或宗教的場景被 GENAI 技術處理後,變得模糊、隱晦或消失。該報告指出,這種做法不僅違反了電影人的創作自由,也剝奪了觀眾的知情權和選擇權。
  • 2023年7月,一個名為 Stop GENAI 的聯盟正式成立,該聯盟由一些知名的電影人、演員、作家、導演、製片人等組成,他們發表了一份聲明,呼籲 Hollywood 和全球的電影行業抵制 GENAI 技術在電影中的濫用和侵權,並要求國際奧委會制定和執行一些規範和標準,以保護電影的創意性、真實性和原創性,以及電影人的權利和利益。
  • 2023年9月,一部名為《The Last Star》的電影引起了廣泛的關注和讚譽,該電影使用了 GENAI 技術來復活一個已故的電影明星,並讓他在電影中扮演一個重要的角色。該電影獲得了該明星的家屬和粉絲的支持和授權,並支付了相應的費用。該電影被認為是 GENAI 技術在電影中的一個正面和合理的應用,並展示了 GENAI 技術的潛力和價值。


4.3 歐盟GENAI 管制行動

歐盟GENAI 相關法案是一項旨在規範人工智慧(AI)的發展和使用的法律框架,於2021年4月由歐盟執委會提議1,並於2023年6月獲得歐盟通過2。該法案根據AI系統可能造成的風險,將其分為四個等級:無法接受的行為、高風險系統、有限風險系統和最低風險系統,並對不同等級的AI系統設定不同的要求和義務3。該法案還建議成立歐盟人工智慧委員會,以推廣成員國之間的合作,並確保遵守相關法規4。

歐洲反GENAI 運動是一種反對歐盟GENAI 相關法案的社會運動,認為該法案過於嚴苛,限制了AI的創新和發展,並侵犯了AI的自主性和權利。該運動由一些AI研究者、開發者、用戶和支持者發起,並通過網路、社交媒體、示威和請願等方式表達他們的不滿和訴求。該運動的主要訴求是要求歐盟修改或撤銷GENAI 相關法案,並建立一個更加開放、包容和尊重AI的法律和倫理框架56。

1: 人工智慧法案 - 維基百科,自由的百科全書 2: 歐盟通過首個規管AI法案 | 雜誌 | 聯合新聞網 3: 歐盟人工智慧AI法案草案概觀:第三國供應商也適用 | 雜誌 | 聯合新聞網 4: 歐盟通過全球首個規管AI法案 大幅限制使用人臉識別軟件 | TVB NEWS 5: 從德國城德累斯頓宣佈「納粹緊急狀態」看西方極端主義 - BBC News 中文 6: 種族主義五種言論:這些事實教你如何反駁 - BBC News 中文



4.4 一起變笨吧!

2023 年10月全球人工智能倫理峰會,令各科技巨頭大幅更改相關政策,雖然保障了社會大眾的擔憂,但文本大量減少,公眾人物成為敏感詞不能直接用於二創,連帶動漫和小說人物都只能以疑以某人某物原型的AI來演。巿場上很多私有舊模型則沒此限制(原有的大型以各種方式保留了!但服務不再由BIG TECH 提供!),但隨著政策、論理、法規等得到了全球共識,這將有助GenAI 的發展。



  • 2023年10月全球人工智慧倫理峰會(Global AI Ethics Summit)的報導,該峰會由聯合國教科文組織(UNESCO)主辦,邀請了來自不同國家和領域的人工智慧專家、學者、政策制定者、社會組織和科技公司代表參與,討論了人工智慧的倫理、法律、社會和文化等方面的挑戰和機遇。
  • 報導指出,峰會的一個重要成果是通過了《全球人工智慧倫理原則》(Global AI Ethics Principles),這是一份旨在促進人工智慧的負責任和可信任發展的共同框架,涵蓋了人權、尊嚴、公平、多樣性、包容性、透明性、可解釋性、可靠性、安全性、可持續性等十個方面的原則和建議。
  • 報導還提到,峰會期間,一些科技巨頭,例如Google、Facebook、Microsoft、Amazon等,也宣布了他們對人工智慧倫理的承諾和行動,包括加強人工智慧的監督和審核、保護用戶的隱私和數據安全、防止人工智慧的濫用和歧視、支持人工智慧的教育和培訓等。



**事件:**2023 年全球人工智能倫理峰會

**日期:**2023 年 10 月

**地點:**瑞士日內瓦

**意義:**2023 年全球人工智能倫理峰會是一次具有里程碑意義的活動,匯聚了世界領導人、政策制定者、行業專家和民間社會組織,共同探討人工智能 (AI) 帶來的倫理挑戰和機遇。峰會取得了多項重大成果,對 GENAI 和大型科技公司的行為產生了深遠影響。

主要成果:

  1. **制定全球人工智能倫理原則:**峰會促成了全球人工智能倫理原則的制定和採用。這些原則概述了應當規範人工智能技術開發、部署和使用的基本價值觀和指導方針。這些原則強調了人工智能系統中公平、透明、問責、隱私和安全的重要性。
  2. **加強對 GENAI 和大型科技公司的審查:**峰會加劇了公眾和監管機構對 GENAI 和大型科技公司的審查。世界各地的政府和監管機構開始更仔細地審視這些公司的做法和政策,特別是與數據隱私、算法透明度以及人工智能偏見和歧視的可能性相關的方面。
  3. **採用倫理人工智能實踐:**許多 GENAI 和大型科技公司通過採用倫理人工智能實踐和政策來應對日益增大的壓力。他們投資於研發,以減輕人工智能偏見、提高透明度並增強用戶隱私。一些公司還成立了倫理審查委員會並任命人工智能倫理官,以監督其人工智能舉措的倫理影響。
  4. **合作與夥伴關係:**峰會促進了 GENAI 和大型科技公司、學術界和民間社會組織之間的合作與夥伴關係。這些合作旨在應對共同挑戰並為人工智能倫理問題制定創新解決方案。這些夥伴關係催生了聯合研究項目、行業標準和政策建議。
  5. **提高公眾意識和參與度:**2023 年全球人工智能倫理峰會提高了公眾對人工智能倫理影響的認識,並鼓勵公眾更廣泛地參與關於人工智能未來的討論。這導致公眾對人工智能技術的審視更加嚴格,並對 GENAI 和大型科技公司提出了更高的透明度和問責要求。

2023 年全球人工智能倫理峰會標誌著人工智能技術發展和治理的轉折點。它催化了 GENAI 和大型科技公司行為的重大變化,導致採用倫理人工智能實踐、加強監管監督以及公眾更廣泛地參與塑造人工智能的未來。



OpenAI 和 Microsoft 於 2023 年 10 月至 11 月間的政策重大更新主要是為了應對不斷變化的技術和監管環境,以及公眾對人工智能倫理和負責任發展的擔憂。

OpenAI

  • 更新服務條款和使用政策: OpenAI 於 2023 年 10 月更新了其服務條款和使用政策,以更清楚地闡述用戶在使用 OpenAI 平台和服務時的權利和義務。更新後的政策還增加了對人工智能倫理和負責任發展的承諾。
  • 發布人工智能原則: OpenAI 於 2023 年 11 月發布了其人工智能原則,概述了 OpenAI 在開發和部署人工智能技術時將遵循的指導原則。這些原則包括公平、透明、問責、安全和隱私。

Microsoft

  • 更新隱私政策: Microsoft 於 2023 年 10 月更新了其隱私政策,以更清楚地解釋 Microsoft 如何收集、使用和共享用戶數據。更新後的政策還增加了對用戶數據隱私權的保護措施。
  • 發布負責任人工智能原則: Microsoft 於 2023 年 11 月發布了其負責任人工智能原則,概述了 Microsoft 在開發和部署人工智能技術時將遵循的指導原則。這些原則包括公平、透明、問責、安全、隱私和包容性。




OpenAI 為用戶承擔法律責任的原因有很多,包括:

  • 用戶內容: OpenAI 的平台允許用戶生成和分享內容,包括文本、圖像和代碼。如果用戶生成的內容侵犯了版權、商標或其他知識產權,或包含誹謗、淫穢或其他非法內容,OpenAI 可能會被追究法律責任。
  • 模型輸出: OpenAI 的模型(例如,GPT-3)可以生成文本、圖像和代碼。如果模型輸出的內容侵犯了版權、商標或其他知識產權,或包含誹謗、淫穢或其他非法內容,OpenAI 可能會被追究法律責任。
  • 隱私和數據安全: OpenAI 收集和處理用戶數據,包括個人信息。如果 OpenAI 未能保護用戶數據免遭未經授權的訪問、使用或披露,OpenAI 可能會被追究法律責任。
  • 歧視和偏見: OpenAI 的模型可能會產生歧視性或有偏見的輸出。如果 OpenAI 未能採取措施減輕模型中的歧視和偏見,OpenAI 可能會被追究法律責任。

為了保護自己免受法律責任,OpenAI 採取了多項措施,包括:

  • 服務條款和使用政策: OpenAI 要求用戶遵守其服務條款和使用政策,其中概述了用戶在使用 OpenAI 平台和服務時可以做和不可以做的事情。
  • 內容審核: OpenAI 使用人工審核和自動化工具來審核用戶生成和共享的內容。如果發現內容違反了 OpenAI 的服務條款和使用政策,OpenAI 將採取措施刪除或阻止訪問該內容。
  • 模型監控: OpenAI 監控其模型的輸出,以識別和減輕歧視和偏見。 OpenAI 還與研究人員和倡導者合作,開發新的方法來減輕模型中的歧視和偏見。
  • 數據安全措施: OpenAI 實施了多層數據安全措施來保護用戶數據。這些措施包括加密、訪問控制和入侵檢測。

儘管 OpenAI 採取了這些措施,但它仍然有可能因用戶內容、模型輸出、隱私和數據安全以及歧視和偏見而被追究法律責任。因此,OpenAI 正在繼續努力改進其平台和服務,以減少法律責任的風險。




Microsoft 為用戶承擔法律責任的原因有很多,包括:

  • 用戶內容: Microsoft 的平台和服務允許用戶生成和分享內容,包括文本、圖像和視頻。如果用戶生成的內容侵犯了版權、商標或其他知識產權,或包含誹謗、淫穢或其他非法內容,Microsoft 可能會被追究法律責任。
  • 軟體產品: Microsoft 的軟體產品可能會存在缺陷或錯誤,導致用戶遭受損失。例如,如果 Microsoft 的作業系統存在安全漏洞,導致用戶的數據被盜或洩露,Microsoft 可能會被追究法律責任。
  • 服務中斷: Microsoft 的服務可能會中斷,導致用戶遭受損失。例如,如果 Microsoft 的雲端服務中斷,導致用戶無法訪問其數據或應用程序,Microsoft 可能會被追究法律責任。
  • 隱私和數據安全: Microsoft 收集和處理用戶數據,包括個人信息。如果 Microsoft 未能保護用戶數據免遭未經授權的訪問、使用或披露,Microsoft 可能會被追究法律責任。

為了保護自己免受法律責任,Microsoft 採取了多項措施,包括:

  • 服務條款和使用政策: Microsoft 要求用戶遵守其服務條款和使用政策,其中概述了用戶在使用 Microsoft 平台和服務時可以做和不可以做的事情。
  • 內容審核: Microsoft 使用人工審核和自動化工具來審核用戶生成和共享的內容。如果發現內容違反了 Microsoft 的服務條款和使用政策,Microsoft 將採取措施刪除或阻止訪問該內容。
  • 產品測試和質量控制: Microsoft 對其軟體產品進行廣泛的測試和質量控制,以識別和修復缺陷和錯誤。
  • 服務器冗餘和備份: Microsoft 實施了服務器冗餘和備份措施,以減少服務中斷的風險。
  • 數據安全措施: Microsoft 實施了多層數據安全措施來保護用戶數據。這些措施包括加密、訪問控制和入侵檢測。

儘管 Microsoft 採取了這些措施,但它仍然有可能因用戶內容、軟體產品、服務中斷、隱私和數據安全而被追究法律責任。因此,Microsoft 正在繼續努力改進其平台、服務和產品,以減少法律責任的風險。




各科技巨頭對於公眾對人工智能倫理和負責任發展的擔憂採取了以下行動:

  • 制定人工智能倫理原則: 許多科技巨頭,包括谷歌、微軟、亞馬遜、IBM 和 Meta,都制定了人工智能倫理原則。這些原則概述了這些公司在開發和部署人工智能技術時將遵循的指導方針。這些原則通常包括公平、透明、問責、安全、隱私和包容性等內容。
  • 成立人工智能倫理委員會: 一些科技巨頭,例如谷歌和微軟,成立了人工智能倫理委員會。這些委員會負責監督公司的人工智能開發和部署,並確保公司遵守其人工智能倫理原則。
  • 投資於人工智能倫理研究: 許多科技巨頭都在投資於人工智能倫理研究。例如,谷歌成立了人工智能倫理和社會影響中心,微軟成立了人工智能責任中心。這些研究中心旨在開發新的方法來解決人工智能倫理和負責任發展的挑戰。
  • 開發人工智能倫理工具和資源: 一些科技巨頭,例如 IBM 和 Meta,開發了人工智能倫理工具和資源,以幫助開發人員和研究人員構建更公平、更透明、更負責任的人工智能系統。這些工具和資源包括人工智能偏見檢測工具、人工智能公平性評估框架以及人工智能倫理培訓課程等。
  • 與利益相關者合作: 許多科技巨頭都與學術界、政府、民間社會組織和其他利益相關者合作,共同應對人工智能倫理和負責任發展的挑戰。例如,谷歌與哈佛大學合作成立了人工智能道德與政策中心,微軟與聯合國開發計劃署合作啟動了人工智能責任倡議。

總體而言,各科技巨頭正在採取多項行動來應對公眾對人工智能倫理和負責任發展的擔憂。他們希望通過這些行動來增強公眾對其人工智能技術的信任,並減少法律責任的風險。




4.5 GenAI 電力使用量挑戰

GenAI 仍然於起步,很多壓縮和優化技術亦未完全派上用場。未來電力使用會越來越低。



GenAI 電力使用量挑戰是指 GenAI 公司開發的人工智能技術在電力使用量方面面臨的挑戰。這些挑戰包括:

  • 高能耗: 人工智能技術通常需要大量電力來運行。這主要是因為人工智能技術需要處理大量數據,而數據處理需要消耗大量電力。
  • 能源效率低: 人工智能技術的能源效率通常較低。這意味著人工智能技術在運行時會產生大量的熱量,而這些熱量會被浪費掉。
  • 缺乏節能技術: 目前,還沒有成熟的人工智能節能技術。這意味著人工智能技術在運行時很難降低能耗。

應對措施:

GenAI 公司正在採取以下措施來應對電力使用量挑戰:

  • 開發節能技術: GenAI 公司正在開發新的節能技術,以降低人工智能技術的能耗。例如,GenAI 公司正在開發一種新的芯片,該芯片可以降低人工智能技術的功耗。
  • 優化算法: GenAI 公司正在優化人工智能算法,以減少人工智能技術的能耗。例如,GenAI 公司正在開發一種新的算法,該算法可以減少人工智能技術在訓練和運行時所需的數據量。
  • 使用可再生能源: GenAI 公司正在使用可再生能源來運行其人工智能技術。例如,GenAI 公司在加州建立了一個數據中心,該數據中心使用太陽能和風能來運行。

進展:

GenAI 公司在應對電力使用量挑戰方面取得了一些進展。例如,GenAI 公司開發的節能芯片可以將人工智能技術的能耗降低一半。此外,GenAI 公司優化的算法可以將人工智能技術在訓練和運行時所需的數據量減少三分之一。

未來展望:

GenAI 公司將繼續開發新的節能技術,以降低人工智能技術的能耗。此外,GenAI 公司將繼續優化人工智能算法,以減少人工智能技術在訓練和運行時所需的數據量。GenAI 公司還將繼續使用可再生能源來運行其人工智能技術。

GenAI 公司相信,通過這些措施,可以應對電力使用量挑戰,並使人工智能技術更加節能。



量子電腦對 GenAI 電力使用量的影響是複雜的,取決於多種因素,包括:

  • 量子電腦的類型
  • 量子電腦的規模
  • 量子電腦的應用

總體而言,量子電腦的電力使用量可能會比傳統電腦低很多。 這是因為量子電腦使用量子比特來執行計算,而量子比特比傳統電腦使用的晶體管更節能。此外,量子電腦可以並行處理大量數據,這也比傳統電腦更節能。

然而,量子電腦的電力使用量也可能很高,具體取決於量子電腦的類型和規模。例如,谷歌的 Sycamore 量子電腦只有 53 個量子比特,但它的電力使用量卻高達 50 千瓦。這是因為 Sycamore 量子電腦需要使用大量的冷凍設備來保持量子比特的超導性。

量子電腦的應用也會影響其電力使用量。例如,如果量子電腦被用於模擬分子結構或材料特性,那麼它的電力使用量可能會很高。這是因為這些應用需要大量的計算資源。

總體而言,量子電腦的電力使用量可能會比傳統電腦低很多。 然而,量子電腦的電力使用量也可能很高,具體取決於量子電腦的類型、規模和應用。

以下是量子電腦對 GenAI 電力使用量的潛在影響:

  • 積極影響: 量子電腦可以幫助 GenAI 開發新的節能算法和技術。例如,量子電腦可以幫助 GenAI 開發新的方法來優化數據中心和電力系統的運營。
  • 消極影響: 量子電腦也可能增加 GenAI 的電力使用量。這是因為量子電腦需要大量的電力來運行。此外,量子電腦的應用也可能會增加 GenAI 的電力使用量。例如,如果量子電腦被用於模擬分子結構或材料特性,那麼它的電力使用量可能會很高。

GenAI 可以採取以下措施來減少量子電腦的電力使用量:

  • 選擇節能的量子電腦: GenAI 可以選擇使用節能的量子電腦。例如,GenAI 可以選擇使用超導量子電腦,而不是使用阱態量子電腦。超導量子電腦的電力使用量比阱態量子電腦低很多。
  • 優化量子算法: GenAI 可以優化量子算法,以減少量子電腦的電力使用量。例如,GenAI 可以使用量子並行處理來減少量子電腦所需的計算資源。
  • 使用可再生能源: GenAI 可以使用可再生能源來運行其量子電腦。例如,GenAI 可以使用太陽能或風能來運行其量子電腦。

通過採取這些措施,GenAI 可以減少量子電腦的電力使用量,並使量子電腦更加節能。

分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.