
人工智慧在 Chatgpt 出現之前,其實早已遍佈我們的生活周遭,從查詢路況、預測天氣與推薦商品,我們幾乎時刻都在使用,並深刻影響我們的決定與選擇。然而當 AI 可以操作我們可以觀看的內容與選擇,就要回頭思考,它給的資訊、建議與行動,真的符合公平、安全與倫理的嗎?
本課程為「負責任的AI」,裡面不談技術的開發,而是專注再怎麼打造符合價值觀的 AI ,並能讓人信任的 AI 產品。目前是 Google 數位人才探索計畫 的必修課程,該課程可以幫助您了解:
- Google AI 的開發原則
- 機構為何負責實踐負責任的AI技術
- 了解負責任的 AI 技術,如何影響各專案階段中的所有決策
- 瞭解機構如何依據本身的業務需求和價值觀,量身打造 AI 工具
📚 課程資訊整理
課程名稱:Introduction to Responsible AI
所需時間: 15 分鐘
難易程度:入門
適合對象:設計師、PM、行銷、程式設計師
🧠 重點筆記
▋負責任的 AI 是什麼?
AI 不僅是在技術上要選擇,更需要的是價值觀的選擇
為了開發負責任的 AI 技術,從設計、開發到部屬 AI 系統,不僅需充分了解「可能出現的問題(possible issues)」、「限制(limitations)」與「非預期結果(unintended consequences)」,還需在每個決策考量社會、倫理、隱私、公平性與價值觀,以負責任的態度,做出選擇。
▋為何需要建立負責任的 AI 開發原則?
有負責任的 AI 技術才是成功的 AI
AI 看似是機器進行決策,但其實背後的設計者才是真正的決策者。AI 的技術開發,從收集資料、訓練模型、控管、佈署與特定的使用方式,都是透過人類的決策才能一步步將技術落地。因此人類決策才是串起整個流程的關鍵。
而人類的決策,往往是反應,每個人內心的價值觀體現,如果沒有負責任的 AI 開發原則,AI 仍舊沒有解決問題,甚至帶來偏見,更甚者加劇問題的發生。
▋Google AI 技術七大與四不原則
開發原則是 Google 的基礎,決定 Google 價值
七大原則:
- AI 必須對社會有益
- 避免塑造與加深不公平的偏誤
- AI 應設有防護措施並通過安全測試
- AI 應該對使用者負責
- AI 應採用隱私設計原則
- AI 應堅持以高標準追求科學卓越
- AI 應以上述原則做為應用基準
四不原則:
- 可能會對整體造成傷害的科技
- 武器或首要目的或用途為使人受傷,或直接促成人身傷害的其他科技
- 為達監控目的,已違反國際公認規範方式收集或使用資訊科技
- 目前廣泛採納的國際法規或人權原則相抵觸的技術
📋 總結
如同課程的結尾,制定負責任的 AI 開發原則是開始,而非終點,原則雖不能解答怎麼開發產品, 但可以決定產品,如何體現企業的價值觀,只有具備符合倫理的價值觀,才能保證產品的成功。
課程連結:
https://www.cloudskillsboost.google/paths/118/course_templates/554?locale=zh_TW