開始時,教授是透過學校網站聯絡我們的,他親切的表示未來所有交談都會在學校網站上進行,但後續校方安排有變動,我們還是到校園內授課,當然我很慶幸有這個變動,不僅因為他是一個極具教學熱忱的教授,更甚是我從實體課程中學到如何有效領導學生吸收新知識。
AI 與 AI system 有什麼不同?
他指出,AI 是一個廣泛的術語,涵蓋機器學習、深度學習、推理等概念;而 AI system 則是 AI 在現實世界中具體應用的實體系統或操作表現。
AI 定義與歐盟觀點
第一堂課中,教授引導我們閱讀歐盟人工智慧高階專家小組(AI HLEG)制定的《AI 定義》文件,目的是建立一個通用且可操作的定義框架,協助政策制定者、學術界與產業界對 AI 建立共識。
此外,教授也推薦關注人工智慧法案的同學觀賞相關 YouTube 影片。該法案整合來自美國與歐洲的不同觀點,探討 AI 的風險辨識與應用規範,強調全球合作以確保有效治理。
個案探討:Hiring by Machine
(機器招募的道德議題)
我們深入探討了普林斯頓大學提出的案例研究,該研究指出使用 AI 系統協助招募流程可能引發的道德爭議,包括:
- 公平性:
系統最初有效地模擬人類選才標準,卻無意間歧視身心障礙者,導致不公平對待。 - 去人性化:
AI 無法體察人類情感,可能冷酷地排除潛力人才。 - 同意與情境完整性:
員工資料被用來訓練 AI,未經同意也未明確告知。
進一步,我們也反思以下重要問題:
- 公平應指程序公平還是結果公平?
- 招募標準應否納入多元性考量?
- 面試者的隱私資料屬於誰?使用範圍應如何界定?
倫理準則:打造可信任的 AI
2019 年 4 月 8 日,歐盟人工智慧高階專家小組(High-Level Expert Group on AI)發表了《Ethics Guidelines for Trustworthy AI》。
根據該指導原則,可信任的人工智慧應具備以下三項特性:
- 合法性:遵守所有適用的法律與法規
- 倫理性:遵循倫理原則與價值觀
- 穩健性:在技術上具備穩定性,同時考量其社會環境影響
文件提出四大核心倫理原則與七項具體實作要求,並附有一份實用的操作清單,協助利害關係人評估 AI 系統是否達到標準。
其宗旨包括:
- 為所有 AI 利害關係人(如開發者、使用者、企業、政府)提供具指導價值的準則
- 鼓勵以人本導向與倫理為本來設計與開發 AI 系統
- 強化歐盟在全球 AI 倫理與技術規範制定中的領導地位
完成這堂課後,我正著手架設個人網站。多虧這門課的啟發,我運用多項 AI 工具來協助完成前端建置的任務。更重要的是,我也想起教授在課堂上特別提到的「隱私權議題」。這在德國是一項高度關注的話題,更有趣的是——若網站未載明隱私權條款,可能會被認定為違反規範,甚至因此遭到舉報。這讓我立刻補上相關條款,確保網站具備基本的法律合規性。