今天是 2025 年 12 月 14 日,星期日。今天雖然是星期天,不過楊老師在新北市三重有一整天的課,要跟大家談手機AI應用技巧,我很喜歡這樣的主題,喜歡大家在上課時開心的笑的感覺,然後告訴我,接下來會馬上用在工作中和生活中,那真是很有成就感的一件事啊!
回到家吃過晚餐,又是楊老師AI365的時間,不過今天沒有什麼靈感耶,不知道應該介紹什麼主題比較合適。所以就趁著剛吃飽飯,跟老婆去老街溪河濱步道散步的時候,很快的盤算了一下,決定跟大家介紹「負責任的AI」這個題目,希望你會喜歡。楊老師你在說什麼?AI又不是真的人?怎麼會用「負責任的AI」這個詞呢?看官你有所不知啊!AI對於個人、企業都是越來越重要,如果要妥善的使用管理AI,就必須知道他的「遊戲規則」或「使用說明書」。就跟在賣成藥的廣告說的一樣,要先確保不傷身體,才能講究效果。所以,它的核心目標很簡單:確保我們用的AI,不只聰明,而且安全、可靠、不會惹出大麻煩。換句話說,我們不能只看AI能帶來多少效益,還必須看它可能帶來的風險。RAI就是幫助我們把人類的價值觀(例如公平、誠實、不歧視)放進AI系統裡。
接下來我想分成三個部分來跟大家介紹
- 首先是,為什麼老闆一定要管RAI?
- 然後是,讓AI「值得信任」的五個關鍵
- 最後是,怎麼把規矩「做」到日常營運裡?
讓我們先來看第一項喔,為什麼老闆一定要管RAI?
楊老師跟你說,對企業老闆和主管來說,這不是道德加分題,不是有作有加分喔,而是規避風險的必修課。AI出錯的代價已經大到足以威脅公司生存。你知道嗎?現在國際法規越來越緊,尤其是歐盟AI法,它是全球最嚴格的AI法律,影響力遍及全世界。如果你的AI系統被歸類為「高風險」(例如用在醫療、貸款、招募等影響人命或前途的領域),一旦違規,懲罰是天文數字,最高可罰到3,500萬歐元,或者你公司全球年營業額的7%,看哪個數字高就罰哪個。
然後,還有名聲的風險。以前曾經發生過AI聊天機器人因為學了壞東西,開始發表歧視言論,結果很快就被迫下架。又或者像某信用卡公司,他的AI審核機制被質疑對女性有歧視,在信用額度上面,給女生比較低的額度。如果你的AI做出有偏見的預測,顧客和社會對你的信任就會立刻崩潰,品牌價值大受打擊。所以聽懂了嗎?對老闆來說,沒做好RAI,可能會有罰款的風險,跟企業形象的風險,在這個好事不出門,壞事傳千里的年代,一定要非常小心。
然後,當老闆有那個Sense要來管RAI的時候,一定要先知道,讓AI「值得信任」的五個關鍵。簡單來說,要讓AI不闖禍、值得客戶信任,我們必須掌握五個核心原則,你可以把它想像成讓AI具備「誠信」的五把鑰匙:
1. 不能有偏見,要公平: AI必須公平對待每個人。它不能因為性別、年齡或種族等敏感特徵,對相似條件的人給出不同的結果。
2. 要夠準確,有可靠性跟安全性: AI必須穩定工作。它得按照你當初設計的方式運行,不會隨便當機,也要能抵禦駭客攻擊或惡意操縱。
3. 要能說明白,有透明度跟可解釋性:AI不能是個「黑箱子」。當AI做出一個重要決定時,例如決定是否核准貸款,我們必須能知道它是怎麼得出這個結論的。這種解釋能力(可解釋性)對高風險的應用尤其重要。
4. 出事要有人負責,就是有明確的問責制度:既然我們設計和部署了AI,就必須對它的行為負責。公司需要建立一套明確的機制,確保人類對高度自動化的系統保持控制,並且能追溯AI的決策過程。
5. 保護隱私跟資料安全:AI需要大量數據,但我們必須確保在收集、使用、儲存數據的過程中,完全遵守法律,保護客戶的個人和商業機密。
這樣子,老闆們有聽到嗎?五個核心原則每個都很重要。
最後一項是,要怎樣把規矩「做」到日常營運裡?
因為負責任AI一定不是只拿來做宣示,或寫在紙上而已嘛,必須讓他真正動起來。這就需要兩個層面的配合:
第一個是辦公室的策略,要定規矩,也就是楊老師常常講的「治理」。企業高層必須承諾並建立一套管理AI風險的文化和機制。就像蓋房子需要建築師,AI治理需要「倫理委員會」或「審查小組」。這個小組應該包含所有的部門,由各部門派代表參加,他們要負責在AI專案開始前,先評估它有沒有潛在的偏見或倫理風險。然後,當然的,高階主管必須為AI系統的開發和部署決策承擔責任。
接下來是工廠端要用的技術,就是要用MLOps去做到持續監控。你想想看喔,當公司部署了幾十個甚至幾百個AI應用時,光靠人眼去檢查它們有沒有學壞是不可能的。這時候,我們需要像工廠的自動化生產線一樣,用技術來管理和監控AI,這就是MLOps,中文可以翻成機器學習維運。這個部分,楊老師建議大家留意「模型飄移」「記錄追蹤」以及「標準化」三個議題。
楊老師就問一下喔,什麼是「模型漂移」呢?這個很簡單,就像汽車零件會磨損,AI模型隨著時間和新數據的出現,性能會逐漸下降,這就稱為「模型漂移」。MLOps就是負責持續監控模型的性能和數據品質。然後,「記錄追蹤」是很容易理解的,我們需要有能力追溯AI是怎麼被製造出來的,用了哪些數據。這叫數據沿襲 (Data Lineage)。一旦出問題,我們可以立刻追查到原因,這對於滿足歐盟AI法等法規要求的審計至關重要。最後,還有一個「標準化」的議題,楊老師建議企業要參考像是ISO/IEC 42001這樣的國際標準,它就像是AI界的「管理系統認證」,可以幫助企業有系統地滿足高風險AI的要求。
講得差不多了,讓我做個小整理,讓大家可以Takeaway,今天講的RAI,大家可以把它想成是一個AI GPS,就是要部署AI的「GPS導航系統」。
這套系統不只會告訴你如何最快抵達目的地,有創新和商業效益,更重要的是,它會畫出紅線,就是我們常說的「合規」,預先警告你哪裡是法規的「禁區」,不可以有像是歧視等等的問題。然後是持續監測,要隨時監控AI的性能和風險指標,確保公司在使用AI的時候,是安全的。最後一點,是要有記錄可以問責,完整記錄你的行動軌跡跟決策依據,萬一發生問題,可以清楚追溯責任。只要企業在推AI的時候,有將這套GPS系統 (RAI框架)建立起來並啟動,你的企業才能大規模、安全、負責任地在AI的道路上全速前進。
























