可解釋AI

含有「可解釋AI」共 4 篇內容
全部內容
發佈日期由新至舊
AI 的「黑盒子問題」已成為高風險決策下的倫理危機。本文深入探討神經網路為何難以理解,並介紹 LIME、SHAP 等前沿的「可解釋AI」技術。我們將解析歐盟 AI 法案等監管框架,最終探討如何在追求強大 AI 的同時,透過建立信任與問責制,確保人類掌握最終的理解鑰匙。
Thumbnail
含 AI 應用內容
#AI倫理#演算法#AI監管
職場裡最讓人焦慮的,不是結果不好,而是不知道「為什麼」。就像 AI 要變得可解釋,人才會信任,職場也一樣。當你能把決策說得清楚,別人不會只看結果,而是看到你的判斷力、信任你的決定。別當那種讓人猜來猜去的「黑盒子」,用一句「為什麼」,打開信任的大門,也讓合作變得更順。
Thumbnail
今年我參加了 2024 玉山 AI Cup,題目剛好是文件檢索 / RAG,決定給平常就有在接觸 NLP 的自己一次機會挑戰看看。這篇文章將我們團隊開發的「Hybrid 模型」解法和參賽經驗和大家分享。
今年的國泰金控技術年會,關於 AI 有幾個主題覺得很有趣、也受到一些啟發: 1. 可解釋 AI : AI 的可解釋性一直是一個很被關注的題目,尤其是發生在模型要準備落地應用,需要驗證黑盒子是不是依照正確的邏輯、人類的邏輯去判斷問題,我自己很喜歡這個部分,算法是用一套最基本的SHAP,SHAP基於博
Thumbnail