導入人工智慧的五項組織挑戰 — 無法說Why的問題

更新於 發佈於 閱讀時間約 5 分鐘

本文延續之前康斯坦丁·霍普夫博士等人的研究,該研究談及了〈AI的組織導入:工藝與機械工作〉(Organizational Implementation of AI: Craft and Mechanical Work)中提出的五項組織挑戰。本文專注於這些挑戰中的第四項,即「無法說Why的問題」。

霍普夫博士等人指出,決策者通常希望了解AI系統做出特定預測的方法和原因。例如,他們想知道客戶行為的驅動因素、機器故障的原因,或者為什麼機器學習模型在實驗室測試中表現優秀,但在實際應用中表現不佳。

這種對AI運作方式的企圖了解的需求通常被稱為「可解釋性」。特別是在接受過工程或科學訓練的決策者,他們要求機器學習系統的輸出過程能夠被人類理解。畢竟,實施AI的主要目的之一是促使更具理性和基於證據的決策過程。

然而,最佳的預測模型通常是「黑盒模型」(Black Box Models),內部的參數可能高達數百萬,這些參數共同定義了將輸入轉換為輸出的函數。即使對於專家來說,理解和解釋這些模型是如何進行預測,幾乎是不可能的。換句話說,許多AI系統能夠提供卓越的預測能力,但專家卻無法解釋其預測背後的原因和方式。

霍普夫博士等人引用了一家保險公司的資料科學家的話,解釋了管理階層企圖理解機器學習模型生成的需求:「我們無法向保險經理人提供黑盒預測模型,……,經理人需要知道哪些原因對結果造成影響。」同時,霍普夫博士等人還提到,這一觀點得到了許多行業受訪者的認同。當談到透過AI支援知識工作者的決策過程時,一位受訪者指出:「『可解釋性』是使用者是否接受演算法決策建議的最重要標準。」

此外,在進行AI建模時,還必須考慮到另一個關鍵問題,即相關性和因果性之間的差異。當AI系統做出決策,並將這些決策轉化為現實行動時,必須識別出模式是否真正具有因果關係,而非偽相關性。因為根據偽相關性做決策存在著很大的風險。

霍普夫博士等人提出了三種策略,以解決上述問題:

首先,他們提倡事後解釋性方法(Post-hoc explainability methods)。這種方法的目標是解釋黑盒模型背後的邏輯。它試圖將現代機器學習算法的預測準確性與經典統計模型的可解釋性相結合,期望在複雜的黑盒模型上建立可解釋的模型。然而,這樣的方法仍在積極研發中。

圖1 Post-Hoc Explainability Methods

圖1 Post-Hoc Explainability Methods

圖2 解釋器透過來色區塊解釋機器如何判別貓跟狗

圖2 解釋器透過來色區塊解釋機器如何判別貓跟狗

其次,他們強調最大程度地發揮可解釋模型(Transparent Models)的優勢。在高度專業化的領域,我們可以建立本質上可解釋模型,同時保持與黑盒模型相當的預測精度。儘管調整這些模型可能需要額外的時間和成本,但它們避免了在高風險決策問題中依賴黑盒或事後不忠實的解釋。

最後,他們提出了因果建模和嚴格的實驗評估。在因果推論的科學標準下,進行隨機對照實驗是理想的方法,許多公司也大量進行A/B測試。然而,在許多情況下,隨機對照實驗未必可行。在這種情況下,盡可能詳細地建構模型背後的因果過程,並使用適當的統計方法和工具來控制干擾因素。同時,與領域專家緊密合作,借助他們對業務問題的深入了解,以獲得準確且具有洞察力的分析結果。

羅凱揚(台科大企管博士)、黃揚博(政大企管碩士、識商創辦人)

資料來源:

Hopf, K., Müller, O., Shollo, A., & Thiess, T. (2023). Organizational Implementation of AI: Craft and Mechanical Work. California Management Review, 66(1), 23–47. https://cmr.berkeley.edu/2023/10/66-1-organizational-implementation-of-ai-craft-and-mechanical-work/

M. T. Ribeiro, S. Singh, and C. Guestrin, “‘Why Should I Trust You?’ Explaining the Predictions of Any Classifier,” (Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 2016), doi:10.1145/2939672.2939778.

✨ 歡迎追蹤,獲取更多相關資訊

► 識商IG:


https://www.instagram.com/bizsense2023/


► Line交流社群:


https://line.me/ti/g2/a2QRj--XfM3FRZBOZpB4rdJGravtdpVOeSLBpQ?utm_source=invitation&utm_medium=link_copy&utm_campaign=default


✨ 最新活動:AI商業策略讀書會

raw-image

詳細活動頁面 👉 https://bizsense-read.com/ai%E8%BD%89%E5%9E%8B/

avatar-img
17會員
72內容數
AI轉型策略、AI商業思維,帶你從宏觀的角度看AI
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
識商的沙龍 的其他內容
本文延續之前康斯坦丁·霍普夫博士等人的研究,該研究談及了〈人工智慧的組織導入:工藝與機械工作〉(Organizational Implementation of AI: Craft and Mechanical Work)中提出的五項組織挑戰。本文專注於這些挑戰中的第三項,即「系統連結缺失和資料稀缺
本文延續之前康斯坦丁·霍普夫博士等人的研究,該研究談及了〈人工智慧的組織導入:工藝與機械工作〉(Organizational Implementation of AI: Craft and Mechanical Work)中提出的五項組織挑戰。本文專注於這些挑戰中的第二項,即「將AI專案視為傳統IT
在2023年的《加州管理評論》(California Management Review)上,德國班貝格大學(University of Bamberg)的資深研究員康斯坦丁·霍普夫博士等人發表了一篇題為〈人工智慧的組織導入:工藝與機械工作〉(Organizational Implementat
在2023年的《加州管理評論》(California Management Review)上,德國班貝格大學(University of Bamberg)的資深研究員康斯坦丁·霍普夫博士等人發表了一篇題為〈人工智慧的組織導入:工藝與機械工作〉(Organizational Implementatio
根據瑞典斯德哥爾摩經濟學院愛立信研究中心的研究,即便是經驗豐富的公司,也在AI領域面臨著複雜挑戰。克服這些挑戰的關鍵就在於「人才」。 以汽車供應商在自駕車AI初期階段為例,他們需要不斷地優化演算法,同時面臨著資料整合和跨部門協作等新挑戰。隨著技術的演進,管理變得更加複雜,這時就需要優秀的技術人才和
勤業眾信(Deloitte)在2022年底最新發布的人工智慧(AI)研究中指出,雖然AI具有誘人的潛力,但有一半的企業在導入AI方面遇到了困難,表現不如預期。這表明,儘管企業看中AI的應用前景,但實際將AI專案成功應用在業務中仍然具有挑戰性。 導入AI通常需要經歷五個關鍵步驟:選擇、開發、評估、採
本文延續之前康斯坦丁·霍普夫博士等人的研究,該研究談及了〈人工智慧的組織導入:工藝與機械工作〉(Organizational Implementation of AI: Craft and Mechanical Work)中提出的五項組織挑戰。本文專注於這些挑戰中的第三項,即「系統連結缺失和資料稀缺
本文延續之前康斯坦丁·霍普夫博士等人的研究,該研究談及了〈人工智慧的組織導入:工藝與機械工作〉(Organizational Implementation of AI: Craft and Mechanical Work)中提出的五項組織挑戰。本文專注於這些挑戰中的第二項,即「將AI專案視為傳統IT
在2023年的《加州管理評論》(California Management Review)上,德國班貝格大學(University of Bamberg)的資深研究員康斯坦丁·霍普夫博士等人發表了一篇題為〈人工智慧的組織導入:工藝與機械工作〉(Organizational Implementat
在2023年的《加州管理評論》(California Management Review)上,德國班貝格大學(University of Bamberg)的資深研究員康斯坦丁·霍普夫博士等人發表了一篇題為〈人工智慧的組織導入:工藝與機械工作〉(Organizational Implementatio
根據瑞典斯德哥爾摩經濟學院愛立信研究中心的研究,即便是經驗豐富的公司,也在AI領域面臨著複雜挑戰。克服這些挑戰的關鍵就在於「人才」。 以汽車供應商在自駕車AI初期階段為例,他們需要不斷地優化演算法,同時面臨著資料整合和跨部門協作等新挑戰。隨著技術的演進,管理變得更加複雜,這時就需要優秀的技術人才和
勤業眾信(Deloitte)在2022年底最新發布的人工智慧(AI)研究中指出,雖然AI具有誘人的潛力,但有一半的企業在導入AI方面遇到了困難,表現不如預期。這表明,儘管企業看中AI的應用前景,但實際將AI專案成功應用在業務中仍然具有挑戰性。 導入AI通常需要經歷五個關鍵步驟:選擇、開發、評估、採
你可能也想看
Google News 追蹤
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
🔓 破解AI模型的“黑盒”評估難題! AI模型的高效能和複雜性經常以「黑盒」模式為代價,讓模型的內部運作變得不透明,給模型評估和業務應用帶來了巨大挑戰。然而,隨著解釋性技術和流程的進步,破解這一難題不再是遙不可及的夢想。本文將從理論框架、實踐策略和工具方法三方面入手,全面解析如何破解AI模型的「
Thumbnail
學習生成式AI,不僅僅是掌握幾個工具,而是從全方位了解AI的發展範疇及其潛力。我經常在企業教授AI課程時,會遇到HR詢問:某些工具用不上,可以不教嗎?當然可以,但如果同仁不了解生成式AI在「數位內容」上的廣泛應用,又如何掌握大語言模型的發展邊界?
Thumbnail
AI 的應用已經成為企業管理的重點。本文探討 AI 的三層次應用,包括如何與團隊協作提升工作表現、融合好奇心與同理心,以及恆毅力在工作中的重要性。同時,分析 Apple Intelligence 及其策略,瞭解 AI 背後的機會與挑戰,讓企業在這個數據驅動的時代中脫穎而出。
跟 AI 機器人表達自己的需求實際上是在訓練自己的表達能力。明確向對方說你的目的是什麼,給予什麼樣的參考資料和範本。最後要求對方產出的作品是什麼。這樣的流程不論是講給 AI 或人類都很重要。那些會說 AI 很難用的人,或許現實中也常常覺得別人怎麼都聽不懂自己想說什麼,這種人即使跟 AI 表達需求,
在人工智能的發展歷程中,早期的研究主要側重於將解決問題的規則輸入計算機,試圖通過啟蒙運動理性的思路模擬人類的智能行為。然而,這條路逐漸變得艱難,因為規則過於繁多,無法應對複雜的情境和語境。在這個背景下,一些科學家轉向了神經網絡算法,試圖模擬人腦的感知能力。
人工智慧中最受歡迎的作法莫過於類神經網路,以當今最受歡迎的大型語言模型 (LLM)也不例外,然而這些持續受到爭議:黑盒子,也就是說我們不知道它內部怎麼運作,只知道給它一段話,它就會輸出一段話來回應。 以下從幾個面向來討論「黑盒子」議題: 透明性 Transparency 以LLM模型的開
Thumbnail
近年來,生成式AI對市場帶來了巨大變革,然而,企業的AI專案卻面臨許多部署和失敗的問題。從MIT Sloan Management Review的研究中,我們發現數據科學家在尋找防止AI模型失敗的模式上面存在許多問題。本文提供了三個觀點,協助缺乏技術的高階主管針對辨識有效的AI模型和數據集提出方法。
Thumbnail
人工智慧(AI)在當今社會扮演著越來越重要的角色,然而,我們應該關注的不僅僅是AI潛在可取代的工作,更重要的是AI能夠帶來怎樣人類無法達到的價值。本文深入探討AI的成本與發展潛力,並提出對於AI未來發展的看法。
Thumbnail
AI psychoanalytic model that teaches AI causality -- that's what lang model training is missing. 簡言之,我想聊聊要怎們幫AI學習「因果思考(causality)」。
Thumbnail
因果鏈分析核心是追根究底挖掘問題的深層次原因。這方法將問題視為一個層層相扣的結構,通過系列問答,從表面的不利因素一直追溯到問題根源。口訣「追根究底挖問題,解碼問題的本質」提醒初學者關鍵概念,強調追根究底、不遺漏任何原因、用[且]或[或]運算,連接上下層不利因素之間的關係,建立徹底解決問題的強力基礎。
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
🔓 破解AI模型的“黑盒”評估難題! AI模型的高效能和複雜性經常以「黑盒」模式為代價,讓模型的內部運作變得不透明,給模型評估和業務應用帶來了巨大挑戰。然而,隨著解釋性技術和流程的進步,破解這一難題不再是遙不可及的夢想。本文將從理論框架、實踐策略和工具方法三方面入手,全面解析如何破解AI模型的「
Thumbnail
學習生成式AI,不僅僅是掌握幾個工具,而是從全方位了解AI的發展範疇及其潛力。我經常在企業教授AI課程時,會遇到HR詢問:某些工具用不上,可以不教嗎?當然可以,但如果同仁不了解生成式AI在「數位內容」上的廣泛應用,又如何掌握大語言模型的發展邊界?
Thumbnail
AI 的應用已經成為企業管理的重點。本文探討 AI 的三層次應用,包括如何與團隊協作提升工作表現、融合好奇心與同理心,以及恆毅力在工作中的重要性。同時,分析 Apple Intelligence 及其策略,瞭解 AI 背後的機會與挑戰,讓企業在這個數據驅動的時代中脫穎而出。
跟 AI 機器人表達自己的需求實際上是在訓練自己的表達能力。明確向對方說你的目的是什麼,給予什麼樣的參考資料和範本。最後要求對方產出的作品是什麼。這樣的流程不論是講給 AI 或人類都很重要。那些會說 AI 很難用的人,或許現實中也常常覺得別人怎麼都聽不懂自己想說什麼,這種人即使跟 AI 表達需求,
在人工智能的發展歷程中,早期的研究主要側重於將解決問題的規則輸入計算機,試圖通過啟蒙運動理性的思路模擬人類的智能行為。然而,這條路逐漸變得艱難,因為規則過於繁多,無法應對複雜的情境和語境。在這個背景下,一些科學家轉向了神經網絡算法,試圖模擬人腦的感知能力。
人工智慧中最受歡迎的作法莫過於類神經網路,以當今最受歡迎的大型語言模型 (LLM)也不例外,然而這些持續受到爭議:黑盒子,也就是說我們不知道它內部怎麼運作,只知道給它一段話,它就會輸出一段話來回應。 以下從幾個面向來討論「黑盒子」議題: 透明性 Transparency 以LLM模型的開
Thumbnail
近年來,生成式AI對市場帶來了巨大變革,然而,企業的AI專案卻面臨許多部署和失敗的問題。從MIT Sloan Management Review的研究中,我們發現數據科學家在尋找防止AI模型失敗的模式上面存在許多問題。本文提供了三個觀點,協助缺乏技術的高階主管針對辨識有效的AI模型和數據集提出方法。
Thumbnail
人工智慧(AI)在當今社會扮演著越來越重要的角色,然而,我們應該關注的不僅僅是AI潛在可取代的工作,更重要的是AI能夠帶來怎樣人類無法達到的價值。本文深入探討AI的成本與發展潛力,並提出對於AI未來發展的看法。
Thumbnail
AI psychoanalytic model that teaches AI causality -- that's what lang model training is missing. 簡言之,我想聊聊要怎們幫AI學習「因果思考(causality)」。
Thumbnail
因果鏈分析核心是追根究底挖掘問題的深層次原因。這方法將問題視為一個層層相扣的結構,通過系列問答,從表面的不利因素一直追溯到問題根源。口訣「追根究底挖問題,解碼問題的本質」提醒初學者關鍵概念,強調追根究底、不遺漏任何原因、用[且]或[或]運算,連接上下層不利因素之間的關係,建立徹底解決問題的強力基礎。