導入人工智慧的五項組織挑戰 — 無法說Why的問題

更新於 發佈於 閱讀時間約 5 分鐘

本文延續之前康斯坦丁·霍普夫博士等人的研究,該研究談及了〈AI的組織導入:工藝與機械工作〉(Organizational Implementation of AI: Craft and Mechanical Work)中提出的五項組織挑戰。本文專注於這些挑戰中的第四項,即「無法說Why的問題」。

霍普夫博士等人指出,決策者通常希望了解AI系統做出特定預測的方法和原因。例如,他們想知道客戶行為的驅動因素、機器故障的原因,或者為什麼機器學習模型在實驗室測試中表現優秀,但在實際應用中表現不佳。

這種對AI運作方式的企圖了解的需求通常被稱為「可解釋性」。特別是在接受過工程或科學訓練的決策者,他們要求機器學習系統的輸出過程能夠被人類理解。畢竟,實施AI的主要目的之一是促使更具理性和基於證據的決策過程。

然而,最佳的預測模型通常是「黑盒模型」(Black Box Models),內部的參數可能高達數百萬,這些參數共同定義了將輸入轉換為輸出的函數。即使對於專家來說,理解和解釋這些模型是如何進行預測,幾乎是不可能的。換句話說,許多AI系統能夠提供卓越的預測能力,但專家卻無法解釋其預測背後的原因和方式。

霍普夫博士等人引用了一家保險公司的資料科學家的話,解釋了管理階層企圖理解機器學習模型生成的需求:「我們無法向保險經理人提供黑盒預測模型,……,經理人需要知道哪些原因對結果造成影響。」同時,霍普夫博士等人還提到,這一觀點得到了許多行業受訪者的認同。當談到透過AI支援知識工作者的決策過程時,一位受訪者指出:「『可解釋性』是使用者是否接受演算法決策建議的最重要標準。」

此外,在進行AI建模時,還必須考慮到另一個關鍵問題,即相關性和因果性之間的差異。當AI系統做出決策,並將這些決策轉化為現實行動時,必須識別出模式是否真正具有因果關係,而非偽相關性。因為根據偽相關性做決策存在著很大的風險。

霍普夫博士等人提出了三種策略,以解決上述問題:

首先,他們提倡事後解釋性方法(Post-hoc explainability methods)。這種方法的目標是解釋黑盒模型背後的邏輯。它試圖將現代機器學習算法的預測準確性與經典統計模型的可解釋性相結合,期望在複雜的黑盒模型上建立可解釋的模型。然而,這樣的方法仍在積極研發中。

圖1 Post-Hoc Explainability Methods

圖1 Post-Hoc Explainability Methods

圖2 解釋器透過來色區塊解釋機器如何判別貓跟狗

圖2 解釋器透過來色區塊解釋機器如何判別貓跟狗

其次,他們強調最大程度地發揮可解釋模型(Transparent Models)的優勢。在高度專業化的領域,我們可以建立本質上可解釋模型,同時保持與黑盒模型相當的預測精度。儘管調整這些模型可能需要額外的時間和成本,但它們避免了在高風險決策問題中依賴黑盒或事後不忠實的解釋。

最後,他們提出了因果建模和嚴格的實驗評估。在因果推論的科學標準下,進行隨機對照實驗是理想的方法,許多公司也大量進行A/B測試。然而,在許多情況下,隨機對照實驗未必可行。在這種情況下,盡可能詳細地建構模型背後的因果過程,並使用適當的統計方法和工具來控制干擾因素。同時,與領域專家緊密合作,借助他們對業務問題的深入了解,以獲得準確且具有洞察力的分析結果。

羅凱揚(台科大企管博士)、黃揚博(政大企管碩士、識商創辦人)

資料來源:

Hopf, K., Müller, O., Shollo, A., & Thiess, T. (2023). Organizational Implementation of AI: Craft and Mechanical Work. California Management Review, 66(1), 23–47. https://cmr.berkeley.edu/2023/10/66-1-organizational-implementation-of-ai-craft-and-mechanical-work/

M. T. Ribeiro, S. Singh, and C. Guestrin, “‘Why Should I Trust You?’ Explaining the Predictions of Any Classifier,” (Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 2016), doi:10.1145/2939672.2939778.

✨ 歡迎追蹤,獲取更多相關資訊

► 識商IG:


https://www.instagram.com/bizsense2023/


► Line交流社群:


https://line.me/ti/g2/a2QRj--XfM3FRZBOZpB4rdJGravtdpVOeSLBpQ?utm_source=invitation&utm_medium=link_copy&utm_campaign=default


✨ 最新活動:AI商業策略讀書會

raw-image

詳細活動頁面 👉 https://bizsense-read.com/ai%E8%BD%89%E5%9E%8B/

留言
avatar-img
留言分享你的想法!
avatar-img
識商的沙龍
18會員
72內容數
AI轉型策略、AI商業思維,帶你從宏觀的角度看AI
識商的沙龍的其他內容
2024/02/04
瑞典斯德哥爾摩經濟學院(Stockholm School of Economics)助理教授卡佳·艾諾拉(Katja Einola)等人在2022年10月的《人力資源管理期刊》(Human Resource Management)上發表了一篇題為〈好朋友還是壞工具?探索人類和人工智慧在工作場所生態系
2024/02/04
瑞典斯德哥爾摩經濟學院(Stockholm School of Economics)助理教授卡佳·艾諾拉(Katja Einola)等人在2022年10月的《人力資源管理期刊》(Human Resource Management)上發表了一篇題為〈好朋友還是壞工具?探索人類和人工智慧在工作場所生態系
2024/01/20
紐約大學商學院的卡倫·安東尼(Callen Anthony)教授等學者於2023年9月在《組織科學》(Organization Science)期刊中發表文章,題為〈與AI協作:採取系統觀點探索未來的工作〉("Collaborating" with AI: Taking a System View
2024/01/20
紐約大學商學院的卡倫·安東尼(Callen Anthony)教授等學者於2023年9月在《組織科學》(Organization Science)期刊中發表文章,題為〈與AI協作:採取系統觀點探索未來的工作〉("Collaborating" with AI: Taking a System View
2024/01/09
本文延續先前刊登於《服務研究期刊》(Journal of Service Research)的論文《使用人工智慧執行服務》(Artificial Intelligence in Service),該論文建立了四種AI類型的框架,包括機械型AI、分析型AI、直覺型AI和共鳴型AI。基於這個框架,我們將
Thumbnail
2024/01/09
本文延續先前刊登於《服務研究期刊》(Journal of Service Research)的論文《使用人工智慧執行服務》(Artificial Intelligence in Service),該論文建立了四種AI類型的框架,包括機械型AI、分析型AI、直覺型AI和共鳴型AI。基於這個框架,我們將
Thumbnail
看更多
你可能也想看
Thumbnail
「欸!這是在哪裡買的?求連結 🥺」 誰叫你太有品味,一發就讓大家跟著剁手手? 讓你回購再回購的生活好物,是時候該介紹出場了吧! 「開箱你的美好生活」現正召喚各路好物的開箱使者 🤩
Thumbnail
「欸!這是在哪裡買的?求連結 🥺」 誰叫你太有品味,一發就讓大家跟著剁手手? 讓你回購再回購的生活好物,是時候該介紹出場了吧! 「開箱你的美好生活」現正召喚各路好物的開箱使者 🤩
Thumbnail
美國南加州大學的學者羅伯特·科齊涅茨(Robert V. Kozinets)與烏爾麗克‧格雷策爾(Ulrike Gretzel)於2021年1月在《行銷管理期刊》(Journal of Marketing)的評論中,深入探討了行銷人員在應用人工智慧(AI)時所面臨的三大重要挑戰。 挑戰一:理解困難
Thumbnail
美國南加州大學的學者羅伯特·科齊涅茨(Robert V. Kozinets)與烏爾麗克‧格雷策爾(Ulrike Gretzel)於2021年1月在《行銷管理期刊》(Journal of Marketing)的評論中,深入探討了行銷人員在應用人工智慧(AI)時所面臨的三大重要挑戰。 挑戰一:理解困難
Thumbnail
本文延續之前康斯坦丁·霍普夫博士等人的研究,該研究談及了〈AI的組織導入:工藝與機械工作〉(Organizational Implementation of AI: Craft and Mechanical Work)中提出的五項組織挑戰。本文專注於這些挑戰中的第四項,即「無法說Why的問題」。
Thumbnail
本文延續之前康斯坦丁·霍普夫博士等人的研究,該研究談及了〈AI的組織導入:工藝與機械工作〉(Organizational Implementation of AI: Craft and Mechanical Work)中提出的五項組織挑戰。本文專注於這些挑戰中的第四項,即「無法說Why的問題」。
Thumbnail
在2023年的《加州管理評論》(California Management Review)上,德國班貝格大學(University of Bamberg)的資深研究員康斯坦丁·霍普夫博士等人發表了一篇題為〈人工智慧的組織導入:工藝與機械工作〉(Organizational Implementatio
Thumbnail
在2023年的《加州管理評論》(California Management Review)上,德國班貝格大學(University of Bamberg)的資深研究員康斯坦丁·霍普夫博士等人發表了一篇題為〈人工智慧的組織導入:工藝與機械工作〉(Organizational Implementatio
Thumbnail
過去的研究顯示,員工通常對生成式人工智慧所提出的建議持有懷疑態度,這導致企業在建立了昂貴的AI系統後,卻無法充分發揮其效用。 這種現象與我們的直覺認知相符。由於機器學習和深度學習算法的複雜性,人們難以了解AI在產生結果之前的處理過程,這使得他們對AI的可信度產生極大的疑慮。 然而,在2023年9
Thumbnail
過去的研究顯示,員工通常對生成式人工智慧所提出的建議持有懷疑態度,這導致企業在建立了昂貴的AI系統後,卻無法充分發揮其效用。 這種現象與我們的直覺認知相符。由於機器學習和深度學習算法的複雜性,人們難以了解AI在產生結果之前的處理過程,這使得他們對AI的可信度產生極大的疑慮。 然而,在2023年9
Thumbnail
麻省理工學院史隆管理學院首席研究科學家,安德魯.麥克費在這篇2017年發表的文章中,說明了人工智慧對於組織與企業來說,能做到、不能做到什麼,以及帶來哪些新的風險與機會?
Thumbnail
麻省理工學院史隆管理學院首席研究科學家,安德魯.麥克費在這篇2017年發表的文章中,說明了人工智慧對於組織與企業來說,能做到、不能做到什麼,以及帶來哪些新的風險與機會?
Thumbnail
本文章分享閱讀關於可解釋性的文章後,產生的三個思考理解。 利用真實數據訓練,可解釋性與準確度的權衡,是很常聽到的現象。 研究的主題,則是去問說:「這個權衡,如果改成合成數據訓練的話,是否還是有這種現象?」
Thumbnail
本文章分享閱讀關於可解釋性的文章後,產生的三個思考理解。 利用真實數據訓練,可解釋性與準確度的權衡,是很常聽到的現象。 研究的主題,則是去問說:「這個權衡,如果改成合成數據訓練的話,是否還是有這種現象?」
Thumbnail
儘管深度學習這陣子非常的成功,效果也非常的好, 但每次提到它美中不足的地方時,可解釋性總是被拿來評論一番。今天,我們來針對模型的”可解釋性”這樣一個議題做深入的討論。所謂的「可解釋性」,就是當人工智慧演算法做決策的時候,我們是否能夠清楚了解為什麼電腦會做這樣一個決策以及判斷...
Thumbnail
儘管深度學習這陣子非常的成功,效果也非常的好, 但每次提到它美中不足的地方時,可解釋性總是被拿來評論一番。今天,我們來針對模型的”可解釋性”這樣一個議題做深入的討論。所謂的「可解釋性」,就是當人工智慧演算法做決策的時候,我們是否能夠清楚了解為什麼電腦會做這樣一個決策以及判斷...
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News