員工可能更相信看不懂的AI

更新於 發佈於 閱讀時間約 3 分鐘

過去的研究顯示,員工通常對生成式人工智慧所提出的建議持有懷疑態度,這導致企業在建立了昂貴的AI系統後,卻無法充分發揮其效用。

這種現象與我們的直覺認知相符。由於機器學習和深度學習算法的複雜性,人們難以了解AI在產生結果之前的處理過程,這使得他們對AI的可信度產生極大的疑慮。

然而,在2023年9月的《哈佛商業評論》的一篇文章中,提到喬治城大學副教授提摩西·德斯帝法諾(Timothy DeStefano)等人與Coach母公司泰佩思琦(Tapestry)合作的研究中,得出了截然不同的結論。

泰佩思琦擁有近1500家全球門店,最初使用的是基於特定規則(Rule-based)的演算法,用於協助庫存分配決策。這種演算法基於固定規則推斷結果,易於理解(例如每當下雨時,進貨量減少50%)。為了提高準確性,泰佩思琦決定開始研究並引入更為複雜的機器學習模型。

圖1 Rule-based vs AI

圖1 Rule-based vs AI



在為期三週的實驗中,德斯帝法諾教授隨機指派了規則式模型(Rule-based model)或人工智慧模型(AI model)來提供庫存分配建議,分配者有權根據模型建議調整運送數量,也可以自行做出決策。

圖2 分配實驗

圖2 分配實驗

根據實驗結果顯示,分配者更願意相信AI模型的建議。這一改變最終使總體營收增加了20%,同時也降低了缺貨問題的發生率。

至於AI模型會勝出的原因,主要在於,相對於簡單模型,人們更容易接受機器學習的「黑盒子」,德斯帝法諾教授總結了以下三點:

1.過度自信

當面對簡單的模型時,分配者常認為自身對實際情況了解更深,因此會憑直覺或經驗調整簡單模型的結果。

舉例來說,當產品銷量再次飆升時,分配者可能會錯誤地歸因於國家美式足球聯盟(NFL)選秀,進而過於自信地修改了模型建議的數量。

2.對開發的信任

儘管難以理解模型的推論過程,分配者仍然相信同事在開發過程中進行了多次驗證測試,因此對模型的準確性充滿信心。

例如,分配者提到:「我們信任的並不僅僅是模型提供的每一個建議,更在於我們的同仁參與了模型的開發過程,因此我們對這個模型有信心。」

3.巨大的不確定性

隨著決策的後果愈發重大,決策者內心的不確定感也隨之增加,特別是庫存分配對營收產生極大影響。因此,在面對簡單模型時,分配者傾向於深入研究並質疑其中的推論規則。

最後,該如何提高員工對於模型的接受度?

德斯帝法諾教授指出,企業必須持續評估員工對模型的信任程度。當AI提出與員工經驗不符的結論時,員工可能會懷疑模型的可靠性。在這種情況下,需要分析員工懷疑的原因,並有針對性地提供教育訓練。此外,讓模型的使用者參與模型的開發過程,可以建立信任感,並提高對模型的接受度。

黃揚博(政大企管碩士,識商創辦人)、羅凱揚(台科大兼任助理教授)

資料來源:Stefano, D. (2023). People May Be More Trusting of AI When They Can’t See How It Works. Harvard Business Review101(5), 30–31.

--

識商IG:https://www.instagram.com/bizsense2023/
識商Line交流社群:
https://line.me/ti/g2/a2QRj--XfM3FRZBOZpB4rdJGravtdpVOeSLBpQ?utm_source=invitation&utm_medium=link_copy&utm_campaign=default

留言
avatar-img
留言分享你的想法!
avatar-img
識商的沙龍
18會員
72內容數
AI轉型策略、AI商業思維,帶你從宏觀的角度看AI
識商的沙龍的其他內容
2024/02/04
瑞典斯德哥爾摩經濟學院(Stockholm School of Economics)助理教授卡佳·艾諾拉(Katja Einola)等人在2022年10月的《人力資源管理期刊》(Human Resource Management)上發表了一篇題為〈好朋友還是壞工具?探索人類和人工智慧在工作場所生態系
2024/02/04
瑞典斯德哥爾摩經濟學院(Stockholm School of Economics)助理教授卡佳·艾諾拉(Katja Einola)等人在2022年10月的《人力資源管理期刊》(Human Resource Management)上發表了一篇題為〈好朋友還是壞工具?探索人類和人工智慧在工作場所生態系
2024/01/20
紐約大學商學院的卡倫·安東尼(Callen Anthony)教授等學者於2023年9月在《組織科學》(Organization Science)期刊中發表文章,題為〈與AI協作:採取系統觀點探索未來的工作〉("Collaborating" with AI: Taking a System View
2024/01/20
紐約大學商學院的卡倫·安東尼(Callen Anthony)教授等學者於2023年9月在《組織科學》(Organization Science)期刊中發表文章,題為〈與AI協作:採取系統觀點探索未來的工作〉("Collaborating" with AI: Taking a System View
2024/01/09
本文延續先前刊登於《服務研究期刊》(Journal of Service Research)的論文《使用人工智慧執行服務》(Artificial Intelligence in Service),該論文建立了四種AI類型的框架,包括機械型AI、分析型AI、直覺型AI和共鳴型AI。基於這個框架,我們將
Thumbnail
2024/01/09
本文延續先前刊登於《服務研究期刊》(Journal of Service Research)的論文《使用人工智慧執行服務》(Artificial Intelligence in Service),該論文建立了四種AI類型的框架,包括機械型AI、分析型AI、直覺型AI和共鳴型AI。基於這個框架,我們將
Thumbnail
看更多
你可能也想看
Thumbnail
波士頓咨詢集團(Boston Consulting Group)的AI與先進分析業務執行董事兼合夥人希爾佛.帕倫波(Silvio Palumbo),以及哈佛商學院的執行顧問兼資深講師大衛.埃德爾曼(David Edelman),於2023年7月在《哈佛商學院》發表了題為〈聰明公司對整合AI的瞭解〉的
Thumbnail
波士頓咨詢集團(Boston Consulting Group)的AI與先進分析業務執行董事兼合夥人希爾佛.帕倫波(Silvio Palumbo),以及哈佛商學院的執行顧問兼資深講師大衛.埃德爾曼(David Edelman),於2023年7月在《哈佛商學院》發表了題為〈聰明公司對整合AI的瞭解〉的
Thumbnail
本文延續之前康斯坦丁·霍普夫博士等人的研究,該研究談及了〈人工智慧的組織導入:工藝與機械工作〉(Organizational Implementation of AI: Craft and Mechanical Work)中提出的五項組織挑戰。本文專注於這些挑戰中的第五項,即「動態環境」。 機器學
Thumbnail
本文延續之前康斯坦丁·霍普夫博士等人的研究,該研究談及了〈人工智慧的組織導入:工藝與機械工作〉(Organizational Implementation of AI: Craft and Mechanical Work)中提出的五項組織挑戰。本文專注於這些挑戰中的第五項,即「動態環境」。 機器學
Thumbnail
ChatGPT僅推出不到兩個月,用戶數已突破1億,突顯科技飛速進步。特別是人工智慧(AI)的發展,使得員工面臨持續學習新技能的壓力。 加州大學聖巴巴拉分校的保羅·萊昂納迪教授與十家在AI領域卓越表現的企業攜手合作三年,共同研發出一套名為「STEP」的策略框架:劃分工作(Segmentation)、
Thumbnail
ChatGPT僅推出不到兩個月,用戶數已突破1億,突顯科技飛速進步。特別是人工智慧(AI)的發展,使得員工面臨持續學習新技能的壓力。 加州大學聖巴巴拉分校的保羅·萊昂納迪教授與十家在AI領域卓越表現的企業攜手合作三年,共同研發出一套名為「STEP」的策略框架:劃分工作(Segmentation)、
Thumbnail
根據瑞典斯德哥爾摩經濟學院和愛立信研究中心的研究發現,企業在導入人工智慧(AI)時,會面對技術、組織和文化三方面的挑戰,該研究並就這三項挑戰提出建議。 1.技術層面 企業在導入AI時,面對技術挑戰,需要提升AI工具的使用品質。如何選擇適當的AI工具、提高AI工具的可用性、改善資料存取方式、優化演
Thumbnail
根據瑞典斯德哥爾摩經濟學院和愛立信研究中心的研究發現,企業在導入人工智慧(AI)時,會面對技術、組織和文化三方面的挑戰,該研究並就這三項挑戰提出建議。 1.技術層面 企業在導入AI時,面對技術挑戰,需要提升AI工具的使用品質。如何選擇適當的AI工具、提高AI工具的可用性、改善資料存取方式、優化演
Thumbnail
生成式人工智慧(Generative AI,也被稱為生成式AI)正在徹底改變多個行業的價值創造方式。然而,儘管用戶能夠享受便利,他們也必須應對虛構事實、隱私和智慧財產權等問題。(如圖一) 一篇發表於2023年11月《哈佛商業評論》上的文章《如何利用生成式人工智慧》提供了解決這些問題的建議。 首先
Thumbnail
生成式人工智慧(Generative AI,也被稱為生成式AI)正在徹底改變多個行業的價值創造方式。然而,儘管用戶能夠享受便利,他們也必須應對虛構事實、隱私和智慧財產權等問題。(如圖一) 一篇發表於2023年11月《哈佛商業評論》上的文章《如何利用生成式人工智慧》提供了解決這些問題的建議。 首先
Thumbnail
在2023年11月的《哈佛商業評論》中,一篇題為《如何利用生成人工智慧》(How to Capitalize on Generative AI)的文章詳細探討了企業如何有效運用生成式人工智慧(也被稱為生成式AI)。 作者麻省理工學院首席研究科學家麥克・菲安德魯(McAfee, Andrew)等人提
Thumbnail
在2023年11月的《哈佛商業評論》中,一篇題為《如何利用生成人工智慧》(How to Capitalize on Generative AI)的文章詳細探討了企業如何有效運用生成式人工智慧(也被稱為生成式AI)。 作者麻省理工學院首席研究科學家麥克・菲安德魯(McAfee, Andrew)等人提
Thumbnail
在使用AI一段時間後,我突然領悟到,原來AI就是一個員工,而我就是一個老闆。這個員工並沒有聰明到可以自己獨立思考,需要你不停地訓練,才會成長,所以這時候就很考驗你有沒有一個好老闆的思維了。 慣老闆會讓員工沒辦法成長 在使用AI的時候一定都要使用關鍵字,但是打完關鍵字之後,跑出了一長串的結果,這時候如
Thumbnail
在使用AI一段時間後,我突然領悟到,原來AI就是一個員工,而我就是一個老闆。這個員工並沒有聰明到可以自己獨立思考,需要你不停地訓練,才會成長,所以這時候就很考驗你有沒有一個好老闆的思維了。 慣老闆會讓員工沒辦法成長 在使用AI的時候一定都要使用關鍵字,但是打完關鍵字之後,跑出了一長串的結果,這時候如
Thumbnail
這篇文放草稿太久了,放到連GPT4都生出來了。不過沒差,內容通用。 在系列文第一篇,就提到了GPT框架中有對人類語意回饋的學習機制。這機制有個專有名詞,叫強化學習 (Reinforcement Learning)。這讓機器不純粹依著既有資料模式,優化並生成預測;反而讓機器有更強的能力,去因應不同環境
Thumbnail
這篇文放草稿太久了,放到連GPT4都生出來了。不過沒差,內容通用。 在系列文第一篇,就提到了GPT框架中有對人類語意回饋的學習機制。這機制有個專有名詞,叫強化學習 (Reinforcement Learning)。這讓機器不純粹依著既有資料模式,優化並生成預測;反而讓機器有更強的能力,去因應不同環境
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News