【AI 人工智慧】模型可解釋性

更新於 發佈於 閱讀時間約 3 分鐘
raw-image

儘管深度學習這陣子非常的成功,效果也非常的好, 但每次提到它美中不足的地方時,可解釋性總是被拿來評論一番。今天,我們來針對模型的”可解釋性”這樣一個議題做深入的討論。

所謂的「可解釋性」,就是當人工智慧演算法做決策的時候,我們是否能夠清楚了解為什麼電腦會做這樣一個決策以及判斷。如果我們可以很清楚的說出電腦判斷的邏輯,那麼我們就說這個演算法的可解釋性很高,反之,如果電腦做決策時,我們只得到一個結果,但對於產生這樣結果的過程我們無從理解,那麼這樣一個演算法的可解釋性就偏低。

那為什麼可解釋性高對於一個模型來說是一個優點呢?因為很多時候,我們除了希望電腦能幫我們做準確的預測外,我們也希望能了解模型究竟從數據裡學到了哪些知識!如果能掌握這些,或許我們對於模型的掌控度就比較高,同時,也可以從中去改良及創新現有的想法。

我們都知道,深度學習(又或者稱作類神經網路)可以透過多層神經網路的建構來達到高度擬合複雜的數據集,但對於內部運算的邏輯,往往很難轉換成人類易於理解的形式。儘管深度學習給出來的結果可能不差,但它就如同一個黑盒子,我們並不知道裡面發生了什麼事情,這就如同我們跟老闆呈獻了一個專案報告,但是我們卻無法解釋報告上面的數字是如何計算出來的!身為老闆們,是不是會對這些結果心存懷疑呢?

因此,在某些情況下,傳統的機器學習就會比較受到青睞,例如決策樹(*)這類型的方法就是其中一個例子。在許多金融風控領域裡面,由於可解釋性低意味著更多不確定的風險, 為了精準計算最大可能的損失以及相對應的收益,他們需要非常了解機器在每個環節是如何做決策的,這時候深度學習模型可能就不那麼適合了!

總之,不同的模型會有不同的優缺點,為了滿足各式各樣類型的需求以及限制,我們也必須隨時做出不同演算法的調整及優化阿!

  • 決策樹是機器學習裡面一種基於樹狀所產生的演算法,其可解釋性非常的高

*本文由知名AI講師-Isaac Lee 李厚均所撰寫 文章轉載自我們共同經營的粉絲頁-小李談數智https://www.facebook.com/isaac60103

更多圖解內容可以到 耀西圖像視覺化教室看看https://www.facebook.com/YoshiGraphics

留言
avatar-img
留言分享你的想法!
avatar-img
Liao Yoshi的沙龍
12會員
33內容數
Liao Yoshi的沙龍的其他內容
2020/11/17
說到人工智慧對於汽車產業的變革,那就不得不提我們時常聽到的自駕車的應用,但大家知道許多知名自駕車廠商裡的防撞系統,都源自於一家非常有名的以色列公司嗎?今天我們就來好好介紹一下這家公司吧!
Thumbnail
2020/11/17
說到人工智慧對於汽車產業的變革,那就不得不提我們時常聽到的自駕車的應用,但大家知道許多知名自駕車廠商裡的防撞系統,都源自於一家非常有名的以色列公司嗎?今天我們就來好好介紹一下這家公司吧!
Thumbnail
2020/11/17
提到這幾年AI人工智慧會那麼火紅的原因,就不得不提”深度學習”*這個領域的重大突破及創新,使得原本被冷落好一陣子的人工智慧又再次興起,都要歸功於 Geoffrey Hinton 這個被稱作「Deep Learning”之父的人...
Thumbnail
2020/11/17
提到這幾年AI人工智慧會那麼火紅的原因,就不得不提”深度學習”*這個領域的重大突破及創新,使得原本被冷落好一陣子的人工智慧又再次興起,都要歸功於 Geoffrey Hinton 這個被稱作「Deep Learning”之父的人...
Thumbnail
2020/11/17
「有時候,被世人遺棄的人,才能成就讓人想像不到的大事。」(*),相信看過電影”模仿遊戲”的人應該對這句話不陌生吧!這是由20世纪最偉大的科學家之一艾倫.圖靈(Alan Turing)曾說過的名言。那麼這個被稱為是計算機科學之父以及人工智慧之父的天才到底是怎麼樣一個人呢?
Thumbnail
2020/11/17
「有時候,被世人遺棄的人,才能成就讓人想像不到的大事。」(*),相信看過電影”模仿遊戲”的人應該對這句話不陌生吧!這是由20世纪最偉大的科學家之一艾倫.圖靈(Alan Turing)曾說過的名言。那麼這個被稱為是計算機科學之父以及人工智慧之父的天才到底是怎麼樣一個人呢?
Thumbnail
看更多
你可能也想看
Thumbnail
創作者營運專員/經理(Operations Specialist/Manager)將負責對平台成長及收入至關重要的 Partnership 夥伴創作者開發及營運。你將發揮對知識與內容變現、影響力變現的精準判斷力,找到你心中的潛力新星或有聲量的中大型創作者加入 vocus。
Thumbnail
創作者營運專員/經理(Operations Specialist/Manager)將負責對平台成長及收入至關重要的 Partnership 夥伴創作者開發及營運。你將發揮對知識與內容變現、影響力變現的精準判斷力,找到你心中的潛力新星或有聲量的中大型創作者加入 vocus。
Thumbnail
本文延續之前康斯坦丁·霍普夫博士等人的研究,該研究談及了〈AI的組織導入:工藝與機械工作〉(Organizational Implementation of AI: Craft and Mechanical Work)中提出的五項組織挑戰。本文專注於這些挑戰中的第四項,即「無法說Why的問題」。
Thumbnail
本文延續之前康斯坦丁·霍普夫博士等人的研究,該研究談及了〈AI的組織導入:工藝與機械工作〉(Organizational Implementation of AI: Craft and Mechanical Work)中提出的五項組織挑戰。本文專注於這些挑戰中的第四項,即「無法說Why的問題」。
Thumbnail
過去的研究顯示,員工通常對生成式人工智慧所提出的建議持有懷疑態度,這導致企業在建立了昂貴的AI系統後,卻無法充分發揮其效用。 這種現象與我們的直覺認知相符。由於機器學習和深度學習算法的複雜性,人們難以了解AI在產生結果之前的處理過程,這使得他們對AI的可信度產生極大的疑慮。 然而,在2023年9
Thumbnail
過去的研究顯示,員工通常對生成式人工智慧所提出的建議持有懷疑態度,這導致企業在建立了昂貴的AI系統後,卻無法充分發揮其效用。 這種現象與我們的直覺認知相符。由於機器學習和深度學習算法的複雜性,人們難以了解AI在產生結果之前的處理過程,這使得他們對AI的可信度產生極大的疑慮。 然而,在2023年9
Thumbnail
我們這個系列就是希望以非常科普的角度來解釋人工智慧。本篇要釐清人工智慧(AI: Artificial Intelligence),機器學習 Machine Learning, 深度學習Deep Learning,另外還有類神經網路,到底互相是什麼關係呢?
Thumbnail
我們這個系列就是希望以非常科普的角度來解釋人工智慧。本篇要釐清人工智慧(AI: Artificial Intelligence),機器學習 Machine Learning, 深度學習Deep Learning,另外還有類神經網路,到底互相是什麼關係呢?
Thumbnail
麻省理工學院史隆管理學院首席研究科學家,安德魯.麥克費在這篇2017年發表的文章中,說明了人工智慧對於組織與企業來說,能做到、不能做到什麼,以及帶來哪些新的風險與機會?
Thumbnail
麻省理工學院史隆管理學院首席研究科學家,安德魯.麥克費在這篇2017年發表的文章中,說明了人工智慧對於組織與企業來說,能做到、不能做到什麼,以及帶來哪些新的風險與機會?
Thumbnail
兼回答觀眾來信問題 經過上一次的文章之後,棒棒的觀眾們依然有問題丟過來 有些觀眾的問題都滿認真的,也不好像其他節目一樣 在節目上講講就沒了,所以依然用文章的方式帶給大家一點東西。 我們先來看看觀眾疑問: 1. 是不是機器人預測的結果,都是依照revenue? 特徵是什麼? 特徵提取又是什麼?
Thumbnail
兼回答觀眾來信問題 經過上一次的文章之後,棒棒的觀眾們依然有問題丟過來 有些觀眾的問題都滿認真的,也不好像其他節目一樣 在節目上講講就沒了,所以依然用文章的方式帶給大家一點東西。 我們先來看看觀眾疑問: 1. 是不是機器人預測的結果,都是依照revenue? 特徵是什麼? 特徵提取又是什麼?
Thumbnail
在機器學習裡面,為了要追求更好的表現,我們除了要選出最適當的演算法來應對不同場景外,同時,在將原始資料蒐集好後,我們該如何從中萃取出重要且有用的資訊,是非常重要的一件事情,這就是所謂的”特徵工程”,今天我們就來針對這個主題談談吧...
Thumbnail
在機器學習裡面,為了要追求更好的表現,我們除了要選出最適當的演算法來應對不同場景外,同時,在將原始資料蒐集好後,我們該如何從中萃取出重要且有用的資訊,是非常重要的一件事情,這就是所謂的”特徵工程”,今天我們就來針對這個主題談談吧...
Thumbnail
儘管深度學習這陣子非常的成功,效果也非常的好, 但每次提到它美中不足的地方時,可解釋性總是被拿來評論一番。今天,我們來針對模型的”可解釋性”這樣一個議題做深入的討論。所謂的「可解釋性」,就是當人工智慧演算法做決策的時候,我們是否能夠清楚了解為什麼電腦會做這樣一個決策以及判斷...
Thumbnail
儘管深度學習這陣子非常的成功,效果也非常的好, 但每次提到它美中不足的地方時,可解釋性總是被拿來評論一番。今天,我們來針對模型的”可解釋性”這樣一個議題做深入的討論。所謂的「可解釋性」,就是當人工智慧演算法做決策的時候,我們是否能夠清楚了解為什麼電腦會做這樣一個決策以及判斷...
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News