人工智慧中最受歡迎的作法莫過於類神經網路,以當今最受歡迎的大型語言模型 (LLM)也不例外,然而這些持續受到爭議:黑盒子,也就是說我們不知道它內部怎麼運作,只知道給它一段話,它就會輸出一段話來回應。
以下從幾個面向來討論「黑盒子」議題:
以LLM模型的開源層度來詮釋,以下以三個程度來說明
以Decision Tree這種Machine Learning方法最為被推崇,因為對於Decision Tree中每個分支的生長都能有Entropy與Gini Index為依據,不過這裡存在爭議,因為當Decision Tree生長到非常巨大,非常深之時,Interpretable這項特性就會漸漸喪失
以當今最火紅的LLM,裏面的關件元素乃是Transformer,這很明顯也不具備Interpretable特性
核心議題就是:「找出影響輸出的關鍵輸入」
可行作法舉例: