不需要去解析AI,就如同解析人類的腦袋一樣不重要!
分析大腦中,哪個部份是負責什麼任務,或許對於心理學或是腦神經科學有所幫助。但是如果要去解析AI的參數中,哪些參數是影響什麼,那就如同去研究腦細胞中,哪些是決定當下講出這一句話的哪一個文字一般,那麼的不重要… 決定一件事,並不是由一個細胞完成的,如果真是如此,那麼人們下決定時不會那麼憂柔寡斷。
不是什麼都有必要刨根問底
-by龍阿迪@bing image creator
AI與人腦的一種相似性—它們都是由多個組件或結構相互作用產生複雜行為的系統。在人腦中,我們有數以百億計的神經元相互交織,共同決定我們的思考、感覺和行為。在類似的方式下,AI模型(例如神經網絡)包含數以百萬計的參數,它們一起決定模型的行為。
儘管這樣,有些科學家和工程師認為理解AI系統的內部運作是有價值的。這種被稱為"可解釋性AI"的領域,目標是開發工具和技術來揭示模型的內部運作,使我們能夠理解模型為何做出特定的決定。然而,對於某些應用來說,這可能不是那麼重要。重要的是,AI是否能夠準確、有效地完成所需的任務。
就像把一個人的腦袋剖開來,修正他的思想錯誤一般荒謬。與其去解析AI模型中的參數,用來控制AI避免發生錯誤,還不如從訓練下手。 AI的訓練在我的認知來說,就如同金鑰一般,其運算是不可逆的。 雖然目前已經可以解析出,在處理某些問題時,進行處理的是哪些參數, 但是若今天為了a問題去修正某些部份,很可能使的在處理c問題時發生了新的錯誤。
在訓練AI時,我們應該更關注整體性能,而不是單個參數的具體設定。這是因為,AI的行為是由許多參數共同決定的,而不是由任何一個參數單獨決定的。因此,嘗試修改個別參數來改變AI的行為,通常是一種困難且可能導致意外結果的方法。
因為擴散的特性,所以即使兩個AI模型的結構和訓練過程完全相同,由於初始參數和訓練數據的隨機性,他們可能會學習到不同的參數組合,從而導致不完全相同的行為。這就是我們說AI模型具有“不確定性”的一種表現。
從訓練過程本身下手,而不試圖手動調整模型的參數。這可以包括更好地選擇和預處理訓練數據,改進訓練算法,或使用更適合特定任務的模型結構。而當我們需要更好地理解和控制AI的行為時,我們可以尋求在訓練過程中導入更多的透明度和可解釋性,而不是嘗試在訓練後解析或修改模型的內部結構。