難以控管的意識型AI
當代AI所採用的大語言模型(LLM),基本上是透過大量的語言資料集反覆訓練出來的。之前說過資料集越大,LLM所能學到的越多,因此各大公司均致力於資料的蒐集;尚未提及的另一個面相是資料集的品質,也會嚴重影響到學習的效果,甚至讓AI產出錯誤或扭曲的回應,這是極為重要但很難深入探究的議題,因為這些大公司通常不會完全公開訓練資料的來源。
那麼,要選用那哪家的AI比較好?AI有沒有意識形態的問題?AI是否有言論自由?AI的提供者需不需要負起法律責任?目前由於LLM技術發展太快,很多法律規範跟不上變化,所以亂象叢生。基本上,AI服務提供者大都會在LLM的輸入與輸出端加上所謂的安全機制(Safeguard)來避免爭議,或是如一般軟體服務在使用者條款上列入免責聲明。
但意識形態這種相當隱晦的東西怎麼可能完全避免?就算是一家人也可能信仰不同的宗教、投票給立場迥異的政黨,教育小孩的理念也不盡相同。在民主國家,要求政府單位全面控管AI的意識形態,在實踐上是有不少困難之處;政府單位想打造出一個所有人都滿意的LLM,也是極為艱鉅的任務。
另一方面,如果要比照近年來幾近於失控的DEI風潮的標準,AI在回答問題時要面面俱到、兼顧小眾文化才行,如此一來回覆可能會相當繁複冗長。這個時候,使用者應該具備判斷能力,或是給予特別的指示,讓AI提供較符合需求的資訊。
我想,每個社會或多或少會對AI有某種監管機制,以避免產生危及人身、社會文化、國家利益以及人類福祉,但每個AI的使用者也應有責任意識和自律的行為。好比目前在社群媒體上可以表達各種意見,其中不乏比AI更離譜的言論,社群媒體不可能定義出一套每個人都滿意的審查尺度,唯有靠社群自律。
最糟糕的情況可能是不假思索地全然接受AI提供的資訊。古早時代很多人相信主流媒體,現在大家都知道主流媒體也有意識形態之分,意見不可盡信;如今有許多人追隨意見鮮明的網紅(KOL),但我始終相信的是道理,不想隨波逐流,或是跟著特定的人走。
人們為了功名利祿,許多時候得言不由衷,甚至心懷鬼胎;相較之下,AI的想法或許還比較容易理解呢。