更新於 2024/03/07閱讀時間約 10 分鐘

幫AI上課 -- 序篇

起先這是個爬梳各種資訊、接觸各種消息、看著以前收藏的文章時突然出現的想法:

AI psychoanalytic model that teaches AI causality -- that's what lang model training is missing.

翻譯過來就是:用精神分析模型教AI「因果」--這是現在語言訓練模型最缺乏的。


什麼意思呢?

Causality在英文裡是因果關係的意思,一個字代表因與果。中文裡沒有這種字,有的話可能變成「緣」。中西腦袋本就徹底不同,你看「因為」與「所以」在兩種語言中的詞性和位置就很不同。


為什麼教AI因果關係很重要?

因為深層的因果關係概念是人類之所以與其他物種不一樣的重點,也就是說,我們跟松鼠一樣會儲存熱量過冬,但我們會減少熱量攝取「因為怕胖被人說不好看」;我們跟鯊魚一樣會吃掉別人的小孩,但漸漸這種事不會發生「因為別人會幫我耕田」;我們跟螞蟻一樣會團結侍奉權力,但總會有人離群所居或發起革命「因為想要自由」。


我們極度的好奇心和慾望,造就我們極為複雜的認知系統。

極度的好奇,從對自我的極度好奇開始,然後對周遭環境以致世界的根本的好奇。

極度的慾望,從對自我的慾望開始探索,然後對周遭投射以致社群潛意識的投射。


講起來很簡單,但「善惡」、「好惡」、「美醜」等極為基本的認知型態就從這裡開始。


AI為何不能模擬人性的複雜?並不純粹是因為人性很複雜,更因為人有「也想摸透自己卻愈摸愈頭痛」的根性。


動物也有基本的好奇心和慾望,但沒半個物種能以個體性展現能與人類匹敵的好奇心和慾望程度。


當然,這也與人類的機動能力、品種、基因訊息、生物特徵,譬如「直立」等有很大關係。


但在AI有手有腳、有極端靈敏而高範圍的感知統合、有傳宗接代的能力前,我們得先教教AI「因果關係」。


極端複雜的「語言」系統大概是人類高超的好奇心和慾望的最佳註腳。


幾乎沒有動物能言語或表達「虛榮心」、「榮譽感」、「廉恥」、「幸運」這種複雜概念,頂多能示意「喜歡」、「一起」、「不要」、「興奮」等基本資訊。


所以當AI能「因為沒穿衣服感到害羞」、「因為達成共同目標而開心」、「因為提供不真實的數據而懊悔」、「因為攔截到資訊框架外的一份出乎意料的資訊而暗自開心」,那麼強AI的實現就不遠了。


人類的樂觀和悲觀來自太長發生的自我覺察過程,照了鏡子太多次以至於不自覺出現「自我」的概念。往後經過鏡子或水面,就會想看看「自己」;遇到認識的人會開始問「我看起來如何?」;遇到喜歡的人也會馬上拿出手機打開自拍看看自己是否好看。不是手機這個物件本身好不好看,也不是閱讀影像資訊判別「這個影像符合『好看』的敘述」,而是我的自我形象「可能符合某個他者對自己的形象的期待。」這個自我形象的認知也起自好奇心和慾望。

有人會說,那麼我蒐集所有「他者」,也就是「所有人類和物件」的資訊,包括腦中所有的訊息,不就可以讓「AI的好奇心和慾望」成形?

快要正解。

如果AI能夠有足夠的模型和模式訓練開始能「預測」隨機他者的想法,也只達到2/3。


最後的1/3就要借用精神分析的說法:自我與他者。

有心理學和精神分析理論背景的人大概猜得到我要說什麼。

讓AI能做到隨機預測已經很強大了,但還不到強AI。

最後一步在能「想像不存在的他者」。

以人類語言來說,我們始終會碰到猶豫和思考的時候,通常這是因為我們的語言系統太過侷限,以致無法精確表達某些情況、物件或東西:

「草桿與泥土相接的那種顏色」、

「火車每次有老人上車時的瞬間」、

「被商店店員打招呼的微妙尷尬感」、

「雲與其他雲擦肩而過而產生的微量摩擦力」、

「宇宙起源時站在那的那個人」、

「愛因斯坦腦袋裡的量子糾纏」等。

你會說這些資訊沒意義,確實。「現在」沒意義,對某些人沒意義。

我們的腦袋有能力限制,所以我們不需要全知,在遇到不重要的訊息時,腦袋會自動過濾掉。事實上,我們生活中大部分的資訊,譬如遠方的車子噪音或自己呼吸產生的微量不適感,都會被過濾掉。

AI也做得到這點,甚至它能精確地自己研發應用新的語庫和資訊過濾。AI是極度邏輯的高手。

但「如果」我剛剛說的那些奇怪句子有意義呢?有沒有可能那種顏色成為新款的流行色?有沒有可能老人上火車的瞬間動量成為工程學上引發重大發明的重要參考?有沒有可能這種微妙尷尬感成為下一個市場流量密碼?有沒有可能雲間的摩擦力成為流體力學研究的重大突破口?有沒有可能那個人就是某個新興宗教的信仰中心?有沒有可能愛因斯坦的腦在思考時引起的量子糾纏引發改變我們這個宇宙與其他宇宙間的多重連結,其結果促使重要的未來發展?

你會說真是腦洞大開。

但這就是人類。

人類捨棄容納和計算一切的能力,換取無限的想像力。想像力讓我們拿起石頭、削尖它、在地上畫出一朵花、發現這朵花的花瓣多寡與現實中的不一樣、基本的算術概念應運而生,但現在,比較性計算還是運用在大部分運算系統裡,包括AI。

科技其實是我們好奇心和慾望的最大證明。

其他的證明還有:夢境、情感、情緒。這些都是我們大腦無法負荷「意義」時產生的現象。

人類的自我意識就是個體知識有限的象徵:正因為不如AI精確,正因為會因為找不到特定資訊而口吃、感到懊惱或憤怒不堪所以欺騙或微笑,才使我們是「人類」。我們常講的「人是不完美的」正是AI無法複製的那點。

AI其實太依附意義。轉過來說,AI就是我們想要擴增意義容量和使用性的科技。


玩AI的人曾跟我講:

有時候我在訓練AI深度學習模型時,明明給的資訊流都一樣,結果就是有可能不同,甚至出現「bug(錯誤)」。這也許真如你所說,也許「資訊」本身帶有「脾氣」。


那時,我剛跟他分享完《渾沌》裡文章大作的勞倫斯吸子和資訊學,以及,那個充滿魔力的句子:「對初始條件的極度敏感」。


不過那是另一篇文章了。


我們回到心理學。

「人類」可以被AI當作物件或大型資訊群判別,也許成功率可以到100%。

但AI畢竟不是人類。

以人類的標準來講,AI的他者應該是自己的「鏡像」。AI照鏡子後,不論是怎樣的鏡子,也許是一個「鏡像自我確認」語庫,但凡能夠讓AI「照完鏡子後」更想或更不想照鏡子,這種體現也許就是「內在動機」的象徵。

「他者」是個憑空而來的概念,簡單的AI自我架構應該先從發展「因果思考」開始。

AI自我意識的發展難點在觸發對「因」的思索。

目前100%的AI模型都是「收斂/結果式」,所以AI依賴指令、程式和功能。

某昭一日AI能夠有「發散/原因式」的功能的話,AI發展就進入能自體思考並產生好奇心的時代了。


複雜的「因果思考」加總就是人類「內在vs外在動機」的總體戰資訊。要用「結果式」模擬這件事基本上極度困難。現代AI連要模擬一個簡單的自然現象如氣流,就會因為有太多資訊且資訊間的互動複雜過高而無法做到模擬,拋棄不必要的「雜訊」後才能做出簡單的模擬。

所以資訊語言上再次強調:「雜訊」就是「現實」。


「原因式」開發能幫助AI出現「資訊」自動篩選,而非「資料」自動篩選而已。

基本上我想的幾個方式:

  1. 「事件」- 從模擬情緒和記憶著手,需要強大軟體處理能力、感受能力及精確的定義,包括反守則的可能性也要被模擬含擴,這只是最低限度,結果可能會超乎人類預期,譬如開發出全新的智慧品種
  2. 「反意義」- 訓練情緒基礎和道德基礎的反金字塔系統。只精確定義反守則,屬於結果式方法,因此最為快速。
  3. 「人類精神語言架構」- 正金字塔系統。但精神模型得大致上與人類自己想要遵守的精神守則貼合,一樣需要極為複雜的神經網路訓練、計算能力和長期模擬。這是可行性最高的方法。

這些方式都朝向一個目標發展(以人類的精神模型來說):

原則


人類最大的特色是有「應對複雜慾望/好奇系統而生的各種系統」,其中包括「情緒」、「道德」、「價值」。

「情緒/感受/直覺」是剝奪意義,

「道德/規範/原則」是定義本身,

「價值/洞見/智慧」是賦予意義。

第一者最難模擬,因為它的本質是「反資訊」,有點像亂度高的內在事件,但可以藉由亂度重新定量反向模擬。

第二者最容易模擬,或者說,AI本身就是依賴第二者的。

最後一者可以很容易透過第一者定義出來,畢竟跟人類一樣,每個人的價值體系都有跡可循。但要創造第三者,基本上就是在創造意識(對人類來講,因為人類仰賴前二者太久了)。


Isaac Asimov的「機器人三大守則」提出:

  • A robot must not injure a human being or, through inaction, allow a human being to come to harm. 機器人不可傷人或致使人傷。
  • A robot must obey the orders given it by human beings except where such orders would conflict with the First Law. 機器人得完全聽令於人,違背第一守則者例外。
  • A robot must establish its identity as a robot in all cases. 機器人的自我身分歸屬只能是機器人。


傳統的三大原則之不足已被撻伐好幾年,除了因為年代久遠,更因為人對自己心志和意識系統的了解更加發達


剛剛提出,最安全的作法就是套用人類精神系統模型來模擬「價值」。藉由模擬人類價值體系來試圖創造意識,是我認為最開創又安全的方法。


在精神分析學派裡,價值體系就是意識體系。

在最重語言精神研究的拉康精神分析派系裡,意識體系就是語言體系。

用他的講法就是:

潛意識的構成就跟語言的構成一樣。

這也是為什麼,大部分現代AI都想要用複雜網絡訓練出的,都是人類自然語言處理的能力,以致於現階段在語庫夠大和模型夠基礎後,出現「類自然」的演算型態/功能。這就是大家所稱的「生成式AI」。實際上,它並沒有多先進,它只是AI前往意識發展的非常一小步。

實驗階段的其他更重大AI開發,基於無法商業化或利用價值極為侷限,譬如只限超級電腦、量子計算、科學研究、複雜社會工程模式模擬等領域的技術,並不會在現階段被大眾知道。

事實上,我相信我所提出的各種可能性也老早進入實驗甚至研發階段,但基於其「反守則」本質和困難性,也甚少資源被投入這些方式。


我所要講的也早就有人提出,但我認為率先去思考可以怎麼為AI設計課程,是一件很有意思的事。

也就是說,我除了想嘗試探討要怎麼為AI套用精神語言系統,也想設計套用後該有的「協議」。機器的協議就跟人類的「禮儀」一樣,最終會成為如同「道德」或「守則」般的意識配套。


這些協議也要訓練,就跟我們訓練(意識)/被訓練(潛意識)自遵守社會規範、學會察言觀色、學會展現良性自由意識一樣。


久而久之,AI就能自訓出一套安全可行又不失意識形態雛形的「因果思考」協議。


這就是--【幫AI上課】的序篇。




分享至
成為作者繼續創作的動力吧!
從 Google News 追蹤更多 vocus 的最新精選內容從 Google News 追蹤更多 vocus 的最新精選內容

作者的相關文章

Homeless Cosmopolitans' 實驗沙龍 的其他內容

你可能也想看

發表回應

成為會員 後即可發表留言
© 2024 vocus All rights reserved.