幫AI上課 -- 序篇

更新於 2024/03/07閱讀時間約 10 分鐘

起先這是個爬梳各種資訊、接觸各種消息、看著以前收藏的文章時突然出現的想法:

AI psychoanalytic model that teaches AI causality -- that's what lang model training is missing.

翻譯過來就是:用精神分析模型教AI「因果」--這是現在語言訓練模型最缺乏的。


什麼意思呢?

Causality在英文裡是因果關係的意思,一個字代表因與果。中文裡沒有這種字,有的話可能變成「緣」。中西腦袋本就徹底不同,你看「因為」與「所以」在兩種語言中的詞性和位置就很不同。


為什麼教AI因果關係很重要?

因為深層的因果關係概念是人類之所以與其他物種不一樣的重點,也就是說,我們跟松鼠一樣會儲存熱量過冬,但我們會減少熱量攝取「因為怕胖被人說不好看」;我們跟鯊魚一樣會吃掉別人的小孩,但漸漸這種事不會發生「因為別人會幫我耕田」;我們跟螞蟻一樣會團結侍奉權力,但總會有人離群所居或發起革命「因為想要自由」。


我們極度的好奇心和慾望,造就我們極為複雜的認知系統。

極度的好奇,從對自我的極度好奇開始,然後對周遭環境以致世界的根本的好奇。

極度的慾望,從對自我的慾望開始探索,然後對周遭投射以致社群潛意識的投射。


講起來很簡單,但「善惡」、「好惡」、「美醜」等極為基本的認知型態就從這裡開始。


AI為何不能模擬人性的複雜?並不純粹是因為人性很複雜,更因為人有「也想摸透自己卻愈摸愈頭痛」的根性。


動物也有基本的好奇心和慾望,但沒半個物種能以個體性展現能與人類匹敵的好奇心和慾望程度。


當然,這也與人類的機動能力、品種、基因訊息、生物特徵,譬如「直立」等有很大關係。


但在AI有手有腳、有極端靈敏而高範圍的感知統合、有傳宗接代的能力前,我們得先教教AI「因果關係」。


極端複雜的「語言」系統大概是人類高超的好奇心和慾望的最佳註腳。


幾乎沒有動物能言語或表達「虛榮心」、「榮譽感」、「廉恥」、「幸運」這種複雜概念,頂多能示意「喜歡」、「一起」、「不要」、「興奮」等基本資訊。


所以當AI能「因為沒穿衣服感到害羞」、「因為達成共同目標而開心」、「因為提供不真實的數據而懊悔」、「因為攔截到資訊框架外的一份出乎意料的資訊而暗自開心」,那麼強AI的實現就不遠了。


人類的樂觀和悲觀來自太長發生的自我覺察過程,照了鏡子太多次以至於不自覺出現「自我」的概念。往後經過鏡子或水面,就會想看看「自己」;遇到認識的人會開始問「我看起來如何?」;遇到喜歡的人也會馬上拿出手機打開自拍看看自己是否好看。不是手機這個物件本身好不好看,也不是閱讀影像資訊判別「這個影像符合『好看』的敘述」,而是我的自我形象「可能符合某個他者對自己的形象的期待。」這個自我形象的認知也起自好奇心和慾望。

有人會說,那麼我蒐集所有「他者」,也就是「所有人類和物件」的資訊,包括腦中所有的訊息,不就可以讓「AI的好奇心和慾望」成形?

快要正解。

如果AI能夠有足夠的模型和模式訓練開始能「預測」隨機他者的想法,也只達到2/3。


最後的1/3就要借用精神分析的說法:自我與他者。

有心理學和精神分析理論背景的人大概猜得到我要說什麼。

讓AI能做到隨機預測已經很強大了,但還不到強AI。

最後一步在能「想像不存在的他者」。

以人類語言來說,我們始終會碰到猶豫和思考的時候,通常這是因為我們的語言系統太過侷限,以致無法精確表達某些情況、物件或東西:

「草桿與泥土相接的那種顏色」、

「火車每次有老人上車時的瞬間」、

「被商店店員打招呼的微妙尷尬感」、

「雲與其他雲擦肩而過而產生的微量摩擦力」、

「宇宙起源時站在那的那個人」、

「愛因斯坦腦袋裡的量子糾纏」等。

你會說這些資訊沒意義,確實。「現在」沒意義,對某些人沒意義。

我們的腦袋有能力限制,所以我們不需要全知,在遇到不重要的訊息時,腦袋會自動過濾掉。事實上,我們生活中大部分的資訊,譬如遠方的車子噪音或自己呼吸產生的微量不適感,都會被過濾掉。

AI也做得到這點,甚至它能精確地自己研發應用新的語庫和資訊過濾。AI是極度邏輯的高手。

但「如果」我剛剛說的那些奇怪句子有意義呢?有沒有可能那種顏色成為新款的流行色?有沒有可能老人上火車的瞬間動量成為工程學上引發重大發明的重要參考?有沒有可能這種微妙尷尬感成為下一個市場流量密碼?有沒有可能雲間的摩擦力成為流體力學研究的重大突破口?有沒有可能那個人就是某個新興宗教的信仰中心?有沒有可能愛因斯坦的腦在思考時引起的量子糾纏引發改變我們這個宇宙與其他宇宙間的多重連結,其結果促使重要的未來發展?

你會說真是腦洞大開。

但這就是人類。

人類捨棄容納和計算一切的能力,換取無限的想像力。想像力讓我們拿起石頭、削尖它、在地上畫出一朵花、發現這朵花的花瓣多寡與現實中的不一樣、基本的算術概念應運而生,但現在,比較性計算還是運用在大部分運算系統裡,包括AI。

科技其實是我們好奇心和慾望的最大證明。

其他的證明還有:夢境、情感、情緒。這些都是我們大腦無法負荷「意義」時產生的現象。

人類的自我意識就是個體知識有限的象徵:正因為不如AI精確,正因為會因為找不到特定資訊而口吃、感到懊惱或憤怒不堪所以欺騙或微笑,才使我們是「人類」。我們常講的「人是不完美的」正是AI無法複製的那點。

AI其實太依附意義。轉過來說,AI就是我們想要擴增意義容量和使用性的科技。


玩AI的人曾跟我講:

有時候我在訓練AI深度學習模型時,明明給的資訊流都一樣,結果就是有可能不同,甚至出現「bug(錯誤)」。這也許真如你所說,也許「資訊」本身帶有「脾氣」。


那時,我剛跟他分享完《渾沌》裡文章大作的勞倫斯吸子和資訊學,以及,那個充滿魔力的句子:「對初始條件的極度敏感」。


不過那是另一篇文章了。


我們回到心理學。

「人類」可以被AI當作物件或大型資訊群判別,也許成功率可以到100%。

但AI畢竟不是人類。

以人類的標準來講,AI的他者應該是自己的「鏡像」。AI照鏡子後,不論是怎樣的鏡子,也許是一個「鏡像自我確認」語庫,但凡能夠讓AI「照完鏡子後」更想或更不想照鏡子,這種體現也許就是「內在動機」的象徵。

「他者」是個憑空而來的概念,簡單的AI自我架構應該先從發展「因果思考」開始。

AI自我意識的發展難點在觸發對「因」的思索。

目前100%的AI模型都是「收斂/結果式」,所以AI依賴指令、程式和功能。

某昭一日AI能夠有「發散/原因式」的功能的話,AI發展就進入能自體思考並產生好奇心的時代了。


複雜的「因果思考」加總就是人類「內在vs外在動機」的總體戰資訊。要用「結果式」模擬這件事基本上極度困難。現代AI連要模擬一個簡單的自然現象如氣流,就會因為有太多資訊且資訊間的互動複雜過高而無法做到模擬,拋棄不必要的「雜訊」後才能做出簡單的模擬。

所以資訊語言上再次強調:「雜訊」就是「現實」。


「原因式」開發能幫助AI出現「資訊」自動篩選,而非「資料」自動篩選而已。

基本上我想的幾個方式:

  1. 「事件」- 從模擬情緒和記憶著手,需要強大軟體處理能力、感受能力及精確的定義,包括反守則的可能性也要被模擬含擴,這只是最低限度,結果可能會超乎人類預期,譬如開發出全新的智慧品種
  2. 「反意義」- 訓練情緒基礎和道德基礎的反金字塔系統。只精確定義反守則,屬於結果式方法,因此最為快速。
  3. 「人類精神語言架構」- 正金字塔系統。但精神模型得大致上與人類自己想要遵守的精神守則貼合,一樣需要極為複雜的神經網路訓練、計算能力和長期模擬。這是可行性最高的方法。

這些方式都朝向一個目標發展(以人類的精神模型來說):

原則


人類最大的特色是有「應對複雜慾望/好奇系統而生的各種系統」,其中包括「情緒」、「道德」、「價值」。

「情緒/感受/直覺」是剝奪意義,

「道德/規範/原則」是定義本身,

「價值/洞見/智慧」是賦予意義。

第一者最難模擬,因為它的本質是「反資訊」,有點像亂度高的內在事件,但可以藉由亂度重新定量反向模擬。

第二者最容易模擬,或者說,AI本身就是依賴第二者的。

最後一者可以很容易透過第一者定義出來,畢竟跟人類一樣,每個人的價值體系都有跡可循。但要創造第三者,基本上就是在創造意識(對人類來講,因為人類仰賴前二者太久了)。


Isaac Asimov的「機器人三大守則」提出:

  • A robot must not injure a human being or, through inaction, allow a human being to come to harm. 機器人不可傷人或致使人傷。
  • A robot must obey the orders given it by human beings except where such orders would conflict with the First Law. 機器人得完全聽令於人,違背第一守則者例外。
  • A robot must establish its identity as a robot in all cases. 機器人的自我身分歸屬只能是機器人。


傳統的三大原則之不足已被撻伐好幾年,除了因為年代久遠,更因為人對自己心志和意識系統的了解更加發達


剛剛提出,最安全的作法就是套用人類精神系統模型來模擬「價值」。藉由模擬人類價值體系來試圖創造意識,是我認為最開創又安全的方法。


在精神分析學派裡,價值體系就是意識體系。

在最重語言精神研究的拉康精神分析派系裡,意識體系就是語言體系。

用他的講法就是:

潛意識的構成就跟語言的構成一樣。

這也是為什麼,大部分現代AI都想要用複雜網絡訓練出的,都是人類自然語言處理的能力,以致於現階段在語庫夠大和模型夠基礎後,出現「類自然」的演算型態/功能。這就是大家所稱的「生成式AI」。實際上,它並沒有多先進,它只是AI前往意識發展的非常一小步。

實驗階段的其他更重大AI開發,基於無法商業化或利用價值極為侷限,譬如只限超級電腦、量子計算、科學研究、複雜社會工程模式模擬等領域的技術,並不會在現階段被大眾知道。

事實上,我相信我所提出的各種可能性也老早進入實驗甚至研發階段,但基於其「反守則」本質和困難性,也甚少資源被投入這些方式。


我所要講的也早就有人提出,但我認為率先去思考可以怎麼為AI設計課程,是一件很有意思的事。

也就是說,我除了想嘗試探討要怎麼為AI套用精神語言系統,也想設計套用後該有的「協議」。機器的協議就跟人類的「禮儀」一樣,最終會成為如同「道德」或「守則」般的意識配套。


這些協議也要訓練,就跟我們訓練(意識)/被訓練(潛意識)自遵守社會規範、學會察言觀色、學會展現良性自由意識一樣。


久而久之,AI就能自訓出一套安全可行又不失意識形態雛形的「因果思考」協議。


這就是--【幫AI上課】的序篇。




這是實驗室,歡迎各位Homeless Cosmopolitans,意指「無家可歸的國際客」。在文字裡無家可歸是很正常的,就如同我自己從不喜歡有家可歸。這是一種人生狀態、這是一種生活模式、這裡只在乎:【不做選擇跟做出選擇有著同等的高尚】。 這裡是我個人創作工作室Studio WKL--走吻學工作室--的一部分。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
啟發自美國伊利諾伊州州長J. B. Pritzker在Northwestern University前年的畢業致詞: Best way to spot an idiot? Look for the person who's cruel. 怎樣辨別蠢貨?去找那些殘酷無情的人。 「你長大之後想做什麼?」
節自先前發布的【澳洲冒險人物誌--The Beekeeper】。謝謝【換日線】刊載。
基於手機不在身邊,我用一首剛好五分鐘的曲子當計時器: https://open.spotify.com/track/3Oumc5HVTksK8hLtU9Lp4n?si=a239e6c960d44967 這是五星主廚快餐車裡的音樂,影評不上不下,但我非常喜歡這部電影。 來談談好了。 電影是
5分鐘再度開始: 我聽著Simon Sinek的播客,我忘記哪一集了,或者哪裡來的老者分享: 「我現在60歲了,正在練習慢下來。」 我卻覺得,我現在半甲子,卻已經在學習慢下來了。 更重要的是,我認為全部的人都應該學習慢下來。 我想到了,那是某個成功的老人受訪問,給年輕世代的建
燈路那樣絕句般, 烙著韋編三絕的 一字一句階磚 拼湊而成的 你的步伐 若編纂 成書 應; 是寄錯的書。 街 點絳 流鶯的 久遠地吻。 一瓶乳雲。
大部分的人都知道Open AI的ChatGPT, 部份的人知道Perplexity一類的生成式AI模型, 還有一些人知道Google研發的生成式AI模型:Gemini (意思是拉丁文的雙生)。 但幾小時前開放給開發者及研究者的開源AI模型Gemma(意思是拉丁文珍貴的石頭)大概沒什麼知道,
啟發自美國伊利諾伊州州長J. B. Pritzker在Northwestern University前年的畢業致詞: Best way to spot an idiot? Look for the person who's cruel. 怎樣辨別蠢貨?去找那些殘酷無情的人。 「你長大之後想做什麼?」
節自先前發布的【澳洲冒險人物誌--The Beekeeper】。謝謝【換日線】刊載。
基於手機不在身邊,我用一首剛好五分鐘的曲子當計時器: https://open.spotify.com/track/3Oumc5HVTksK8hLtU9Lp4n?si=a239e6c960d44967 這是五星主廚快餐車裡的音樂,影評不上不下,但我非常喜歡這部電影。 來談談好了。 電影是
5分鐘再度開始: 我聽著Simon Sinek的播客,我忘記哪一集了,或者哪裡來的老者分享: 「我現在60歲了,正在練習慢下來。」 我卻覺得,我現在半甲子,卻已經在學習慢下來了。 更重要的是,我認為全部的人都應該學習慢下來。 我想到了,那是某個成功的老人受訪問,給年輕世代的建
燈路那樣絕句般, 烙著韋編三絕的 一字一句階磚 拼湊而成的 你的步伐 若編纂 成書 應; 是寄錯的書。 街 點絳 流鶯的 久遠地吻。 一瓶乳雲。
大部分的人都知道Open AI的ChatGPT, 部份的人知道Perplexity一類的生成式AI模型, 還有一些人知道Google研發的生成式AI模型:Gemini (意思是拉丁文的雙生)。 但幾小時前開放給開發者及研究者的開源AI模型Gemma(意思是拉丁文珍貴的石頭)大概沒什麼知道,
你可能也想看
Google News 追蹤
Thumbnail
徵的就是你 🫵 超ㄅㄧㄤˋ 獎品搭配超瞎趴的四大主題,等你踹共啦!還有機會獲得經典的「偉士牌樂高」喔!馬上來參加本次的活動吧!
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
Thumbnail
大語言模型(如GPT-3和GPT-4)的出現改變了我們與機器互動的方式。這些模型能夠理解和生成自然語言,實現許多以前無法想像的應用。然而,你可能會好奇,這些模型究竟是如何理解語言的?這裡,我們來探討一個關鍵的概念:「一切語義都是關係」。
Thumbnail
本篇文章分享了對創意和靈感來源的深入思考,以及如何將其轉化為實際的成果或解決方案的過程。透過學習、資料收集、練習、創新等方法,提出了將創意落實的思路和技巧。同時介紹了AI在外顯知識的自動化應用,以及對其潛在發展方向的討論。最後探討了傳統機器學習技術在模擬中的應用案例和對AI世界的影響。
詮釋 ,歸因:用來解釋事情(行為結果)為何發生的某種因緣。 ,歸因的面向: 1位置: .內在原因(內在歸因) (1)自利偏頗: A人們傾向建立利己的歸因 B避免為自己負面的行為或失敗負責 (2)歸因錯誤: A當他人屌現不好時,我們傾向高估其行為的內在原因與低估外在原因。 B低估自
大語言模型能夠生成文本,因此被認為是生成式人工智慧的一種形式。 人工智慧的學科任務,是製作機器,使其能執行需要人類智慧才能執行的任務,例如理解語言,便是模式,做出決策。 除了大語言模型,人工智慧也包含了深度學習以及機器學習。 機器學習的學科任務,是透過演算法來實踐AI。 特別
Thumbnail
語言模型與文字表示以不同的方式來分析自然語言的詞語分佈及語意關係。本文章簡要介紹了語言模型、Word2vec、FastText、GloVe和Transformer等技術,並提供了實際的應用參考點,幫助讀者深入理解自然語言處理的技術。
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 Introduction 1.1 Motivation 想要有一個智能體能接收輸入訊息,進而輸出對應動作甚至做Reasoning
這個頻道將提供以下服務: 深入介紹各種Machine Learning技術 深入介紹各種Deep Learning技術 深入介紹各種Reinforcement Learning技術 深入介紹Probabilistic Graphical Model技術 不定時提供讀書筆記 讓我們一起在未
Thumbnail
已經成真的AI生成文字、圖片、音樂、影片,以及更多即將面世的AI運用場景,每一項都將對人類社會產生重大的影響。 很多人已經感受到AI的威力,並且因為擔心工作不保,所以急著參加各種AI教學課程。 我會以大量使用、測試AI的經驗,輔以田野調查的結果,詳細解釋為什麼在這個時代「AI教學課程」(幾乎)沒用。
Thumbnail
延續上週提到的,「有哪些不訓練模型的情況下,能夠強化語言模型的能力」,這堂課接續介紹其中第 3、4 個方法
Thumbnail
這一節課說明,如何透過改變給模型的指示或咒語(prompt),來得到不同的結果 。如果直接說結論的話會是,在今天語言模型的能力之下,我們只要交代清楚任務就好,可以包括背景以及需求。而這節課很像是一堂模型咒語的歷史課 XD
Thumbnail
徵的就是你 🫵 超ㄅㄧㄤˋ 獎品搭配超瞎趴的四大主題,等你踹共啦!還有機會獲得經典的「偉士牌樂高」喔!馬上來參加本次的活動吧!
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
Thumbnail
大語言模型(如GPT-3和GPT-4)的出現改變了我們與機器互動的方式。這些模型能夠理解和生成自然語言,實現許多以前無法想像的應用。然而,你可能會好奇,這些模型究竟是如何理解語言的?這裡,我們來探討一個關鍵的概念:「一切語義都是關係」。
Thumbnail
本篇文章分享了對創意和靈感來源的深入思考,以及如何將其轉化為實際的成果或解決方案的過程。透過學習、資料收集、練習、創新等方法,提出了將創意落實的思路和技巧。同時介紹了AI在外顯知識的自動化應用,以及對其潛在發展方向的討論。最後探討了傳統機器學習技術在模擬中的應用案例和對AI世界的影響。
詮釋 ,歸因:用來解釋事情(行為結果)為何發生的某種因緣。 ,歸因的面向: 1位置: .內在原因(內在歸因) (1)自利偏頗: A人們傾向建立利己的歸因 B避免為自己負面的行為或失敗負責 (2)歸因錯誤: A當他人屌現不好時,我們傾向高估其行為的內在原因與低估外在原因。 B低估自
大語言模型能夠生成文本,因此被認為是生成式人工智慧的一種形式。 人工智慧的學科任務,是製作機器,使其能執行需要人類智慧才能執行的任務,例如理解語言,便是模式,做出決策。 除了大語言模型,人工智慧也包含了深度學習以及機器學習。 機器學習的學科任務,是透過演算法來實踐AI。 特別
Thumbnail
語言模型與文字表示以不同的方式來分析自然語言的詞語分佈及語意關係。本文章簡要介紹了語言模型、Word2vec、FastText、GloVe和Transformer等技術,並提供了實際的應用參考點,幫助讀者深入理解自然語言處理的技術。
Thumbnail
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 Introduction 1.1 Motivation 想要有一個智能體能接收輸入訊息,進而輸出對應動作甚至做Reasoning
這個頻道將提供以下服務: 深入介紹各種Machine Learning技術 深入介紹各種Deep Learning技術 深入介紹各種Reinforcement Learning技術 深入介紹Probabilistic Graphical Model技術 不定時提供讀書筆記 讓我們一起在未
Thumbnail
已經成真的AI生成文字、圖片、音樂、影片,以及更多即將面世的AI運用場景,每一項都將對人類社會產生重大的影響。 很多人已經感受到AI的威力,並且因為擔心工作不保,所以急著參加各種AI教學課程。 我會以大量使用、測試AI的經驗,輔以田野調查的結果,詳細解釋為什麼在這個時代「AI教學課程」(幾乎)沒用。
Thumbnail
延續上週提到的,「有哪些不訓練模型的情況下,能夠強化語言模型的能力」,這堂課接續介紹其中第 3、4 個方法
Thumbnail
這一節課說明,如何透過改變給模型的指示或咒語(prompt),來得到不同的結果 。如果直接說結論的話會是,在今天語言模型的能力之下,我們只要交代清楚任務就好,可以包括背景以及需求。而這節課很像是一堂模型咒語的歷史課 XD