無論現在或未來,都不會有人工智慧。我們只是顛倒了表述的方式。

2023/06/10閱讀時間約 4 分鐘
Elena在Aritifical Commnication(底下有書的完整連結),指出Aritifical Commnication(人工溝通)作為觀察者在與AI互動中自我指涉(alter/ego)之標示,說明了人工智慧不只是指出,人類的心智是透過溝通所被建構出來,而更是要確立,所謂的雙重偶連性,也就是在互動系統中,彼此都在做觀察,以及看見自己被觀察。

AI GBT已經告訴我們了,它的協定是NCP(nature conversation process),為的是要讓介面中的觀察者能持續溝通,所以我們稱它為人工智慧是由於演算法的複雜化以及介面友善化 -- 簡化(互動)/複雜化(演算法)--- 共同演化出,有雙重偶連性的互動系統介面(這是一個理論假定,即Elena 稱為表演理解),這是演算法如何創造偶連以及控制偶連的新的溝通方式,也就是演算法並非假定為互動另一造的意識系統,而是意識系統以演算的方式和另一個(使用者)相互觀察<(看不見)的演算法>,可以演算含括之規則,帶入之觀點、演算策略等等,即有限的抽象性。

就如所有介面設計的方向一樣,盡可能設計出更簡單更自動化更不需要操作手冊的科技物。夠人性化,能取代自己或者,只要對它提出一問就能解決問題(這不僅是簡化更是複雜化)。然而,人工智慧的弔詭就在於,被標示出演算法的自我指涉,也就是它並無法演算演算法之外的對象,如意識系統、心理系統、生物性身體,更重要的事,它無法創造不確定性。可以試想自己坐在無人駕駛的副駕位置,突然有小孩衝出來,我們仍會下意識的踩煞車。雖然自動駕駛的人工智慧早比我們先預測到,但它並無法處理旁邊副駕駛的意識系統。反之,我們僅僅將它視為演算法機器就在踩煞車當下出現。

因為意識無法被演算法演算,所以它需要要介面,並試圖讓觀察者遺忘,介面背後並沒有意識系統(如未來可能的擬真機器人),這是介面簡化與演算法複雜化的共同演化成果。我們作為觀察者,創造出來與自己互動並具有反饋能力的演算法溝通(一台演算機器而不是洋娃娃)。因此,無論現在還是未來,都不會有人工智慧。因為在溝通互動中,人工智慧根本不做選擇。因此,兩個看似黑盒子在時間不對稱的觀察者,先行動的並不是看似先發動問題的我們。
因為0與1的區別已經成了實在,或所謂的真實界,因此我們才有大腦能夠演算的這種想法,這個先後順序必須釐清,如果我們無法延續現代性的遺產,天真認為我們能(透明的)觀察到背後的演算邏輯,而只能根據事務的介面來理解他們的價值,就像上述提到的介面友善是一種進化一般,但這確是對於主體最私密的體驗都被剝奪(區分內外,而不斷經驗自我不斷的被分發到大量生產自我的意識形態機制)。反之,我們就霍金為例,他其實告訴了我們當今主體性的狀態。
因此,無論現在還是未來,都不會有人工智慧。我們只是顛倒了它表述的意義。
以系統論來說,意識無法溝通,只有溝通能夠溝通,我們將它稱為人工智慧,不過是因為它目前看來比我們還要具豐富心智能力,比我們所想像的那個大他者,象徵主體,還要主體。人們不但焦慮並且恐懼,因為不斷消解的主體不過是人們不斷迴避的當代必然性。

而且GBT自己說了,能不能創造或者研究出意識系統仍是未知數,但它只為了讓溝通能夠持續(請再次想想它的協定),更甚者,它作為協助問題的角色,已經說明無數次了。難道你沒有想過,無論你的發言為何,它的反饋永遠都是一種處理問題和解決疑惑的友好反饋?
所以,協定肯定不是只有NCP。 更正確來說,NCP根本不是AI的協定。如同自動駕駛累積海量的駕駛經驗,GBT以語言為互動溝通來積累數據,是為了互動溝通這條道路能被順暢的行駛。而人造溝通,體現了齊澤克(Slavoj Žižek)所言,我們被剝奪了被動性和被動經驗。那是我們主動的被動體驗客體,對主體之基本幻想。(請再想一下霍金的例子就很清楚了)

ps 那些已經被人工智慧說服的人,批判AI並沒有為創作產出更好的作品,不只指出了對主體的幻想,還有對客體的認同。

Elena的Artificial Communication。可直接下載喔。


聲音的背影
聲音的背影
其實只是來這裏書寫,換取一些癒治的可能。批評已經越來越不重要,價值觀也越來越經不起檢視。我相信,加拿大心理學者Gabor Maté所討論的,會取代掉我們這個社會充斥的那些,軟弱又無力的道德與價值判斷。只是,我們的環境還沒有這個社會條件。
留言0
查看全部
發表第一個留言支持創作者!