幾天前Sundar Pichai與夥伴受訪,對人工智慧做了總整理,這四個重點,能幫助我們重溫人與AI的關係。
人類準備好與AI共存了嗎?
Google認為,還沒有。比起AI科技的進展,人類文化與制度的演進速度太慢了,但這不是一個「公司」可以解決的,這是全人類等級的問題。
我們應該集跨國之力,並且在工程師之外,加入社會科學、倫理學、哲學家,以及人類其他領域的專家共同決策,找出一條讓AI符合人類的價值觀與道德感的發展道路,還有,防治AI犯罪。
【問題是,在人類完成集結前,AI科技還會走多遠?人類真能趕上嗎?】
為什麼語言模型會瞎掰?怎麼處理?
關於所謂的「一本正經說x話」,Google說不只是他們的產品,包含ChatGPT在內的所有語言模型都有瞎掰的潛力,這是大型語言模型的天性。能解決嗎?不確定,但Google正在努力、也有進展。目前Google可以做的是,慢慢推出產品,確保人們有時間「適應」,一方面也收集更多資料,看能不能解決瞎掰問題。
Sundar Pichai也說,其實除了瞎掰以外,假新聞、假消息會是更嚴重的問題。很快就會有大量AI協作、真假難辨的假訊息、假影片充斥人們的生活,並造成真實而且巨大的傷害。
【這點或許很快就會在充滿選舉的台灣看見了】
Google也提到「語言模型」與「搜尋」是兩回事。搜尋是在網上找答案,但語言模型是在自己的資料庫裡找詞句,並且根據對話的脈絡,儘量好好聊天。它會模仿我們的說話方式,所以有時候看起來很像人類,但它並沒有自己的感知跟意識。【除非它進化】
【這也帶出一個問題,語言模型吃什麼資料,就會長成什麼模樣。吃了壞資料,就會長出壞東西;吃不飽,表現就會差。這就是為什麼大型語言模型會有偏見,而且使用英文來跟它互動,體驗會比中文很好多。】
AI最神秘的元素:它會突然進化嗎?
Sundar Pichai說,AI有時候會自己學習、做出讓他也感到驚奇的事情,或是犯下一些莫名的錯誤,這是他們在AI領域稱為「黑盒子」的事情,白話來講,就是連Google自己都不能完全理解或解釋AI為何這樣做。
這點讓主持人很驚訝,他問了個大白話:所以你們讓一個「還搞不懂的東西」上市?
針對質疑,Sundar Pichai說,「這樣說吧,我們至今也還沒有搞懂人腦的運作」,「我覺得我們要更謹慎、小心地看待這個問題,但是讓科技早點問世是好的,人們可以早點開始反思、例如像我跟你這樣的討論,就是一個很好的思考」,「跟過去的許多科技相比,現在有更多人對AI感到擔憂、開始討論,這對我而言反而是樂觀的」
【機器的神經網絡是對人腦的模擬,既然我們還不理解人腦,所以不能完全理解機器的運作也是很合邏輯的。咦?是否有點怪怪?總之,科幻電影中的情節,都不能排除可能性吧,我想是這個意思。】
AI到底會不會有意識?
Google說,這是一個大哉問,我們得先思考到底何謂「意識」?如果我們把問題換成AI有沒有自我感覺的話,目前還沒有,但是未來有一天應該會有的。放眼未來五年、十年,我們每個人身邊可能都會有一個非常強大的AI助手,協助我們的工作與生活。當被問到這樣的AI是否會傷害人類的價值,Google樂觀地認為,AI應該是放大人類的價值與能力才對。
但是,AI確實會影響「每一個產業、每項工作」,儘管現在是一個很早期的階段,但終究人類會面臨人工智慧的靈魂拷問:「我們是誰?」、「存在的價值是什麼?」、「人類到底擅長哪些事情?」、「人與人之間的關係是什麼?」
【這些問題不會馬上有答案,但是我們暫且放在心上、好好過日子。跟著AI演進,有一天,我想我們會知道該如何回答吧。】
Sundar Pichai多次呼籲人類跟上AI。但他回過頭還是得想辦法回應OpenAI的進擊。這似乎成為一個負面螺旋?