承上一篇的文章,全球汽車銷售龍頭產業(豐田TOYOTA)領導人因為電動車的衝擊,在不久之前卸任。
另一個商業巨頭,同時也是搜尋引擎龍頭的Google的母公司Alphabet,最近內部高級主管之間,也拉起了「紅色警戒」(code red),原因是一款聊天機器人:ChatGPT。
一、ChatGPT是什麼?
ChatGPT回答問題的方式,類似於聊天機器人,但它能做到的事遠遠超過一般聊天機器人。
讓Google害怕的是『它』的自動問答能力,ChatGPT可以根據輸入的問題自動生成答案。
我們對於聊天機器人可能並不陌生,甚至經常使用,最常見的就是Apple手機的Siri。大陸的電商網站的聊天機器人,也能回答基本問題。但這些聊天機器人,無法『學習』。也就是只能回答基本的問題。有些也許能根據用戶習慣,回答可能更好的答案,但機制類似輸入法的輸入常用字詞會設定為首選。這與其說是『學習』,更像是『記憶』。
Siri想做到的是成為『人類管家』,但目前還只是助理軟體的階段。ChatGPT能處理更複雜的事情,甚至還有編寫跟除錯電腦程式(Debug)的能力,還能夠創作音樂、歌詞、電視劇、童話故事和學生論文等等。目前就連台灣都已經有傳出考生利用該系統,產出相關內容,影響公平性等新聞出現。香港大學也開出世界第一槍,利用ChatGPT的內容,就是涉嫌抄襲。
與其他多數聊天機器人不同的是,最重要的是ChatGPT能夠記住與使用者之前的對話內容和給它的提示!根據使用者使用習慣去學習,最終給出最好的答案。
所以說它是聊天機器人,並不精確。應該稱為『言談生成預訓變化者』 (ChatGPT ),由母公司OpenAI(意思是,公諸智慧或開放人工智慧)開發。
GPT也就是生成型預先訓練變換模型(英語:Generative pre-trained transformer)。
意思就是它會根據訓練而讓結果越來越正確跟符合所需。簡單說,就是它會『學習』。
不過因為解釋這個背後的邏輯很複雜,大部分還是沿用聊天機器人來稱呼ChatGPT,因為我們已經很習慣使用聊天機器人。
按照官網OpenAI的說明,ChatGPT採用了神經網路技術,模仿了大腦神經系統的運作,設計書一個可以分析大量數據的大型語言模型,透過機器學習人類使用詞彙、標點符號的方式,在讓機器反覆練習特定任務的強化學習法,最終『學會說出自己想說的話』。也就是利用自然語言處理 (NLP) 模型分析大數據的資料。於2018年首次發表了自然語言模型GPT,之後又經過了好幾代的更新,期間『微軟』公司出錢又出力,除了10億美金的挹注,還提供專屬超級電腦、資料可托管在微軟雲等等。於2022年11月底使用升級版的GPT-3推出的終端產品ChatGPT(應該稱為GPT-3.5)轟動全球。
OpenAI的執行長山姆.阿特曼(Sam Altman),8歲就會寫程式,可以說是個天才。當初創辦這間公司,其實理由很簡單。不要擔心AI會存在危害人類的風險,不信的話,我設計一款給你看。
果然不只『有錢』可以任性,『有腦』也可以。
不過玩笑話歸玩笑話,OpenAI的真正目標是『確保人工智慧不會消滅人類』。也就是藉由開發AI模組,當AI程式越來越『智慧』的演進中,促進各國對於相關法律的訂立或是研究限制條件,以保障AI未來能幫助人類,但不會消滅人類。
二、生成式AI將取代搜尋引擎:
回到開頭提到的Google母公司的擔憂。
我們在搜尋引擎輸入關鍵字,大部分不就是為了尋找答案嗎?
如果有一套程式,能解決我們大部分的問題,我們還需要搜尋引擎嗎?
人們過去透過Google搜尋問問題,以往可能會問「一台鋼琴有幾個琴鍵?」這種有標準答案的問題。
但隨著越來越多人透過Google找尋更深入的理解型資訊,例如:「鋼琴和吉他哪一個比較好學?分別需要多少時間練習?」這種理解式資訊在以往的搜尋可能無法達成,因為沒有標準答案。但是具有人工智慧的AI聊天機器人,例如ChatGPT,未來將可以回答這些問題。
也就是生成式AI未來將取代Google搜尋(也代表所有搜尋引擎)。這就是Google害怕的真正原因。
目前ChatGPT除了可當作搜尋引擎之外,其他主要應用方面包含:翻譯文字;回覆電子郵件;詢問專有名詞、名人、歷史事件等問題;撰寫講稿、廣告文案;依使用者輸入的資料生成短篇故事、詩、歌詞、程式等等;生成部分國家的法律文件(因為各國法律條文不同,因此目前只有美國的幾個州別達到律師及格成績)......。
三、研發『生成式AI』將進入寒武紀大爆發:
Google反應動作其實也很快,在美西時間2月6日(中原標準時間2月7日),就宣布自家的AI對話機器人「Bard」進入測試階段,幾週後就會開放給一般大眾使用。
反應這麼迅速當然是因為各大科技公司一直都有在開發AI,中國也在這領域不落美國之後。除了Google有立即的危機之外,Apple、特斯拉、中國的bat三巨頭(百度、阿里巴巴、騰訊),也宣布要推出相關的AI程式。不過上述公司主要是指日常生活面的AI程式。而在戰場上使用的相關AI程式也陸續實測成功。例如俄烏戰場上使用的所謂『戰場uber』的AI程式,大放異彩,因此母公司開發至今首次實現獲利。F-16戰鬥機也開始導入AI操作成功。
『生成式AI』的研發,將進入寒武紀大爆發(指地球的生物突然大量出現的時期)的年代。今年也可以說是AI元年。而且不只在日常生活方面,而是全方面的AI導入時代。
OpenAI的大股東『微軟』也沒有因此自滿而怠慢,積極準備將ChatGPT的功能結合自家的搜尋引擎『Bing』。
不過,這類程式的最大問題很快就出現了。
就在宣告測試之後三天的2月9日,美國當地時間週三,由於Google新推出的AI聊天機器人Bard在回答查詢時給出了錯誤答案。
在展示Bard工作原理時,用戶輸入搜尋查詢:「我可以把詹姆斯·韋伯空間望遠鏡的哪些新發現講給9歲的孩子聽?」
Bard給出了很多答案,其中之一是詹姆斯·韋伯望遠鏡拍攝到了太陽系外行星的第一批照片。
但是,這種說法是錯誤的,因為第一批系外行星的照片是由歐洲南方天文台的甚大望遠鏡(VLT)在2004年拍攝的。
這個錯誤被發現之後,導致其母公司Alphabet股價暴跌8%,市值縮水1,000多億美元。
四、AI人工智慧衍生的的問題:
Bard在公測時的錯誤不只是輸了面子跟裡子,還進一步引發人們對搜尋引擎以及使用AI回答人類問題準確性的質疑。不只是Bard,目前ChatGPT的錯誤也不少。特別是ChatGPT主要是進行語料的訓練,還未進入到邏輯的訓練,所以進行4位數以上的乘法就會產生錯誤。但是即使是語料內容的資料,也有許多錯誤。
例如筆者我在Bard被發現錯誤之後的隔天,使用ChatGPT詢問關於星雲大師的資料。ChatGPT回答我,星雲法師出生於福建,在2021年過世(它是用過世這個詞,所以我沿用)。今天2月20日,本文發文前再利用ChatGPT搜尋同樣問題,過世的訊息已經沒有顯示,但出生地依然是福建。而出生地跟過世日期這兩個答案都是錯的。
這也就是說,AI機器人並無法判斷網路資訊的正確性。它是根據大數據分析,得出『最佳解答』,而非『最正確解答』。且據官方表示,2021年前發生的事件,比較準確(因為大數據資料分析需要時間)。也就是『即時』訊息大部分都是錯誤的。
這個問題其實很嚴重。如果AI無法判斷資訊的正確性,它可能會依此產出很多的相關誤導文。未來可能會替網軍產生大量的『認知作戰誤導文』,讓這些有心人士更方便操作。
這也不會是AI的唯一問題。
如果你覺得任何老闆、領導人都希望自己推出的合法商品或產品,越成功越多人使用越好。
那麼,我告訴你,有一種產品可能會讓自家總裁或發明者害怕它太成功。
那就是:AI相關的產品。
ChatGPT根據官方數據顯示,公開僅5天,全球用戶數即突破100萬大關,串流影音龍頭Netflix花3.5年、Facebook花10個月、Spotify花5個月、Instagram花2.5個月才達到同級用戶數。ChatGPT也是史上最短的時間活躍用戶突破1億人的消費應用程式,只花了2個月。在這之前最快達成的是抖音(Tik Tok)9個月,IG花了30個月,臉書則花了54個月。
有人把ChatGPT稱為「這是AI的『iPhone時刻』,或我們可稱為AI發展的『奇點』!」(之前的文章有解釋過奇點的意思)
但是母公司OpenAI的執行長,也是主要開發設計師山姆.阿特曼(Sam Altman),卻呼籲內部員工低調。
OpenAI的前共同創辦人伊隆馬斯克也認為應該重視AI程式產生的相關問題。
如果你問我未來什麼產業影響的人數最多,我認為應該是電動車。
但如果問題是,什麼產業影響的『就業人口』最多,我認為是『AI產業』。
其實不只是搜尋引擎。未來會有很多工作逐漸被AI機器人取代,其實現在已經有很多工作已經被機器人取代,例如倉儲人力。但未來甚至連高階工作也是,甚至會有很多現在人的難以想像的人力調整。
舉幾個例子:部分甚至全部客機機師會被AI取代(甚至包含部分戰鬥機),但客機空勤人員不會。部分門診或科別的醫師會被AI機器人取代(ChatGPT已通過美國醫師執照考試的筆試),但替人打針的護理師不會。
上個月剛好看了一部關於AI機器人的電影『窒友梅根』。
和過去的AI機器人的電影內容差不多,就是AI機器人過度解讀人類的意思,無法判斷法律跟人命的輕重,因此最後對人類產生危害。
『意識』是出於感受、感覺、感知等主觀體驗,同時也包含思維、記憶、情感等層面的主觀經驗。現在很難想像『程式』能夠產生意識,但也許可怕的是AI永遠不會有意識,但『它』以為『他』有。
不管如何,AI時代已經來了,未來運用AI技術的地方會越來越多,而AI會取代的人力資源也將會越來越多。國家應該思考的除了限制AI的使用範圍,訂立相關法規,也包含了未來的產業人力轉型規劃。否則可能會有更多的高知識失業人口。