2023-09-01|閱讀時間 ‧ 約 9 分鐘

OpenAI高管第一次在台灣演講@政大!通用AI的關鍵技術與未來機會|怪獸科技公司|你與科技的距離 EP7.1

怪獸科技公司第二季,一起培養在快速變化社會的超強適應力!
🗣️收聽Podcast|🙋追蹤怪獸|📰訂閱怪獸雙週快報|🤖來找怪獸

AI 除了讓工作有了更多新的可能,帶來了新的商業契機,也在各個領域展現出巨大的潛力。

這次的內容,我將分享在政大聽完 OpenAI 的執行長技術顧問(Technical Advisor to the CEO) Dr. Mohammad Bavarian 在台灣的第一場演講,透過 OpenAI 官方的視角,探討人工通用智慧(AGI)的關鍵技術和未來趨勢。

Mohammad Bavarian 博士參與了 GPT-3、GPT-4 以及 Plugin 的開發

AI 學習的底層邏輯:機器學習是什麼?

我們可以先想想看,訓練 AI 的類神經網路(深度學習)已經有超過十年以上的歷史,然而,為什麼 2022 年末會成為生成式 AI 的引爆點,讓 ChatGPT 成為新社群 Threads 外,最快破億的應用?

🙋 收聽 Podcast:OpenAI 高管第一次在台灣演講@政大!

機器學習(讓機器/電腦學習)分成三種方式,監督式學習、非監督式學習,以及強化式學習。

本文作者 王政皓整理

監督式學習(Supervised learning),指的是已經有標記好的資料,讓 AI 學習如何分類。舉例來說,若是要辨別圖像是否為昆蟲,訓練方式就會是透過人工,直接讓機器了解蝴蝶是昆蟲,蜘蛛不是昆蟲,藉以讓機器透過比對找出規律。

相對地,非監督式學習(Unsupervised Learning)沒有資料標記(label),會讓 AI 自己觀察無標籤資料,透過解析結構找到相同特徵,進而分類資訊。

至於第三種強化式學習(Reinforcement Learning),則是過程未知的狀態,根據結果作出獎勵。換言之,它會透過人類反饋(reward)進行深層式的學習,根據不同狀況作出決定,不斷試錯找到最好的方式,像是擊敗頂尖棋士的 AlphaGo 就是個非常經典的例子。

OpenAI 這樣的 AGI 到底是怎麼學習的呢?

讓 ChatGPT 具有強大反饋能力的關鍵,就是非監督式學習和強化式學習,讓模型能從未標記的資料以及非結構化的談話中學習。

具體來說,OpenAI 的第一階段是建立自然語言訓練模型:transformer 架構,透過「語境分析」和「識別等對語言」進行分類與歸納;第二階段進行非監督式學習,在網路上大規模搜集尚未被標記的語言資料,進行模型訓練變成現在大家熟知的大型語言模型(LLM)。

這樣的大型語言模型,就改善了監督式學習雖然有品質,但是資料量過少又燒錢的問題,提供大量運算資料和數據。

AI 的應用限制:為什麼 LLM 不能個人化?

ChatGPT 並非 OpenAI 的第一個產品,該公司首個推出的應用是以 GPT-3 為基礎的語言繪圖模型 DALL·E 2,而後才推出具備語言理解和對話能力的 ChatGPT。

經過訓練後的 ChatGPT 有幾個應用,像是腦力激盪、協助創作、提供建議、摘要等功能,尤其是編碼和除錯領域,只要給予 ChatGPT 明確指令,如建立人設與拆解流程,就能完成工作很多工作。

然而,當前 GPT 的限制在於其很可能編造事實(預設為 2021 年 9 月以前的資料),以及最大的問題——沒有長期記憶

由於短期注意力不足,GPT 記不住使用者過去的提示內容,只能根據被訓練的內容回答,以致每次生成都是新的,無法量身打造專屬於個別用戶的回饋(但目前可用 Custom instructions 暫時解決人設問題)。

AI 的未來趨勢:我們該限制的,是什麼?

不只是單純文字,未來 AI 勢必還會朝向音樂和影片製作發展,而且比起維基百科,AI 更強調互動性。

Mohammad Bavarian 演講中談到,透過 AI 模型,很多醫療資源不足的國家能因此大幅降低醫療成本;再者,AI 還能抓出人類的判斷盲點。

過去 Twitter(現在已經改叫 X...)上有使用者分享 ChatGPT 救了他的愛犬一命,該使用者向 ChatGPT 提供了他狗狗生病的症狀和血液檢查數值,ChatGPT 隨後提出了一個原本被獸醫忽視的可能病因。該使用者後來根據 ChatGPT 的回答尋求了第二位獸醫的意見,結果證實 ChatGPT 的診斷是正確的。

AI 能夠完成許多任務,但最重要的,我們還是必須思考如何創造屬於人的價值,讓 GPT 成為 CTO 助人類 CEO 一臂之力。在技術的研發上,更是要讓 AI 能夠安全使用,以及對人類有益。

誠如 OpenAI 的 CEO Sam Altman 在 5 月的聽證會所強調,政府的監管干預是減少風險的關鍵。為了確保 AI 的安全與透明度並降低可能帶來的風險,其中必須建立的三條紅線有:

  • 建立新的政府部門,頒發大型 AI 模型的許可權,並有權撤銷不符合政府標準的公司或模型的許可證。
  • 建立 AI 模型的安全標準,評估其危險性。例如,這些模型必須通過一些安全測試,例如它們是否會「自我複製」或是「向外滲透」(不受人類控制,開始自己行動)
  • 要求專家對模型在各種指標上的表現進行獨立審核。

也就是說,我們要監管的,是 AI 的「潛在風險」,而非「技術發展」。

延伸閱讀:
監管和創新的雙面刃:AI 監管、邊緣運算和鴻海的紀律治理|資訊篇|前導|【怪獸】你與科技的距離 EP3.1

到底,該不該限制 AI 用在教育?

Mohammad Bavarian 的論點為,消極禁止無濟於事,AI 對教育會帶來重大改變,改變人類未來學習方式。未來 AI 會解決很多當前的系統限制,並且以通用人工智慧的樣態廣泛應用於生活各層面。

延伸閱讀:
【怪獸雙週快報#8】不要再焦慮了!2023 GAI年會+OTPR敏捷工作法、終結平庸,主動權還是在懂的人身上

雖然 ChatGPT 無法回答所有用戶的提問,但它能幫助我們找尋答案。例如過去問它今日匯率,礙於資料訓練停留在 2021 年,ChatGPT 會要我們自己去查;但現在,它會幫忙搜索網頁整理答案,並提供資訊來源。

延伸閱讀:
【怪獸雙週快報#13】覺得自己不夠好?你可能有了成就,卻當掉了人生!馬斯克成立 xAI、踏實感的練習+做自己的生命設計師

至於 ChatGPT 對教育領域造成的衝擊,我們該以何種心態面對?

其實,不只有 ChatGPT,這是所有科技導入教育勢必會遇到的問題。在 AI 時代,資料取得與分析會更加容易,然而下一階段我們將面臨的,就是資訊辨識與正確性的挑戰。

Google 在生成圖片的做法是推出生成圖像功能,確保每一張 AI 生成的圖像在原始文件中都有一個標記,讓使用者在平台之外看到它時,可知道該圖片是 AI 標注的。身處現代的我們,更是要善用 AI,養成比對與檢測資訊正確性的能力。


王政皓|怪獸科技公司主筆、vocus Premium 創作者

一個喜歡科技、熱愛閱讀的 ENTJ-A 政大生。曾為 TEDxNCCU 講者部、政大之聲主持人暨新聞部採訪組長,擁有台灣簡報認證(L level)及各式多角化實戰經驗,從 0 到 1 在一年內打造不重複下載數超過萬次的 Podcast、超過千人追蹤的 IG 社群、超過百人訂閱的怪獸雙週快報等怪獸科技公司旗下產品,亦獲 vocus 方格子、Apple Podcast、SoundOn 聲浪、Mixerbox 等平台推薦。

🤖 怪獸科技公司旗下五大版圖

最懂你的 #科技入門:一起培養在快速變化社會的超強適應力

🗣️ 節目|怪獸科技公司 Podcast(每週日晚上 9 點各大平台首播)

✍️ 專欄|怪獸科技公司 vocus Premium 沙龍
🎥 影音|怪獸科技公司 YouTube:來賓焦點訪談✖️重點短影音
🔥 社群|怪獸科技公司 IG:科技✖️時事✖️人生=怪獸科技公司
📰 電子報|怪獸雙週快報:1 則熱門時事分析✖️ 2 本人生思考書摘

分享至
成為作者繼續創作的動力吧!
從 Google News 追蹤更多 vocus 的最新精選內容從 Google News 追蹤更多 vocus 的最新精選內容

怪獸科技公司✖️沙龍 的其他內容

你可能也想看

發表回應

成為會員 後即可發表留言
© 2024 vocus All rights reserved.