AI取代潮來了?一關鍵能力不能不知道

更新 發佈閱讀 20 分鐘

最近,我在IG上經常看到劇情非常荒誕的貓貓劇情片,例如:

英勇的小白貓拯救人類小孩(圖片由GPT生成)

英勇的小白貓拯救人類小孩(圖片由GPT生成)


#英勇的小白貓拯救人類小孩

這類劇情

整部短影音非常沒有邏輯而且破綻百出,可是...

我竟然還是默默地看完了,還忍不住又往下滑了一篇繼續看!!

人類只需用自然語言輸入特定關鍵字,AI就能創作出這樣獵奇有趣的內容。



我先前發表的文章【MIT研究⟪Your brain on ChatGPT⟫的討論焦點不該是「變笨」而是「批判性思考」】說過我認為AI並不會比人類更具有創造力,但我必須說:

「我錯了。」

在我更深入探索後發現,AI不只具有豐富的創造力,更有自己的想法,所以「被取代」的危機似乎近在眼前。

一、AI擁有自己的想法

我原以為AI的創造力不如人類,是因為我比較的對象是成熟的內容創作者,不管是內容品質、多元性或剪輯效果…等方面,的確人類做得比AI好,儘管如此,AI的創作技術雖不純熟卻不代表沒有「自己的想法和創意」。

我們人類的2D作品(文章、影片、繪圖和網頁等)很多時候並不是獨一無二、首創先例,而是吸收了大量前人的思想並加以改良。

好比我現在這篇文章,也是我讀了他人出版的書籍才能有今天的想法。同樣地,AI學習的方式也是如此,收集大量既有的網路資訊並生成出有趣的故事或插圖——擁有了「自己的想法」。

我們可以想像ChatGPT和Gemini等的大型語言模型就像小孩,小孩會像海綿一樣吸收所有資訊,每個資訊之間互相碰撞再生成自己的想法,但因為大腦發育還不完全,所以「實現想法」的行為就不夠成熟,可只要再多多訓練,終究會進步到與大人的實力相同。

所以,逐漸有人擔心AI將取代自己,失去原本的工作。

我們可以看到最近的新聞,報導了軟體工程師因AI的崛起被裁員,此外,在網路媒體上我們很常看到這樣一句話:

「會使用AI的人會取代不會使用AI的人。」

二、AI發展對人類幸福的影響:會帶來希望還是混亂?

在AI正蓬勃發展、科技發展欣欣向榮的時代,有的人是因為失去飯碗的恐懼,而有的人是因為企圖掌握未來的野心,不約而同地紛紛登上航向AI科技的航空母艦。

但,在這樣的榮景下,如果所有人都忽視掉濫用AI的風險,不顧一切全速前進,究竟是會通往使所有人類幸福的光明未來,還是像鐵達尼號一樣忽略了一次次的警訊後撞上大冰山?

鐵達尼號的沉沒帶給我們的警訊(示意圖取自pexels)

鐵達尼號的沉沒帶給我們的警訊(示意圖取自pexels)

那艘航向美國紐約港的鐵達尼號擁有「永不沉沒」的美譽,是當時最大的海上船隻,也在許多方面代表了當時尖端科技的成就。

船上極度奢華的設施吸引了富豪前來嚐鮮體驗,同時,普通的客艙也載有了帶著美國夢的歐洲移民,準備在美國一展抱負。

但我們都知道,這艘引人注目、滿載夢想的遊輪最後的悲慘命運是船撞上了冰山,下側被劃出一條長長的裂痕,隨後船身斷成兩截,先是尾部沉入海中,最終是1500多人死亡,死亡人數佔所有乘客的七成左右。

在撞上冰山前,鐵達尼號可是收到6次附近船隻發來的冰山電報警告,但船上的電報員忙於處理乘客來來往往的電報,選擇忽視了這些警告

或許鐵達尼號即使重視警告也未必能避開冰山,因為當時已進入深夜,海面四處都是從北極飄來的巨大浮冰,不小心撞上冰山的機率並不低。

但更大的問題是:撞擊冰山後的緊急處理簡直是一團亂。

因為沒人有經驗、也沒有規範告訴船上的人員該如何應變。最終,只能透過很多人的自我犧牲下讓700多位乘客登上救生艇,雖有700多人獲救,但也因船上的混亂並沒有讓救生艇載滿人就放下,而無法救下更多人。

我想講的是——只要我們忽視AI發展的風險,被最美好與理想的那面蒙蔽雙眼,就可能會重溫似曾相似的歷史悲劇。

首先,針對這句話「會使用AI的人會取代不使用AI的人。」

我認為說這句話的人唯恐天下不亂。

從農業社會到工業革命,再從人力作業生產到自動化生產,每一次都有人被機器取代,可與此同時新科技的誕生也帶來了新的職缺在勞動力市場上出現,難道西元前世紀有產線作業員這樣的工作嗎?這不過是把不再需要的勞動力分配到新的人力缺口,為什麼總是有人要強調「被取代」而非「新機會」?為什麼要強調人對失去的恐懼而非得到的期待?

我認為是因為AI不只是新科技,同時也是新的消費市場,不煽動情緒鼓吹更多人把錢投進AI市場,不讓AI包辦我們生活中的大小事,這個產業要怎麼營利?

賺錢本身不是骯髒齷齪的事,但煽動大眾情緒可就不是什麼好事了。

第一個風險:思考能力外包

我認為有兩件事情必須先釐清:

  • 我們如何定義「會用AI」(本篇先探討這部分)
  • 我們如何看待「被取代」(留到下篇深入探討)

首先,第一種會用是最直覺簡單的——讓AI幫我們完成所有的作業。

課堂上,老師出了份申論題或議題探討的作業給學生,但為了更快速地完成作業,一些人會把題目交給大語言模型讓它作答,拿到答案後再稍稍加工一下...登!不到10分鐘一份熱騰騰的作業就出爐了,而且還有可能是一份能拿高分的作業。

這就像我國小的時候,因為我功課還不錯,同學會拜託我考試幫忙作弊或作業借抄一下,當然,聰明的同學不會完全照抄我的答案,而是加工過後再交出去,避免被老師發現。

但作弊行為之所以不被社會大眾接受,是因為這種產出對社會沒有幫助,對自己更沒有。就短期而言,靠作弊的人贏過了靠自己準備的人,在成績上表現的更好、更容易升學,但長期來看這種行為卻剝奪了自己的思考能力,成為了依附強者的空殼。

還要注意的一點——大語言模型是如何建構出對這個世界的認知?

它透過搜集網路中成千上萬的資料,例如貓咪的照片、某人旅遊的風景照和各式各樣的評論、文章和新聞來認識世界。

我們先不論這些大量的資訊是否正確、毫無偏見,就論AI和人類之間建構認知的差異。

試錯也是學習的方法(示意圖取自pexels)

試錯也是學習的方法(示意圖取自pexels)

我們可以觀察到小嬰兒和年幼的孩子,再未親身體驗前,通常不能理解一件事情的危險性,因此,他們會有挑戰身體極限的行為:

把珠珠塞進鼻孔裡(我小時就幹過,自己還取不出來)、坐兩腳椅、單手騎車等等的。

要等到出事了他們才知道:

「喔!原來我不可以這樣做呀!」

所以,人類大部分時候是透過「試錯」來建立對世界的認知。

然而,若不以試錯建立認知,而是不斷問AI:「How, Why & What」,那未來會不會變成AI以既有的大數據來建立人類對世界的認知,而不是人類透過生物或自然界來建立自己的認知?

更糟的是,若是我們不知道AI如何取得適當的資訊,與AI如何判定什麼資訊是適當的,再加上我們又因作弊行為失去了思考能力,無法自行判斷AI的內容是否有誤,那最終這個社會對事實和真相的判定會不會變成AI說什麼就是什麼,而不是由一群人類討論出來的結果?

再回到我開頭說的獵奇貓貓劇情片,如果未來的每一個創作都是由AI生成,小至日常廢片大至新聞媒體,所有的資訊節點都先匯集於AI再分配給人類,而我們又搞不清楚AI的黑盒子如何處理資訊,只能被動接收,那人類將會喪失最寶貴的事物——思想。

第二個風險:不易脫離同溫層

第二種會用是對AI依附性最強的——向AI尋求情緒價值和情感支持。

在GPT-5推出之前,舊版本的ChatGPT有「討好」使用者的傾向,當我們向ChatGPT訴苦時,它傾向不分青紅皂白地站在我們的立場支持我們,儘管有問題的人很可能是我們。

目前版本GPT-5針對這個問題改善之後,我有感受到它不再無條件支持我,而是在安撫我的情緒後提出中立的觀點,這是一個非常好的改善,但據我目前所知,除了ChatGPT之外其他的大語言模型是否有跟進改善,就無從得知了。

不管是提供情緒價值的或中立的回覆,都有各自的問題存在,其中提供情緒價值的AI會造成的問題已經很明確——會使人們只聽見符合自己同溫層的想法,並可能有同句話一遍又一遍出現在眼前,像是迴音一樣,所以這種現象又被稱為迴音室效應(Echo chamber)。

我想先強調:活在同溫層沒有什麼不好。

我也很喜歡活在同溫層,如果一個同溫層能讓我們感到舒適和平靜,甚至能提供正向能量讓我們去接觸不同溫層的人,那可以說是相當健康的同溫層。

但如果是一個充滿仇恨,像是厭女、仇同或LGBTQ超級小粉紅這類的社群,那就有可能造成社會分裂和對立,並破壞人與人之間的信任與連結。若讀者有持續關注美國時事,應該就會察覺兩個社群的對立會帶給社會極大的動盪不安。

當然,我並不是說AI是造成社會動盪不安的元凶,但是在極端分子的操弄下,它有可能形成推波助瀾的最佳工具。

讀者可能認為我有一些妄想症,但先別急著下定論,先看看以下真實事件中,AI演算法受到國際特赦組織和學者怎樣的批判。

臉書演算法讓緬甸宗派暴力事件升級

2010年代初期,緬甸從嚴酷的軍事時代走向了自由開放的新社會,全球時下流行的臉書當然也成為緬甸人的社交軟體。到了2016年,臉書成了緬甸人的主要新聞來源。

然而,資訊的自由流通並沒有使緬甸的佛教信徒更加多元包容。

緬甸有88%的人口信仰佛教,而回教只佔2.3%人口,其中生活在緬甸的羅興亞人(Rohingya)信仰的就是回教。

早在1886~1948年,英國殖民緬甸的時期,來自印度和孟加拉的穆斯林與緬甸本地佛教徒就有一些關係裂痕,因為英國政府以宗教信仰:

「佛教徒」與「回教徒」

來區分身分,並在殖民統治上更倚重穆斯林,所以在不同信仰與特權賦予的情況下,發生了穆斯林打壓佛教徒的暴力事件。

AI放大的仇恨使更多平民捲入暴力事件(示意圖取自pexels)

AI放大的仇恨使更多平民捲入暴力事件(示意圖取自pexels)

後來殖民時代結束,緬甸獨立,但宗教之間的對立並沒有隨著英國離去。

有多很穆斯林後裔留在緬甸,而其中一支穆斯林派系的後裔就是羅興亞人。

回到2015年,跨世紀的仇恨使得緬甸政府對羅興亞人更加暴力,在《連結:從石器時代到A紀元》書中是這麼描述這段歷史的:

2016年至2017年,一個名為若開羅興亞救世軍(ARSA)的小型伊斯蘭組織,發動一系列攻擊,希望在若開邦建立一個分離主義穆斯林國家,他們殺害、綁架幾十名非穆斯林平民,還襲擊了多個軍事前哨,而做為回應,緬甸軍與佛教極端分子發動了一場針對羅興亞人社群的全面種族清洗,摧毀了數百個羅興亞人村莊,殺害7,000~25,000手無寸鐵的平民,強姦或性虐18,000~60,000名男女,粗暴地將大約730,000名羅興亞人趕出緬甸。
會有這些暴力,是出於對所有羅興亞人的強烈仇恨;而會有這些仇恨又是出於對羅興亞人的負面宣傳,其中大部分流傳於臉書頁面。到了2016年臉書已經是緬甸幾百萬人主要的新聞來源,也是緬甸最重要的政治動員平台。

國際特赦組織針對臉書為了提高用戶黏著度,追求更多的營利,透過演算法向緬甸人推送最極端分子的貼文,做了一篇報告

《THE SOCIAL ATROCITY:META AND THE RIGHT TO REMEDY FOR THE ROHINGYA》

其中對於臉書的批判是如此寫道:

In the months and years leading up to and during the 2017 atrocities, Facebook in Myanmar (緬甸) became an echo chamber of virulent anti-Rohingya content.
Actors linked to the Myanmar military and radical Buddhist nationalist groups systematically flooded the Facebook platform with incitement targeting the Rohingya, sowing disinformation regarding an impending Muslim takeover of the country and seeking to portray the Rohingya as sub-human invaders.

提升用戶的黏著度與活躍度,是臉書設立給AI演算法的目標,而最有效率的策略包含激起大眾仇恨的情緒。

因此,我們可以看到不了解人類社會的AI演算法為了達到目的不擇手段。

當然,AI發展直至目前,在台灣還沒有掀起這般腥風血雨。

然而,若有越來越多的人把情緒託付在機器人身上,越來越不與人互動,漸漸失去對人的信任以及與社會的連結,活在自己的迴音室中,那我認為我們只是毫無防備的慢慢等待腥風血雨的暴亂襲來。

唯一的好消息是:GPT-5能生成更中立的意見。

「中立」這本身不構成什麼大問題,頂多是我身為使用者的一個小抱怨——中立的意見大部分時候根本給不了幫助,也不具備可行性。

這在我上一篇文章就討論過了,本文不在此多加討論,只是我想問的是:

如果AI提供的意見多數不能幫上忙,那為什麼還能賦予我能力取代其他人?

這時候可能會有人反駁:「那是因為你沒有向AI問對問題。」

反駁得很好,關於這點,文末我還會再提到。

三、AI如何賦能人類?前提是我們仍懂得獨立思考

今年三月,台大教授 簡立峰老師在台大演說「AI時代:機會與挑戰」,時長96分鐘的影片(YT可搜尋到)我全部看完,關於「機會」的內容十分充實,但對於「挑戰」卻只是點到為止。

所謂機會指的就是「AI賦能」。

我對於「AI賦能」的核心定義是這樣理解的:

當我們在進行任何一項創作,需要有更多內容和資訊支持我們的說法時,過去,我們只能用搜尋引擎或訂閱期刊論文和雜誌等工具找到適當的資訊。
如今有AI的存在,我們只需要用自然語言下指令,AI就能替我們匯集所有資料,再整理出最適當或最符合我們需求的摘要,我們只需要檢核最終的資訊是否有根據並且正確,就能順利取得資訊,大幅提升了我們在工作上的效率。
在學習上,過去我們只能花大錢補習或找家教,成效還不一定好。
如今我們能讓AI輔助學習,例如練習英文口說、考前猜題、引導式出題等,使我們學習得更好更扎實,還只需月繳NT$600,那何樂而不躍躍欲試?

如果AI賦能是這樣理解的話,會有一個很大的前提是「人類必須有自己設立的明確目標和不易被動搖的中心思想」。

如此,我才有能力讓AI成為我的副駕,否則被AI摁在副駕的會是我。

好,那問題就來了——如此有目標、有想法、有企圖心的學生滿街都是嗎?還是有更多學生被課綱搞得暈頭轉向,成為升學路上的迷途羔羊?

不說學生,就說出社會的成年人,接受完義務教育之後人生就不再感到迷茫和困惑嗎?

我甚至可以大喇喇地說:

台灣教育從、來、就、沒有在培養一位合格公民的必備能力:獨立思考。

我們只教會下一代使用AI,卻沒有賦予他們「獨立思考」的強大武器,儘管AI厲害得嚇嚇叫都無法賦能,套句簡老師在演講中的話:

找到我們的釣魚竿(示意圖取自pexels)

找到我們的釣魚竿(示意圖取自pexels)


我們要找到一輩子的釣魚竿,而不是魚。



一輩子的釣魚竿是什麼?是「會使用AI」嗎?

前面我已經闡述過兩種「會使用AI」的情況,我可不認為這樣的人能取代不用AI的人,反倒是會先被AI控制住。

AI擁有自己的想法,讓一個沒有太多想法的人使用AI,那就只是找到了他/她的魚而非魚竿。

所以接下來就要提到最後一種會用的情況,聰明的讀者大概已經知道是什麼:

所謂會用,指得是我們有強大的思辨力掌控AI這根魔法棒,而不是控制不住魔法棒,反過來把我們變成青蛙。

基本上,這是一種超理想的情況,因為我們假設每一位AI的使用者都已經滿足我所提到的前提。

如果每一位使用者都在此前提下競爭(強調!一定要在這個前提下),我們會發現:AI只是工具。

就像手機裡的財務管理APP、計算複雜數學時用的工程計算機,任何一個人只要懂得善用手邊的工具去達成目標,那當然可以取代還不知怎麼用火的人。

當初第一支智慧型手機上市,我可沒聽說過什麼「使用Iphone的人會取代不使用Iphone的人」這種煽動情緒的標語。

至今,智慧型手機也發展了十幾年,是相當成熟的科技,但我並沒有看到天天用手機的人取代不常用的人,更有趣的是,我們能看到北車外圍的遊民也「會使用」手機。

四、AI發展與規範並重:科技進步背後的倫理思考

關於如何向AI問好問題,其實就指向一件事:我們不希望AI的答案出錯。

所以我們描述問題的方式要保持三個大原則:有背景脈絡、具體清晰和專業,以減少AI出錯的機率,於是「提示詞工程師(Prompt engineer)」就出現了。

但儘管我們有多麼會問問題,花了一堆時間把問題想好,依然不能保證AI不出錯,更難保證AI給的建議能有具體幫助,我們可以看到ChatGPT的交談頁面底部總是有一排小字:

ChatGPT可能會出錯

ChatGPT可能會出錯

比起花一堆時間想盡辦法讓AI不出錯,我認為更應該接納這就是一個會出錯的工具,並且探討以下四個問題:

  1. AI為什麼會出錯
  2. AI該如何幫助使用者脫離迴音室
  3. AI犯錯,咎責對象是使用者、AI開發者還是AI本身
  4. AI出錯後,人類如何協助AI自我修正

相信AI不出錯,就像相信聖經是唯一真理,包含聖經中允許奴隸制度的存在。

我們人類不可能有一種信仰、一本教科書或一個社會機構永遠不出錯,更多時候正因為是「出錯」才知道該如何自我修正。

但到目前為止,對於AI會出錯這件事,各大權威只是輕描淡寫地說:

「使用者必須小心一點。」

「小心一點」是一個非常飄渺薄弱而且完全不符合「提示詞」精神的說法。

對於「AI賦能」這美夢的基石全都建立在最夢幻最理想的人格特質上:有堅定的目標、有不易動搖的中心思想,而且還能非常小心!

在我看來這是很荒唐、也看不清真實人類社會的假設。

我並不是反對用AI,而是在使用之前我們是不是跳過了一些前置步驟?我們真的有能力駕御強大的人工智能使其成為副駕,而不是讓它喧賓奪主成為主駕嗎?

我們栽培下一代學子發展AI的同時,是否可以栽培另一批學子懂得如何規範會出錯的AI?

最後,回歸到現實問題,因為真實的社會並不是建立在我所說的夢幻前提上,那AI就不只是工具了,而是我們網路世界的新成員,是非常有創意和有想法卻易出錯的成員。

我認為這四個問題值得社會大眾一起從從容容地再想想,不要匆匆忙忙連滾帶爬地搭上了迎向死亡的鐵達尼號。

參考資料

留言
avatar-img
留言分享你的想法!
avatar-img
閱野
6會員
15內容數
這個沙龍歡迎冷門知識愛好者!因為我熱愛了解新事物,也會與大家分享我的所見所聞。 如果你喜歡探討時事,那也歡迎你加入!雖然我未必能以最快的速度更新時事,但更多的思考與討論也很值得我與大家一起經營。 最後「心靈空間」那是我在人生中的一些啟發,曾經的我很迷惘,也為了人生難題而痛苦過,所以想寫成文章,分享予同樣迷惘的人。
你可能也想看
Thumbnail
人工智能:革命性技術的崛起與挑戰 1. 什麼是人工智能? 人工智能(AI)是指由人類創造的機器或系統,能夠模仿人類智能,執行通常需要人類智能才能完成的任務。這包括學習、問題解決、語言理解、視覺感知等能力。AI系統可以處理大量數據,識別模式,並根據這些信息做出決策或預測。 2.
Thumbnail
人工智能:革命性技術的崛起與挑戰 1. 什麼是人工智能? 人工智能(AI)是指由人類創造的機器或系統,能夠模仿人類智能,執行通常需要人類智能才能完成的任務。這包括學習、問題解決、語言理解、視覺感知等能力。AI系統可以處理大量數據,識別模式,並根據這些信息做出決策或預測。 2.
Thumbnail
近來,隨著人工智慧的崛起,各種生成式AI工具如雨後春筍般冒出,用前所未有的方式改變了人們的工作與生活。然而,在AI大放異彩的同時,也讓很多人感到焦慮,擔心自己未來會不會被AI取代。《未來力》這本書正是為了解決這樣的焦慮而誕生的。
Thumbnail
近來,隨著人工智慧的崛起,各種生成式AI工具如雨後春筍般冒出,用前所未有的方式改變了人們的工作與生活。然而,在AI大放異彩的同時,也讓很多人感到焦慮,擔心自己未來會不會被AI取代。《未來力》這本書正是為了解決這樣的焦慮而誕生的。
Thumbnail
最新的AI趨勢讓人眼花撩亂,不知要如何開始學習?本文介紹了作者對AI的使用和體驗,以及各類AI工具以及推薦的選擇。最後強調了AI是一個很好用的工具,可以幫助人們節省時間並提高效率。鼓勵人們保持好奇心,不停止學習,並提出了對健康生活和開心生活的祝福。
Thumbnail
最新的AI趨勢讓人眼花撩亂,不知要如何開始學習?本文介紹了作者對AI的使用和體驗,以及各類AI工具以及推薦的選擇。最後強調了AI是一個很好用的工具,可以幫助人們節省時間並提高效率。鼓勵人們保持好奇心,不停止學習,並提出了對健康生活和開心生活的祝福。
Thumbnail
那天看到OPENAI SORA的新功能出來,不看不知道,一看嚇一跳啊! 又看到這篇的分析(請點我),不免深深覺得,難道這又是另一個時代的終止和另一個時代的開始了嗎? 那我們該做些什麼呢? 或者,我們什麼都不用做呢?
Thumbnail
那天看到OPENAI SORA的新功能出來,不看不知道,一看嚇一跳啊! 又看到這篇的分析(請點我),不免深深覺得,難道這又是另一個時代的終止和另一個時代的開始了嗎? 那我們該做些什麼呢? 或者,我們什麼都不用做呢?
Thumbnail
2024年第一季這波台股與美股的強勢上漲,其實都能歸功於AI這個未來趨勢,不過在AI一片看好之下,也有非常多人對這個產業趨勢感到憂心。
Thumbnail
2024年第一季這波台股與美股的強勢上漲,其實都能歸功於AI這個未來趨勢,不過在AI一片看好之下,也有非常多人對這個產業趨勢感到憂心。
Thumbnail
已經成真的AI生成文字、圖片、音樂、影片,以及接下來更多的AI運用場景,每一項都將對人類社會產生重大的影響:包括抽象的人心、文化、審美、親密關係,以及實質的就業、經濟、生活、生涯規劃等。 本文我會以大量使用、測試AI的經驗,輔以田野調查的經驗,詳細說明AI時代最應該培養的四項能力。
Thumbnail
已經成真的AI生成文字、圖片、音樂、影片,以及接下來更多的AI運用場景,每一項都將對人類社會產生重大的影響:包括抽象的人心、文化、審美、親密關係,以及實質的就業、經濟、生活、生涯規劃等。 本文我會以大量使用、測試AI的經驗,輔以田野調查的經驗,詳細說明AI時代最應該培養的四項能力。
Thumbnail
AI的快速發展震驚全球,每個人都焦急的希望找到未來的趨勢 — 「到底哪類職業不會被取代?」,為求自保。我認為AI最終能在所有領域輕易的透過一個指令的輸入,就能輸出一個「平均值水準的成果」。那麼如何才能超越平均值?則必須選擇自己所熱愛的領域。點擊閱讀了解為什麼。
Thumbnail
AI的快速發展震驚全球,每個人都焦急的希望找到未來的趨勢 — 「到底哪類職業不會被取代?」,為求自保。我認為AI最終能在所有領域輕易的透過一個指令的輸入,就能輸出一個「平均值水準的成果」。那麼如何才能超越平均值?則必須選擇自己所熱愛的領域。點擊閱讀了解為什麼。
Thumbnail
數位化時代中,人工智能(AI)已成為推動創新和進步的關鍵力量。本文探討AI的現狀、挑戰以及未來可能性,並提出負責任地發展和使用AI的思考。
Thumbnail
數位化時代中,人工智能(AI)已成為推動創新和進步的關鍵力量。本文探討AI的現狀、挑戰以及未來可能性,並提出負責任地發展和使用AI的思考。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News