欸!連Google都對台灣政府提「AI建議」了,我們熱騰騰的「AI基本法」草案真的很重要!不要不相信,AI股雖然跌,但AI真的正在改變我們的生活🥵
以前要預測颱風路徑很仰賴人類判讀,而且會隨時間接近持續(大幅)修正,因此我們一直到前1天才比較確定凱米會登陸。但是!這次NVIDIA的氣象模型,早在4天前就估計凱米會直撲台灣,那天也就是凱米「剛生成」的時候…
很不可思議吧!這其實就是今年6月2日,黃仁勳在台大演講所提到的「數位孿生地球」,也就是利用AI技術模擬地球大氣環境來演算,達到「預知」未來的可能。所以,AI基本上算是一種「工業革命」了,它準備「顛覆」人類未來的發展歷史。
但也不只有「好事」啦,那些讓人意想不到的「大麻煩」也正在路上。就好像,臉書剛出現時,大家都覺得充滿希望、偷菜好好玩,但誰也沒想到在10幾年後,它卻也成為讓人頭痛的「殺人工具」。
於是,各國其實都加緊腳步要「監管AI」,而台灣,終於在7月15日提出「第一份官方AI基本法草案」。這次我們會用生活化例子來解讀這份草案,也一併納入上週剛生效的歐盟「人工智慧法」、還有美國及英國經驗,試著用更全觀的視角和大家一起認識「AI監管/治理」。
文長,但別怕!這樣看少負擔:
找有興趣的數字標題0️⃣→看內文→延伸閱讀
-用生活化例子,輕鬆讀懂台灣官方第一份「AI基本法」!
2023年6月,我們的專題共盤點6個「AI可能造成的幾種社會問題」,包含:「著作權或版權議題,像是AI孫燕姿」、「從隱私議題出發,到數位足跡、數位勞動議題」、「錯假訊息」、「科技巨擘的壟斷議題」、「倫理議題,如歧視、不平等、侵害人權」、「取代議題,如工作因AI接手而消失」。這些問題,可以搭配等下的草案內容一起服用,也歡迎點延伸閱讀看看之前的專題。
另外,這屆立院國民黨有位「科技立委」葛如鈞,他在過去質詢時都特別關心台灣的AI政策,於是我們先來看看他關心哪些AI面向。首先,他特別關心行政院何時推出「人工智慧基本法」,因為他認為台灣需要整體性的AI政策藍圖,包含AI算力建置、AI人才培育、投資並鼓勵AI產業發展(如邀請國際AI大廠來台投資)等。
他也認為,隨著相關應用普及,AI對民眾權益或社會安全都可能造成威脅,因此政府也需要及早因應,比方說他就督促國科會在AI政策上,也應該對「打擊詐騙」方面有所著墨,因為這也是美、歐等國的重點之一。
延伸閱讀:
台灣媒體觀察教育基金會》定義AI,以及盤點AI可能造成的「社會問題」|https://mediawatch.pse.is/6a4wxp
信傳媒》吳誠文上任加速《AI基本法》修訂 葛如鈞:不只半導體 台灣的AI軟實力非常強|https://mediawatch.pse.is/6a4wzs
這份草案處理的主要有4大範疇,分別是「創新合作及人才培育」、「風險管理及應用負責」、「權益保障及資料利用」、「法規調適及業務檢視」。此外,草案中也明確指認出台灣政府對AI的態度及定義,包括在台灣使用AI時,應強化哪幾項價值觀。以下節錄重點:
📌以法的層級,宣示「國家對AI的態度」
法案§1就指出制訂AI基本法是為了促進AI落實「以人為本」的重要目標,包括維護「人民」的各種安全、權利、福祉;同時,AI也應該要能維護「國家」的「文化價值」、競爭力,確保國家得以永續發展。§3也強調AI應該兼顧「社會公益」及「數位平權」,而終極目標是「良善的AI」。
事實上,科技發展背後往往離不開「經濟利益」的競奪,就像黃仁勳原本用來展示NVIDIA合作夥伴的圖卡,馬上被標上各式各樣的股票代碼。在「經濟力」驅動的狀況下,勞工、使用者、消費等「個人」的利益往往被犧牲,所以法規才必須特別強調「人民」的保障。另外,台灣的技術硬實力相當強悍,而相對的藝術、文化等社會「軟實力」長期被忽視,尤其當「AI-數據-文化」的關係密不可分,就像ChatGPT經常用「簡中」回答就是一例,於是法規明訂「維護文化價值」,是非常重要也值得肯定的宣示。
不過,這些都還好空泛,具體來說到底AI要遵守哪些「價值觀」?
§3中就明確列舉7項原則,包括「1.永續發展與福祉」、「2.人類自主」、「3.隱私保護與資料治理」、「4.資安與安全」、「5.透明與可解釋」、「6.公平與不歧視」、「7.問責」。你看完會不會有種「所以很厲害嗎?」的感覺,但隨著後面我們慢慢解釋它如何具體化成一個規範,或許就會意識到它的重要性。另一方面,這些高層次宣示其實會默默框架出台灣AI研發、應用和法規面的形狀。
比如說「人類自主」就很值得討論,因為不考慮技術限制,「AI能否完全取代人類」其實是哲學上的選擇題,也就是你要他會他就會、要他不會他就可以不會,而這條規範就明確宣示台灣的立場:我們堅守人類存在的價值,也就是人類應該保有自主性及優先性、並能監督AI,同時AI應落實法治及民主的觀念。
📌「AI是什麼」眾說紛紜,那台灣怎麼定義?
要立法管AI,那當然需要先定義AI是什麼。根據§2,AI的定義為:「本法所稱人工智慧,係指以機器為基礎之系統,該系統具自主運行能力,透過輸入或感測,經由機器學習與演算法,可為明確或隱含之目標實現預測、內容、建議或決策等影響實體或虛擬環境之產出。」
定義落落長(躼躼長,lò-lò-tn̂g),但我們可以找出一些重點。像是AI應該是透過「輸入或感測」得到資料後,機器能夠「自主運行」後,給出「預測、內容、建議或決策」,換句話說,在這個定義下這兩個例子看起來像AI,但其實可能不是AI:
①聲寶的「聲控電風扇」雖然可以在收到使用者的語音後,執行相對應的任務,但它不會自己學習而只是根據預設指令動作,顯然不屬於AI;
②另一個例子是「智慧定時咖啡機」,也就是你透過手機設定它在特定時間煮咖啡給你,但它同樣缺乏「機器學習」特徵,並不屬於AI。
「AI定義」對一般人來說雖然不是到太重要,但是,當我們在制訂法規、技術開發、學術研究時,定義就變得非常重要,因為它不僅告訴我們邊界在哪,也才能確定討論有在同一個水平面上、不是雞同鴨講。另外,在「解讀焦點」我們會討論國外的AI規範,屆時也能一起比較在定義上各自「強調」或「淡化」什麼?
📌台灣「AI治理」的三、枝、箭!
第一枝箭是「風險管理及應用負責」,法規為§9.10.11.12。
風險管控的主要對象是AI「應用」面,而非「開發」或「研究」,是希望避免AI應用造成人民、社會及生態環境的損害,也不能違反現有法規,例如歧視、廣告不實、錯假資訊等。要做到這件事,法規要求政府(特別是數發部)有義務建立「能與國際接軌」的「風險分級框架」,也要建立「咎責或救濟補償等規範」,以強化AI的「可信任度」、「可驗證性」、「人為可控性(如我們可以更改ChatGPT的記憶)」、「明確責任歸屬(如AI出事了,誰該負責)」等。
第二枝箭是「權益保障及資料利用」,法規為§13.14.15。
事情往往是一體兩面,AI會帶來好處,也一定有「壞處」,就像國道ETC上路後導致近千人失業、微軟當機就導致機場大亂等。所以這部法規特別強調對勞工的保護,包含「確保勞動權益」、「協助輔導就業」,像是AI加入職場可能威脅職場安全(如因不瞭解帶來的危險)、勞資關係(如老闆動不動威脅資遣你)、職場友善(如情勒你不如機器)等,而政府更有責任幫助那些因此失業的人。此外,「資料」作為AI時代的「新石油」,這部法規一方面要求加強「個資蒐集、處理、應用」的保護措施,另一方面也強調需建立「開放、共享、可再利用的資料平台」,除了為提升台灣資料的品質及數量,也要確保AI訓練結果能彰顯「國家多元文化價值」。
第三枝箭是「創新合作及人才培育」,法規為§4.6.7.8。
如果說前兩枝箭是「棒子」,那這就是「胡蘿蔔」。基本上就是政府有義務創造友善AI發展的環境,包含盤點並規劃資源(如AI算力等基礎建設)、提供財政優惠措施(如補助、減稅、獎勵等)、建置創新實驗環境(如沙盒制度,提供受控環境供開發及測試用)。這部草案也鼓勵「政府與民間合作」,在其權責之下推動AI創新運用,比如自動駕駛公車就是一例。教育方面,法規明訂政府有義務在學校、產業、社會、公務機關,推動「人工智慧素養教育」,加強大家對AI的認識。
📌AI當道,台灣政府有什麼責任?
§5.16.17則規定,政府需要做「法規調適及業務檢視」,也就是因為AI這項新科技的出現,需全面盤點「現有法規的解釋及適用」、「各部會之業務執掌」,若有規範不周、定義不清,或者有需要調整之處,政府都應該要做出調適。另外,當政府要使用AI「執行業務」或「提供服務」時,法規特別要求需落實「風險評估」、「風險因應措施」、「制訂使用規範」,來符合前面所提到的7點價值觀,有以身作則的味道。
延伸閱讀:
國科會》「人工智慧基本法」草案|https://mediawatch.pse.is/6adpz4
數位時代》Google也提「AI白皮書」,給台灣政府建議|https://mediawatch.pse.is/6atmmk
首先,第一個必須強調的重點是——這只是個「基本法」!所以它雖然提供「全面」的治理框架,但內涵也只是相當「粗略」的原則性規定。也就是說,就算「AI基本法」通過,真正要落實在日常生活中,還是必須等到相關部門各自去立法、修法,我們才會真正感受的到。
事實上,根據《經濟日報》的報導,相關官員也指出「國科會是制訂大框架,接下來各部會需要一起合作、提出配套法案」。舉例來說,因應AI基本法要求,數發部就可能提出「AI應用面風險控管草案」;而如果是跟「AI使用新聞當作訓練材料」有關的新聞議價法案,經濟部可能也得一同納入研商。
綜合來說,「AI基本法」作為最上層的法案,不僅提供「台灣如何看待AI定位」最高層次的指引,它更是一種「宣示」,就像§1.3所提:AI科技應該「以人為本」,不論在開發或應用階段,它都應該保護到人民的基本權利、堅守「社會公益、數位平權、人類自主、民主法治」的良善底線,這是我們永遠不能妥協的堅持。
-也來看看歐盟「人工智慧法」,還有美國、英國怎麼做!
人工智慧法(Artificial Intelligence Act,簡稱AIA),在2021年首次提出草案、2023年歐洲議會通過、2024年2月歐盟27個成員國全數認可,最終在今年5月正式通過AIA。雖然AIA表定的生效日期是2024年8月1日,但這不代表法案已經開始適用。事實上,AIA的適用是循序漸進的過程,比如預計明年2月部分禁令才開始上路,而AIA完全上路大概要等到2027年。
AIA之所以關鍵,除了它是「全球首部」之外,更重要的是歐盟作為很大的政經文化體,它具有「標誌全球標準」的力量,例如過去的GDPR、DSA、DMA都是活生生案例,而且若違反將面臨高達全球年營業額7%的罰款。那,AIA管些什麼?
📌對AI的定義
在AIA的§3中「人工智慧系統(AI system)」被定義為:「能以不同程度自主運行的機器系統,並且在部署後『可能表現出適應性(adaptiveness)』,且為了明確或隱含的目標,可從其收到的輸入,推論出如何產生得影響實體或虛擬環境的輸出,例如預測、內容、建議或決策。」
‘AI system’ means a machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments.
📌把AI分為4種風險等級
1.不可接受的風險(unacceptable risk)
是完全被AIA禁止的,比如社會評分系統、操控人類行為、情緒偵測等都算是
2.高風險(hish-risk)
則是AIA最主要的監管對象,只要它們在歐盟使用,就需要受到相關的評估核准、也需確保有真人監督AI運作,像是用在關鍵基礎設施(如道路交通)、教育(如考試自動評分)、健康(如疾病診斷)、金融(如信用貸款)、聘顧(如自動面試)等領域的AI系統
3.有限風險(limited risk)
主要透過要求落實透明度的方式監管,像是要讓用戶意識到他在與AI互動,這類應用包括聊天機器人、社群媒體推薦系統等
4.低風險(minimal risk)
則不受監管,例如垃圾郵件過濾器、包含AI的電玩等。至於生成式AI,它屬於額外的GPAI,不屬於這4種風險等級。
📌特別規範「通用人工智慧(GPAI)」
由於翻譯緣故,AIA中「通用人工智慧」指的是「General Purpose AI」,也就是像是GPT、Dall-E、Claude等能夠應用在「多種」任務和情境的系統;而不是指稱具有類似人類智慧和自學能力的AGI(又稱強AI)。
由於GPAI可以廣泛部屬,就像AI界的基礎建設,所以它如果出問題,將連帶影響諸多下游應用,造成更全面而嚴峻的風險。而「生成式AI」就包含在GPAI的範疇裡。
因此AIA特別將GPAI獨立為一章,格外要求它的「透明度義務」,像是需提供技術文件、使用說明、提供訓練AI所用之資料等;更進一步,若屬於有系統性風險的GPAI(判斷標準為大於10^25 FLOPs),還要負擔「額外義務」,像是需進行模型評估、對抗式測試(如模擬攻擊等)、確保網路安全保護等級,並有責任向歐盟政府報告「嚴重事件」之發生與因應措施。
📌使用AI,必須「標記註明」
DeepFake與AI生成的錯假資訊是社會各界最頭痛的問題,主要原因就是「太真了,所以很難分清楚是不是人為的」。為了解決這個問題,AIA強制使用DeepFake技術時必須「標記」,即便是為了藝術或創意用途也無可赦免;而針對ChatGPT等生成式AI,如果文本「跟公共利益有關」、「缺乏人工審查」,也強制一定要用浮水印等方式標註,讓人們得以察覺AI的存在。
延伸閱讀:
歐盟》AIA全文|https://mediawatch.pse.is/6adyf9
歐盟》AIA詳細摘要|https://mediawatch.pse.is/6adycb
相對於歐盟「監管」的棒子態度,美國其實在光譜的另一端——比較「務實」用胡蘿蔔引導。也就是,美國選擇先給產業自由發展的自律空間、並搭配「制訂標準」的方式引導產業發展方向,真正必要時才進場立法管制。即便立法,也不是歐盟那種全面性「專法」。
事實上,針對AI的規範美國並不是「無為而治」,比如史丹佛大學曾比較2016-2021年間25個國家通過的AI法案,數量上美國以13部居冠。從歷史脈絡來看,2019年美國就提出AI的五大原則、六大目標,並宣示投入資源發展AI以「維持領導地位」;2020年美國也提出「AI應用監管指南」,當中列出10項基本原則,包含公眾信任、參與、風險管理、公開透明等價值。
所謂「引導代替監管」的務實治理方式,具體來說像是「建立產業標準」,如2021年提出「AI風險管理框架(AI RMF)」提供開發或應用AI的人一個「軟性」參考框架,並沒有強制力,但就像ISO標準一樣仍有約束力。不過標準要有影響力,重點在於「權威」性,因此上述所提「維持領導地位」的策略,就是要建立美國標準的權威性,包含政府需深耕「概念及用語」、「資料及知識」、「評量指標」、「可靠度」等9個AI領域。
簡單來說,相對於歐盟是「硬法」的棒子手段,美國採取的比較是「軟法」的胡蘿蔔手段,究竟利弊為何還需要時間證明。不過,南臺科大財法所郭戎晉曾指出,美國經驗的適用性與影響層面,或將較歐盟的監管專法更為深遠。
如果歐盟跟美國是光譜兩端,那英國應該稍微偏向歐盟,只是他們並不選擇立像AIA一樣的專法,主要是他們擔心這樣會扼殺技術創新、壓抑AI產業發展。之所以如此,是因為英國其實在AI領域具有關鍵地位,像是它擁有享譽全球的「圖靈研究所」,所以英國對AI的態度一方面希望「表徵英國價值觀、保護人民」、另一方面也期待「有利創新、刺激需求、吸引投資」。
於是,英國在2022年發佈「AI監管政策文件」,當中強調監管架構必須以「支持創新」為前提、手段以「跨部門」為原則,也就是不會有專門的法規或主觀機關,反而是各主管機關必須根據所轄行業的AI實況,量身打造不同的監管作法。
整體而言,英國的AI監管有5大重點:「安全、保障與穩健性」、「透明與可解釋性」、「公平性」、「問責機制與治理」、「可競爭性與補救機制」。
-台灣要「AI監管/治理」,可能遭遇什麼問題?該怎麼做?
在《數位治理:韌性.AI.規管》這本書中,南臺科大財法所助理教授郭戎晉分析,全球面對AI科技大概呈現「完全自律 → 納入他律 → 轉以法律為主」的趨勢,也就是說,不論歐盟、美國或英國,他們都開始朝向「立法」一途。主要原因是,隨著AI快速發展與進入社會,衍生的爭議越來越多,加上既有規範往往拿AI沒輒,所以不能再放任「監管真空」存在。
但是,從我們上述探討可以發現,「AI監管」一詞不夠精確,因為除了「棒子」之外,還有很多針對AI的規範,採取屬於鼓勵性質的「胡蘿蔔」,所以「AI治理」應該會是一個更理想的說法。
同樣根據郭戎晉的探討,第一個難題是「難以避免的空白現象」,所謂「空白現象」其實就是一種「眾說紛紜然後無所適從」的狀態,導致討論時經常很模糊,比如我們在討論AI治理的細節時,討論的主軸究竟是「技術vs應用」、「現在vs未來」還是「事前vs事後」?造成空白現象的主要原因是,AI本身發展及創新速度太快,導致其本身有高度不確定性。
另外,正因為AI具高度不確定性,所以人們其實對它的技術、應用、風險等方面瞭解太少,導致多少會有「針對假設性問題立法」的現象,而這就更會面臨平衡技術創新發展、基本權利保障等議題的挑戰。通常,這時我們都會想回頭參照過去的經驗,但是由於AI涉及的技術及應用層面相當廣泛而複雜,所以既有的監管經驗很難、也不應該輕易套在這種新技術上。
最終,導致監管常常落入「科林格里奇困境」,也就是一種「進退兩難、一事無成」的狀態。因為在AI發展前期,我們雖然具有控制能力,但因為難以預測其負面影響,所以不知道該控制什麼;而在發展後期,AI應用已經普及,所以我們終於知道該怎麼應對這些負面影響時,卻已來不及、缺乏控制能力。
郭戎晉從他的觀點提出3項台灣著手研擬「AI治理」時的思考重點,分別是:
📌除了硬梆梆的法律,「技術框架、標準規範、扶植獎勵」也有效
從我們上述綜覽各國對AI的治理方式,就可以明確發現,除了歐盟AIA這種幾乎從監管面切入的「硬法」模式,美國則比較採取「軟法」的作法,也就是他不透過處罰的方式告訴大家「不能做什麼」、「應該做什麼」,反而藉由提供現成的共通框架、或祭出獎勵措施間接引導的方式,告訴大家「可以怎麼做」、「這樣做比較好」。
換句話說,在「AI治理」的具體手段方面,除了「監管」外,其實還有建立「技術框架」、「標準規範」,以及「產業扶植措施」等方法。他們當然各有利弊,但重點是意識到路不只有一條。事實上,從台灣這次的「AI基本法」草案中,其實已能明確嗅到「軟硬兼施」的味道。
再更具體一些,所謂「軟法」的例子像是,ISO標準提供各種產品一個「品質」與「安全」的框架,有助於不同開發商共同參考、生產製造者遵循、消費者評估等,這某種程度達成「共同監管」的願景。於是,台灣也可以建立「人工智慧風險管理標準」,提供AI領域在風險管控方面的具體依准,就像美國已經建立的AI RMF一樣。
📌AI是關於大家的事,「跨部會」積極協調免不了
就像是數中法需要設立負責執行的專責機構,又或者新聞議價法也需要由數發部來負責監督與推動,一條法規都需要有個「主管機關」來負責。未來台灣在做AI治理相關的立法時,可能面臨指定主管機關的問題,比如數發部要負責輔導AI應用、教育部要負責推動AI素養等,甚至新設立AI專責單位也不無可能。
但重點是!AI技術對社會的影響是「高滲透性」、「各方各面」的,換句話說,每一個領域都可能因為AI的加入而有所改變,所以各政府單位都必須對此進行盤點、協調、相互協助,於是「釐清各部會權責歸屬」並「能積極高度合作」才是國家應對AI科技的關鍵思維。
如同英國在2021年成立「數位監管合作論壇DRCF」,就是他們針對新科技的跨部會協調合作機制,論壇不只協調彼此的權責歸屬、針對主管領域做出數位調適,他們各部會間還會共享技術和專業能力,讓大家都有瞭解與使用新科技的能力。
事實上,台灣行政院已常有「跨部會」的會議及施政手段,某程度上在體制方面已有一些基礎;但實務上,台灣跨部會合作常常出現「踢皮球」的現象,導致效率或成效不如預期。2022年一場探討科技與法制的論壇中,專家學者都強調「數位轉型必須跨機關協力,政府應該以產業運作思維為主軸,兼顧各方利害關係人的權益及管理機制,否則成效必然有限。」
所以,如果說「AI基本法」提出一套最高層次的願景,那麼政府「跨部會」都必須要密切協調與合作,在自己原有的權責範圍內,「積極」應對AI加入後的各種變革。如此一來,這套「AI治理」機制才可預期會是有機、而且真正有效的。
📌加強對AI技術、應用、風險等方面的瞭解
俗話說「知己知彼百戰百勝」,當AI仍在發展中、存在高度不確定性,我們要能夠即時有效的因應它可能造成的問題,最重要的就是加強對它的瞭解,包括它在技術層面的發展、可以發展何種應用、可能帶來哪些風險等等。事實上,這正是解決上述「AI治理難題」的關鍵手段,尤其更重要的是,任何的政策或治理措施,都應該基於具體的實證研究支持。
最後,「治理」的方向沒有標準答案,更多的是反映出一個國家隊AI這項技術的態度和價值選擇。所以政府不但有責任加強對AI的瞭解,政府更有責任擘畫對AI的政策藍圖,告訴社會這幾個問題:國家怎麼看待AI?定位、戰略、監管態度之衝突,國家打算怎麼權衡?
是的,這次的「AI基本法」草案,就是很重要的一步!
延伸閱讀:
數位時代》Google也提「AI白皮書」,給台灣政府建議|https://mediawatch.pse.is/6atmmk
媒觀的關心焦點畢竟還是媒體和資訊環境,所以我們特別在意「著作權(新聞議價)」、「數位隱私及勞動」、「錯假訊息」、「倫理風險」、「新聞專業倫理」、「傳播權及文化權」等AI議題,尤其這幾年從科技平台發展所看見各種問題的經驗裡,我們擔心AI應用若同樣掌握在「跨國」的「私人」企業手中,台灣這個相對小的國家/族群/文化、使用者這個相對弱勢的角色福祉,可能會被犧牲。
於是,在「AI基本法」草案中,我們認為「AI的7項良善價值觀」、「加強對AI風險管控」、「重視AI資料」、「推動素養教育」這四項非常重要。其中,AI應用「不應對人權造成危害」、「不應違反現有法規」,因此「做好法規調適」、「確保可驗證及可控性」就非常重要。同時,資料作為驅動AI的關鍵角色,必須「強化用戶個資保護」,AI不應得隨意蒐集和使用個資;我們更應大力關注「訓練AI所用資料之品質、多元性、智財權」,確保AI不帶來偏頗或歧視,也不能放任AI隨意掠奪內容生產者的心血結晶。
最後,「教育」作為改變社會緩慢但最有力的方法,不論在網路治理或AI治理,「素養教育」都被視為一種方法。我們必須強調,AI雖然是一項技術,但它要實質影響社會,終究是透過ChatGPT、社群演算法、新聞推薦等「媒體」形式才接觸到一般大眾,也就是說,「媒體素養」還是核心能力,人們如何在理解AI的同時,持續近用、分析、反思媒體,並在每一次的行動中創造對社會良善的影響,仍是至關重要的。
所以,從過去到現在發展出媒體、資訊、科技、數位、網路、AI等等這麼多「素養」,一方面彰顯不同定義紛雜混亂之景,另一方面,這更凸顯出「素養教育」作為解決問題的關鍵手段,甚至是台灣社會面對技術變化的「韌性」所在。不過,在各種素養教育如此紛亂的現況下,你覺得素養教育應該一直追趕新科技嗎?下次專題我們就來認真討論看看!
延伸閱讀:
蔡東棧》為何需要「媒體素養教育法」|https://mediawatch.pse.is/6atlz6
⭐ 和我們一起塑造「更好的媒體,更好的社會」⭐
如果你喜歡這個專題,歡迎 單筆 或 定期定額 贊助我們 這將能支持媒觀持續關心並投入媒體環境監督觀察、兒少閱聽權益、關注新聞自由等工作,謝謝你一直以來的支持與鼓勵!
》關於台灣媒體觀察教育基金會:https://www.mediawatch.org.tw/about
》透過 媒觀官網 支持我們 💰
》歡迎在 Facebook 、 Instagram 上追蹤我們 👍
1.鏡電視(2024)/輝達AI能預測颱風? 7/20模式就預估凱米直撲台灣|https://mediawatch.psee.ly/6a4tx2
2.中央社(2024)/黃仁勳COMPUTEX主題演講6大重點:Rubin、數位人類、AI機器人工廠|https://mediawatch.pse.is/6a4tyz
3.CTWANT(2024)/用AI預測氣候來躲避天災 黃仁勳介紹「數位孿生地球」氣象署已採用|https://mediawatch.pse.is/6a4u3t
4.台灣媒體觀察教育基金會(2023)/你擔心AI反撲嗎?首部「人工智慧法」將通過,來看看它想解決哪些AI問題?|https://mediawatch.pse.is/6a4x3u
5.信傳媒(2024)/吳誠文上任加速《AI基本法》修訂 葛如鈞:不只半導體 台灣的AI軟實力非常強|https://mediawatch.pse.is/6a4wzs
6.葛如鈞(2024)/【質詢】AI 未來方向 - 教育及文化委員會質詢 (完整無剪輯)|2024-06-05|https://mediawatch.psee.ly/6a4x5u
7.中央社(2024)/AI基本法草案出爐 政府應建立應用問責保障勞權機制|https://mediawatch.pse.is/6adpt9
8.經濟日報(2024)/生成式 AI 恐釀侵權、資安疑慮 國科會的 AI 基本法能管?|https://mediawatch.pse.is/6adpuw
9.聯合新聞網(2024)/我國AI基本法草案出爐 7原則4重點強調隱私保護兼顧人權|https://mediawatch.pse.is/6adpvu
10.國科會(2024)/預告制定「人工智慧基本法」草案|https://mediawatch.pse.is/6adpx5
11.電腦王阿達(2023)/Imperium Drive 竟能遠端遙控出車,為客戶提供無人駕駛體驗|https://mediawatch.pse.is/6adq3d
12.Wikipedia(2024)/「中華民國國道收費員資遣抗爭運動」條目|https://mediawatch.pse.is/6adq45
13.遠見(2024)/別只看台積電!簡立峰:AI時代的石油不只半導體,4點教你看懂|https://mediawatch.pse.is/6adq4r
14.EUAIA(2024)/Historic Timeline|https://mediawatch.pse.is/6adyb4
15.EUAIA(2024)/Implementation Timeline|https://mediawatch.pse.is/6adybu
16.EUAIA(2024)/High-level summary of the AI Act|https://mediawatch.pse.is/6adycb
17.KPMG(2024)/解密歐盟人工智慧法案|https://mediawatch.pse.is/6adyek
18.EUAIA(2024)/The AI Act Explorer|https://mediawatch.pse.is/6adyf9
19.衛報(2024)/What will the EU’s proposed act to regulate AI mean for consumers?|https://mediawatch.pse.is/6adygn
20.中央社(2024)/歐洲議會通過人工智慧法 依風險高低管理AI應用|https://mediawatch.pse.is/6adyh9
21.AWS(2024)/什麼是 AGI (通用人工智慧)?|https://mediawatch.pse.is/6adyjt
22.台灣人工智慧行動網(2024)/人工智慧風險管理框架(AI RMF)|https://mediawatch.pse.is/6ae4qe
23.郭戎晉(2024)/人工智慧國際治理模式觀察與選擇課題|https://bookstw.link/6ae4td
24.經濟部國際貿易局(2021)/英國競爭與市場管理署等行政部門成立數位監管合作論壇,以作為協調英國數位產業及電子商務服務規範平台|https://mediawatch.pse.is/6atm69
25.中時新聞網(2022)/科技法制前瞻論壇 洞析數位法制新趨勢|https://mediawatch.pse.is/6b3j55