科技治理與科技法律的異同

更新 發佈閱讀 5 分鐘

今天想以人工智慧的發展為例,再來談談科技治理與科技法律的異同。誠如大家所知,人工智慧的長足發展為人類社會帶來全新的風貌,然也衍生了不少偏見、歧視、虛假訊息、與智慧財產權等諸多法律問題。我們是否會因為有這些法律問題就立法禁止人工智慧的發展呢,我想應該不至於如此,就像我們不會因為吃東西可能噎到就不吃飯,也不會因為地震可能震垮房屋就不住在屋子裡。因此面對新科技發展所可能產生之風險,科技法律與科技治理的目標絕對不是阻礙科技的進展,而是在於識別風險(吃什麼東西比較容易噎到、住在哪些區域可能地震頻率較高)進而探尋降低風險的解方(小口吃可能比較不會噎到、如果不得以必須住在地震帶可能最好選擇耐震度高一點的房子)。科技治理與科技法律的差異在於,科技法律往往希望以法律手段(國會立法、行政執法、或法院司法)來試圖降低風險,而科技治理則希望除了法律手段之外尋求更多元的解決方案,包含「以夷制夷(以科技手段降低科技風險)」、群眾壓力或業者自律等等

群眾力量(使用者意識的建立)

如果一家小吃店發生食安問題,那衛生主管機關可以依據食品衛生管理法來開罰甚至勒令停業。但如果只是很難吃但不到食安問題呢,我們需要修法來賦予衛生主管也對之開罰或公布商家名稱的權限嗎?當然不需要啦。如果小吃店的東西難吃,自然門可羅雀,相信大多數朋友有類似經驗,看到完全沒人的餐廳會選擇不要進去,免得踩雷。同樣的,如有社群媒體、電商網站、或人工智慧平台不重視使用者的個資隱私,或時常出現偏見歧視的事件,那使用者自然會選擇敬而遠之,慢慢地他們也會門可羅雀。在商品經濟時代,消費者已對不良或有瑕疵的商品產生消費者意識;同樣的,在數據驅動經濟時代,我們使用者也要開始對社群媒體、電商網站、或人工智慧平台建立「使用者意識」,如此當可漸次產生群眾力量,來促使新科技往良善的方向發展

 以夷制夷(以科技監督科技)

我們想知道某家小吃店是不是雷,除了實地看他是否高朋滿座之外,還可以打開手機,查一下過往消費者對它的評分,這就是藉由資訊科技所推動的群眾力量。同樣地,對於一項新科技是否對社會有危害,我們也可能發展更新科技來協助評斷。舉例而言,開發電商平台或人工智慧的企業大抵上會將演算法視為公司最高機密,因此大型科技公司無不全力抵擋社會大眾對演算法透明義務的訴求,致使人工智慧演算法成為外界無法窺探其妙的「黑盒子」。我們想知道某家公司的人工智慧是否有偏見歧視,是否非得要求其揭露演算法莫辦呢?當然不是,就像牙醫師想知道我們牙髓的健康狀況,不需要先把牙齒鑽洞,只要拍張X光照片就知道了。對於人工智慧的「健康狀況」,我們能否開發出「X光機」來由外部探測呢?答案是肯定的。一種名為「可解釋人工智慧(explainable AI)」的技術已由資訊科學家積極開發中,可在不知人工智慧演算法的情況下,檢查其是否符合相關法律與倫理規範。舉例而言,假設我們想判斷一個人工智慧是否存在膚色歧視,我們可以人工創設三個虛擬人物,三者除了膚色不同之外其餘條件皆完全相同。我們將三個虛擬人物輸入欲測試之人工智慧,假設是個篩選應徵者的軟體,倘三個虛擬人物在該軟體的運作結果不同,恐將顯示該人工智慧對應徵者之膚色或人種存在偏見歧視。

業者自律(將人工智慧倫理規範視為企業ESG項目)

只要前開第一項所談的使用者意識可以建立起來,平台及人工智慧經營者即必須迫於投資人壓力與營收考量,開始重視人工智慧的法律與倫理規範。換言之,人工智慧治理的政策應該促使業者將落實人工智慧的法律與倫理規範視為CSR與ESG的重要環節,如此業者就會「心甘情願」地重視之。人工智慧倫理規範作為企業的CSR與ESG項目,可以包含內稽內控與外部稽核。現在許多數據與人工智慧相關的公司都已開始設置「數據治理與隱私保護」相關的法務職缺,同時企業也該將人工智慧治理視為內稽內控之一環,定期做出稽核報告向董事會呈報。至於數據與人工智慧治理的外部稽核,個人認為將來會出現具此專長且以此為主業的外部稽核師。企業通常不會向外部稽核師透露數據應用與演算法的細節,此時外部稽核師即可使用「人工智慧X光機」,例如前述「可解釋AI」來檢測其演算法是否合規

作者:宋皇志,政治大學科技管理與智慧財產研究所教授,中華無形資產曁企業評價協會理事長

完成日期:2024年4月26日

有著作權,請勿侵權,惟歡迎註明出處引用

email: sung.hc@gmail.com

 


留言
avatar-img
科技治理與智慧財產協奏曲沙龍
9會員
33內容數
非常感謝各位朋友蒞臨「科技治理與智慧財產協奏曲沙龍」。在此,我將不定期分享我對大數據與人工智慧治理、智慧財產之管理與策略、半導體產業生態與全球競爭等議題的觀察與思考,亦會記錄我旅居捷克期間的所見所感,作為研究與生活交織而成的點滴札記。
2026/01/21
為使這些原則在未來的法規解釋與政策形成中發揮具體指引作用,宜將其解構為三組具有內在邏輯關聯的治理框架,分別是:「價值目標」、「權利與安全」、以及「程序與責任」。本文將先聚焦於第一組核心——即 AI 治理的「價值目標」,涵蓋「永續發展與福祉」及「人類自主」兩大原則。
2026/01/21
為使這些原則在未來的法規解釋與政策形成中發揮具體指引作用,宜將其解構為三組具有內在邏輯關聯的治理框架,分別是:「價值目標」、「權利與安全」、以及「程序與責任」。本文將先聚焦於第一組核心——即 AI 治理的「價值目標」,涵蓋「永續發展與福祉」及「人類自主」兩大原則。
2026/01/21
這種錯位,乍看只是技術描述不夠精細,卻可能在法制上產生實質影響。舉例而言,若法律定義隱含地將人工智慧視為一種在使用過程中持續「學習」的系統,則在風險評估、責任歸屬或高風險應用判斷時,便容易高估系統的即時自主性,進而淡化訓練者、設計者或部署者在前階段所應承擔的制度責任。
Thumbnail
2026/01/21
這種錯位,乍看只是技術描述不夠精細,卻可能在法制上產生實質影響。舉例而言,若法律定義隱含地將人工智慧視為一種在使用過程中持續「學習」的系統,則在風險評估、責任歸屬或高風險應用判斷時,便容易高估系統的即時自主性,進而淡化訓練者、設計者或部署者在前階段所應承擔的制度責任。
Thumbnail
2026/01/21
第3條似乎將「經由機器學習及演算法」定位為系統在使用者輸入資料後即時發生的動作,,不但在技術描述上不夠正確,亦在法律定義層次上模糊了人工智慧訓練階段與運作階段之間原本應加以區別的責任界線。此一錯誤定義,在未來涉及風險評估、責任配置或高風險應用判斷時,極可能因誤解技術內容而形成錯誤的法律規範。
Thumbnail
2026/01/21
第3條似乎將「經由機器學習及演算法」定位為系統在使用者輸入資料後即時發生的動作,,不但在技術描述上不夠正確,亦在法律定義層次上模糊了人工智慧訓練階段與運作階段之間原本應加以區別的責任界線。此一錯誤定義,在未來涉及風險評估、責任配置或高風險應用判斷時,極可能因誤解技術內容而形成錯誤的法律規範。
Thumbnail
看更多
你可能也想看
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
當 AI 公司被要求為創作、不良內容甚至犯罪行為負責,問題往往不在法律嚴不嚴,而在責任指向是否錯置。本文從語境、創作主體與 AI 商業模式出發,解析為何把鍋丟給 AI 本身就是邏輯錯誤。
Thumbnail
當 AI 公司被要求為創作、不良內容甚至犯罪行為負責,問題往往不在法律嚴不嚴,而在責任指向是否錯置。本文從語境、創作主體與 AI 商業模式出發,解析為何把鍋丟給 AI 本身就是邏輯錯誤。
Thumbnail
聯合國《2024世界兒童狀況》揭示了AI時代的挑戰。本報告融合佛法唯識宗智慧與兒童權利公約,呼籲在數位浪潮中捍衛孩子的「認知自由」。透過消除演算法偏見、建立倫理監管,我們誓願淨化科技的「共業」,不讓心靈成為數據的殖民地,為2050年的未來佛子,點亮通往人間淨土的心燈
Thumbnail
聯合國《2024世界兒童狀況》揭示了AI時代的挑戰。本報告融合佛法唯識宗智慧與兒童權利公約,呼籲在數位浪潮中捍衛孩子的「認知自由」。透過消除演算法偏見、建立倫理監管,我們誓願淨化科技的「共業」,不讓心靈成為數據的殖民地,為2050年的未來佛子,點亮通往人間淨土的心燈
Thumbnail
柯文哲遭羈押逾一年,主要證人已完成交互詰問,法院裁定交保並啟動科技監控與限制措施,檢方卻仍以「可能串證」、「政治影響力」等抽象理由抗告。此舉不僅違反比例原則,更侵蝕辯護權與程序正義。若有具體犯罪證據,應依法提出、公開審理;否則,持續羈押只會讓司法淪為懲罰工具,失去制度正當性與社會信任。
Thumbnail
柯文哲遭羈押逾一年,主要證人已完成交互詰問,法院裁定交保並啟動科技監控與限制措施,檢方卻仍以「可能串證」、「政治影響力」等抽象理由抗告。此舉不僅違反比例原則,更侵蝕辯護權與程序正義。若有具體犯罪證據,應依法提出、公開審理;否則,持續羈押只會讓司法淪為懲罰工具,失去制度正當性與社會信任。
Thumbnail
當前的人工智慧(AI)技術,已不再只是實驗室中的前瞻研究,而是逐漸走入日常,從聊天機器人到圖片生成工具、語音助手、推薦演算法,AI正在改變我們工作的方式、生活的節奏,甚至學習與創作的模式。 在台灣,這場轉變也正在發生中。 最近在方格子上,我也注意到有越來越多格友分享與AI相關的創作與思考。有
Thumbnail
當前的人工智慧(AI)技術,已不再只是實驗室中的前瞻研究,而是逐漸走入日常,從聊天機器人到圖片生成工具、語音助手、推薦演算法,AI正在改變我們工作的方式、生活的節奏,甚至學習與創作的模式。 在台灣,這場轉變也正在發生中。 最近在方格子上,我也注意到有越來越多格友分享與AI相關的創作與思考。有
Thumbnail
本文探討現代化獨裁體制的新樣貌,包括數位極權、演算法治理、心理控制、平臺政權化及選舉式極權等,並分析其法律與治理風險,最後針對臺灣提出因應數位極權的法律架構建議,包含憲法層次、法律層次及治理層次等面向。
Thumbnail
本文探討現代化獨裁體制的新樣貌,包括數位極權、演算法治理、心理控制、平臺政權化及選舉式極權等,並分析其法律與治理風險,最後針對臺灣提出因應數位極權的法律架構建議,包含憲法層次、法律層次及治理層次等面向。
Thumbnail
AI治理成為確保技術安全與合乎倫理的關鍵,全球各國紛紛制定法規,以平衡創新與隱私保護。個人應提升數據意識,企業需強化數據治理,而政府則在監管與發展間尋找平衡。然而,技術發展遠超法規更新,隱私問題仍是人類共同試煉。未來,唯有政府、企業與個人共同努力,才能確保AI時代的隱私與創新並行。
Thumbnail
AI治理成為確保技術安全與合乎倫理的關鍵,全球各國紛紛制定法規,以平衡創新與隱私保護。個人應提升數據意識,企業需強化數據治理,而政府則在監管與發展間尋找平衡。然而,技術發展遠超法規更新,隱私問題仍是人類共同試煉。未來,唯有政府、企業與個人共同努力,才能確保AI時代的隱私與創新並行。
Thumbnail
無論是個人、社會還是公司,「有紀律」常被視為成功的關鍵因素。蘋果、谷歌和其他科技巨頭,無一不是藉由創新和紀律來改變我們的生活和工作方式。接下來,我們要來探討當今科技巨頭在創新與道德之間的兩難,以及他們是如何透過紀律來應對這些挑戰,最後反思紀律對於我們個人而言,究竟扮演怎樣的角色。
Thumbnail
無論是個人、社會還是公司,「有紀律」常被視為成功的關鍵因素。蘋果、谷歌和其他科技巨頭,無一不是藉由創新和紀律來改變我們的生活和工作方式。接下來,我們要來探討當今科技巨頭在創新與道德之間的兩難,以及他們是如何透過紀律來應對這些挑戰,最後反思紀律對於我們個人而言,究竟扮演怎樣的角色。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News