今天想以人工智慧的發展為例,再來談談科技治理與科技法律的異同。誠如大家所知,人工智慧的長足發展為人類社會帶來全新的風貌,然也衍生了不少偏見、歧視、虛假訊息、與智慧財產權等諸多法律問題。我們是否會因為有這些法律問題就立法禁止人工智慧的發展呢,我想應該不至於如此,就像我們不會因為吃東西可能噎到就不吃飯,也不會因為地震可能震垮房屋就不住在屋子裡。因此面對新科技發展所可能產生之風險,科技法律與科技治理的目標絕對不是阻礙科技的進展,而是在於識別風險(吃什麼東西比較容易噎到、住在哪些區域可能地震頻率較高)進而探尋降低風險的解方(小口吃可能比較不會噎到、如果不得以必須住在地震帶可能最好選擇耐震度高一點的房子)。科技治理與科技法律的差異在於,科技法律往往希望以法律手段(國會立法、行政執法、或法院司法)來試圖降低風險,而科技治理則希望除了法律手段之外尋求更多元的解決方案,包含「以夷制夷(以科技手段降低科技風險)」、群眾壓力或業者自律等等。
群眾力量(使用者意識的建立)
如果一家小吃店發生食安問題,那衛生主管機關可以依據食品衛生管理法來開罰甚至勒令停業。但如果只是很難吃但不到食安問題呢,我們需要修法來賦予衛生主管也對之開罰或公布商家名稱的權限嗎?當然不需要啦。如果小吃店的東西難吃,自然門可羅雀,相信大多數朋友有類似經驗,看到完全沒人的餐廳會選擇不要進去,免得踩雷。同樣的,如有社群媒體、電商網站、或人工智慧平台不重視使用者的個資隱私,或時常出現偏見歧視的事件,那使用者自然會選擇敬而遠之,慢慢地他們也會門可羅雀。在商品經濟時代,消費者已對不良或有瑕疵的商品產生消費者意識;同樣的,在數據驅動經濟時代,我們使用者也要開始對社群媒體、電商網站、或人工智慧平台建立「使用者意識」,如此當可漸次產生群眾力量,來促使新科技往良善的方向發展。
以夷制夷(以科技監督科技)
我們想知道某家小吃店是不是雷,除了實地看他是否高朋滿座之外,還可以打開手機,查一下過往消費者對它的評分,這就是藉由資訊科技所推動的群眾力量。同樣地,對於一項新科技是否對社會有危害,我們也可能發展更新科技來協助評斷。舉例而言,開發電商平台或人工智慧的企業大抵上會將演算法視為公司最高機密,因此大型科技公司無不全力抵擋社會大眾對演算法透明義務的訴求,致使人工智慧演算法成為外界無法窺探其妙的「黑盒子」。我們想知道某家公司的人工智慧是否有偏見歧視,是否非得要求其揭露演算法莫辦呢?當然不是,就像牙醫師想知道我們牙髓的健康狀況,不需要先把牙齒鑽洞,只要拍張X光照片就知道了。對於人工智慧的「健康狀況」,我們能否開發出「X光機」來由外部探測呢?答案是肯定的。一種名為「可解釋人工智慧(explainable AI)」的技術已由資訊科學家積極開發中,可在不知人工智慧演算法的情況下,檢查其是否符合相關法律與倫理規範。舉例而言,假設我們想判斷一個人工智慧是否存在膚色歧視,我們可以人工創設三個虛擬人物,三者除了膚色不同之外其餘條件皆完全相同。我們將三個虛擬人物輸入欲測試之人工智慧,假設是個篩選應徵者的軟體,倘三個虛擬人物在該軟體的運作結果不同,恐將顯示該人工智慧對應徵者之膚色或人種存在偏見歧視。
業者自律(將人工智慧倫理規範視為企業ESG項目)
只要前開第一項所談的使用者意識可以建立起來,平台及人工智慧經營者即必須迫於投資人壓力與營收考量,開始重視人工智慧的法律與倫理規範。換言之,人工智慧治理的政策應該促使業者將落實人工智慧的法律與倫理規範視為CSR與ESG的重要環節,如此業者就會「心甘情願」地重視之。人工智慧倫理規範作為企業的CSR與ESG項目,可以包含內稽內控與外部稽核。現在許多數據與人工智慧相關的公司都已開始設置「數據治理與隱私保護」相關的法務職缺,同時企業也該將人工智慧治理視為內稽內控之一環,定期做出稽核報告向董事會呈報。至於數據與人工智慧治理的外部稽核,個人認為將來會出現具此專長且以此為主業的外部稽核師。企業通常不會向外部稽核師透露數據應用與演算法的細節,此時外部稽核師即可使用「人工智慧X光機」,例如前述「可解釋AI」來檢測其演算法是否合規。
作者:宋皇志,政治大學科技管理與智慧財產研究所教授,中華無形資產曁企業評價協會理事長
完成日期:2024年4月26日
有著作權,請勿侵權,惟歡迎註明出處引用
email: sung.hc@gmail.com
















