上次我們介紹到關於歐盟在今年4月21日歐盟提出了人工智慧的立法,而立法中對人工智慧的控管範圍上,基於人工智慧的發展趨勢,設定風險高低的區隔,分為「不可接受的風險」、「高風險」、「有限的風險」、「最小的風險」等。
接著上次介紹的「不可接受的風險」,向下介紹何謂「高風險」,被認定為高風險的人工智慧(僅得作為輔助使用)運用包含下列各用途:
一、重要基礎設施(如交通),可能使人民的生命和健康受到威脅
以人為本的人工智慧運用,強調人工智慧的輔助地位,若是對於人類在基本權利上有所威脅,則會被列入高風險的運用範疇中。交通諸如道路的管制、大眾運輸工具等系統,影響人類在遷徙及行動上的自由,亦會影響社會運作的效率。是想,當台北捷運某線故障,將造成很多人行動上的不方便,進而影響其上班、上學及其他生活上影響。反之當交通越順暢,社會效率將越高。
二、教育或職業培訓,可能決定某人的受教育機會(如考試評分)
受教權亦為憲法所保障的一個區塊,也為世界上普世價值的一部分,在正面意義上的受教育是為了學習生活上一切必要的知識,而受教育亦是促進社會流動的方式之一。若是沒有公平公正的考試評分(入學或畢業)標準,教育資源將為某少數人所把持。在人工智慧的運用上,在這方面的用途,必須小心謹慎,避免以人工智慧知名,行人工操作之實。
三、產品的安全零件(如AI在機器人輔助手術中的應用)
此部分有關於人身安全之產品零件的運用,因為與人類身體、生命法益有關,一不小心恐造成無法回復的狀態,輕微者可能需要付出長時間的修養、照料及更多的醫療資源去支持,所以認為其屬具有高風險之人工智慧運用。
四、就業、員工管理和自雇管道(如徵才使用的履歷分類軟體)
人民的工作權益為人類生活中需要被保障的領域範圍,人類工作以獲取報酬,是為謀生所必須,在對於就業方面使用人工智慧的運用,須注意是否會因為人工智慧的篩選,造成先天弱勢族群在工作權上的剝奪與歧視。