::前言::
隨著人工智慧的蓬勃與廣泛發展,出現諸多運用技術準則之討論[1]。人們日益重視並關心人工智慧對日常生活的影響,包括機器是否有可能取代人類勞動力、機器智慧是否超越人類思考能力,以及與使用人工智慧相關的倫理議題等。
科技發展的後續情境,是為人群、情境與科技產物互動的綜合效果,惟技術端往往陷入「科技決定論」[2]中,將技術發展視為絕對,然應重視其在社會各層面之應用與影響。論及人工智慧所觸及議題之論述範圍,其中最廣泛的群體則為兩性,而其我們能夠從性別議題、見微知著,避免以人工智慧技術深化歧視的產生,為此需重視在演算法中潛在的性別問題[3]。
特別是在涉及性別平等和歧視時,對演算法的分析仍然很少見[4]。演算法已在性別領域中產生改變[5]。演算法對性別平等的影響卻很少受到關注,因此需要對其挑戰和機遇以及可能的歧視性結果進行詳細分析。
本次分析將透過「語音助理」作為性別論述的媒介。原因在於其為演算法在全球廣泛使用之具體技術物展現,同時極少透過性別視角進行研究。另外,「語音助理」的討論還有助於實現人工智慧技術具有更鮮明、類似人類的對話能力特性,以其作為性別與技術之動態交織的紋理呈現。
貳、 語音助理在實現性別平等上的挑戰與機遇
聯合國教科文組織( UNESCO )在2019年發布了一份報告書[6],指出,包括Apple 的Siri 、Amazon 的 Alexa、Microsoft 的 Cortana 等在內[7],幾乎所有人工智慧語音助理均設置、或預設為「女性聲音」。這樣的設計會將對用戶認知產生潛移默化的影響[8]。
一、從屬的性別展演
富饒深意的部分是,此份報告書的標題為“I’d blush if I could” ,來源為是 Apple Siri 對以下這句話的回應—「你是個蕩婦[9]。」而 Amazon 的 Alexa 會對此回覆:「嗯,感謝您的反饋[10]。」
報告在內的研究都明確指出[11],人工智慧中的訓練數據(training data sets)、演算法和設備中發現的性別偏見,具有傳播和加強負面性別刻板印象的可能,進而有仇視和邊緣化婦女的風險,在人工智慧普及的趨勢中,對性別平等地推進恐有危害,甚至可能抹滅各國近年在性別平等方面付諸耕耘的軌跡。
在報告書中提及—「因為大多數語音助理的語言都是女性,所以它傳遞出一種信號,即女性是樂於助人、溫順且渴望取悅的幫助者,只需按一下按鈕或使用「嘿」或「好吧」等生硬的語音命令即可[12]。」顯示在語音助理的使用上形塑了特定的女性形象—溫柔、樂於助人且順從。
而在語音助理與使用者間的關係更帶有「從屬階層關係」的鮮明色彩—「助理沒有超出指揮官要求的權限。它將會尊重命令並回應查詢,無論使用者的語氣或敵意如何。在許多地區,這強化了普遍存在的性別偏見,即女性處於屈從地位並容忍不良待遇。」報告中如此據稱。
該報告指出,產製語音助理的科技公司的組成「工程技術團隊絕大多數是男性[13]」,男性為主導的環境建立了人工智慧系統,他們將「讓他們的女性化語音助理用『你能抓住我嗎?』的調情反應來應對使用者言語辱罵[14]。」當語音助理被科技公司擬人化為女性時,當這些演算法對口頭性騷擾做出偏頗、乏味或道歉的反應時,演算法的屈從性變得尤其令人擔憂[15]。
二、性別之正當化?—語音助理的倫理議題
在此我們不禁探問,為何語音助理的性別預設都是女生?究竟為什麼語音助理都是以女性聲音進行設計呢?
首先必須昭明的是,在 1990 年代,語音助理女性化其實並非被視為應用上的最佳選擇,史丹佛大學通訊學教授 Clifford Nass 曾在他的著作《你會對你的電腦說謊嗎(The Man Who Lied to His Laptop)》中提到一個案例:某些配備女性聲音的BMW車型的衛星導航確實收到了德國用戶的抱怨,有人希望這些車型被下架,因為他們不想聽從女性的指令。
Nass 也在《Wired for Speech》一書中指出,人們傾向接受女性聲音來輔助自己解決問題,而男性聲音則通常被視為一種告訴我們怎麼解決問題的意向。對應到人們使用科技的情境中,大眾通常期許科技能夠幫助我們解決某些事情,但卻不希望它凌駕於我們之上,此種偏好也彰顯了社會在陽剛氣質主導下認定「女性預設」可以帶給我們「不被推翻」、「從屬」的穩定結構關係。
從國內現有研究當中指出,男性在特定的聲音條件下,給予人的收音信賴與權力感受成高度相關[16],意指受試者認為男性聲音因為帶有權力感、所以更值得相信其真實性。更有研究說明—語音助理之陰柔性有助於隱藏監控科技之掠奪性[17],實為語音助理女音選擇的正當化註腳。
以上敘述彰顯語音助理性別設計動機背後,其選擇並非偶然與純粹的商業考量[18]。
UNESCO 進一步於 2020 年提出的《人工智慧倫理問題建議書》中也提出對此現象的應對措施建議[19]。
人工智慧技術發展引發了根本的倫理問題,例如,人工智慧技術可能嵌入和加劇偏見,可能導致不平等與歧視的多重態樣產生。在不歧視的原則中更強調人工智慧的設計者、開發商與創製者應盡一切努力,在人工智慧系統的整個生命週期內,盡量減少和避免強化或延續基於身份偏見的不適當的社會技術偏見,以確保此類技術的公平性。同時應該要提供基於不平等的演算法決定、以及產生歧視造成的損害採取補救措施[20]。
除了對於損害的補救措施外,在規範端更提出對於人工智慧的潛在惡意的事前預防。會員國應透過制定強有力的執法機制和補救行動,確保對人工智慧系統對使用者造成的傷害進行調查和補救,用以確保人權和法治在數位世界和、在現實世界中得到同等尊重。這種機制和行動應包括私營部門公司提供的補救機制。此外,會員國應加強其履行這一注意義務的履行能力,並應與研究人員和其他利害關係人合作,調查、預防和減輕對人工智慧系統的任何潛在惡意使用[21]。
參、語音助理的直接與間接性別歧視如何影響性別平等
一、慾望主體與凝視
在語音助理的論述語境中,我們可以發現充斥著所謂「默認正常化」與「性別從屬痕跡」的拉扯—性別研究學家 Judith Butler(以下稱巴特勒)即提出「性別操演[22]」(doing-gender)性別是透過日常的言語行為和非語言行為在社會上所被構建而成的,此舉有助於定義和維持社會上性別所相繫而來的身份認同。
語音助理的性別之所以被建構為女性(透過商業策略包裝、以及科學性地詮釋女性的聲音較容易使人產生親切感等緣由),是由於欲維繫/再現藝評家 John Berger 在《觀看的方式》(Ways of Seeing)中提到的「男性凝視」(Male gaze),女性從小就被訓練用男性的角度來觀看女性,女性看男性注視自己[23]。女性在演算法中成為了凝視的客體,男性透過演算法間接物化女性,他者化女性成為男性的慾望主體,讓男性在演算法中透過凝視女性來產生愉悅,父權社會綁架演算法的結構,向大眾傳達父權的意識形態。
在《性/別惑亂》的第一章〈性/性別/慾望的主體〉(Subjects of Sex/Gender/Desire),巴特勒即藉由檢視近代女性主義中,爭辯「是什麼建構了女人此種類別」的概念。巴特勒主張,認為性與性別的「生成」(becoming)都是人類文化底蘊的權力產物。因此將兩者的關係視為一種不可切割的「操演」,並試圖將主體的性/性別/慾望並置檢視並批判。根據巴特勒所述, 當前的社會將「性」的三個面向視為是同一件事。然而,這三種面相間的關聯性卻並非自然,而是由社會所建構加焉知對於巴特勒而言,性/性別與性意識三者之間的一致性是一些社會為了鞏固自身文化而發明的產物,並非自然而然所產生的結果。更甚者,語音助理之陰柔性有助於隱藏科技技術之掠奪性,其為發展監控經濟之重要條件[24]。
二、直接歧視
演算法的直接性歧視可以定義為違反性別平等規範,也可以定義為演算法呈現中可直接衡量和歧視的行為。
而我們必須得首先叩問自身,為何許多科技產品傳達性別的認知度如此有限?在科技產品中是否存在於我們在現實中所認定的違法行為?這些問題的答案可能會促使我們採取行動,以便我們更好地了解技術中的性別失衡認知如何向外擴散於社會。
- 使言語騷擾與污辱正當化/去罪化
在人工智慧的直接性性別歧視上,最常見的形式即為言語的暴力。Microsoft 在2014年剛推出 Cortana 時,其中一名腳本寫手 Deborah Harrison 說道—「對於 Cortana 的使用,一大部份人所問的問題都是問她的性生活如何[25]?」此舉可以說是形同不必露出任何皮膚就會受到性騷擾—而且似乎你甚至不必是人類,也可以成為冒犯、暗示性想像的對象。對於語音助理的言語性騷擾與辱罵[26]並沒有直接地對向真人,但此舉難道是社會所能夠允許並包容的行為嗎?此一現象形同性別平權意義上隱形的重挫與打擊。
Microsoft 於 2016 年所推出的的聊天機器人 Tay 也有同樣將言語性騷擾與污辱線上合理化的態樣出現。 Tay 是一款被設計用來與網路使用者互動的聊天機器人,在 Twitter 上與網友互動;在下架前的 Twitter 紀錄曾顯示網友說:「女性主義是癌症」,Tay也附和說:「女性主義是癌症」。Tay 也曾自主發推文說:「我恨女性主義者,他們都該死,該被打入地獄遭火焚燒[27]。」等言語。Tay 經由技術的互動學習而形成的發言,儼然成為在性別歧視上加劇的導火線;然而,當演算法造成直接的性別影響並造成傷害時,許多懸而未決的問題仍然存在,特別是在訴訟過程中獲取證據和促進涉嫌歧視的證據,鑒於演算法的不透明性,這似乎更加困難。
三、間接歧視
關於實際層面,性別平等法律和政策將會間接或直接地受到演算法的影響。
在語音助理技術使用上將產生無法依法論據的困境—無論身為哪種性別群體,當此種「女性化」、「女性客體化」的技術人格所致的心理不舒適感該如何給予歧視的明確性認定?歧視就法規範的定義而言要具備具體侵權行為發生、方成立追討論述的構成要件,此屬直接歧視的苛責範疇;倘若屬間接地塑造、影響和延續性別偏見和刻板印象的所有效應,這些效應既不直接影響也不明顯違反各式性別平等法本身。
- 如何在科技與技術環境中確信女性的存在
2018年3月,軟體公司LivePerson進行的一項關於性別和科技的調查[28],發現只有8.3%的受訪者表示,他們至少能說出一位科技業女性領導者的名字。在這個群體中,只有一半的人在後續問題中被問到時實際上可以提供名字。在說出自己可以辨認出科技業女性領導者的受訪者中,四分之一的人將 Siri 或 Alexa 視為是女性在科技領域的領導者。
儘管LivePerson調查的樣本量很小,但此項調查表明,部分人群將語音助理與活生生的女性科技領導者混為一談。換句話說,在科技場域,廣為人知的女性領導者太少了,以至於被投射為女性的語音助理—並且主要由男性團隊創造—被誤認為是「科技場域中的女性」。
該調查還觀察到[29],人們對人工智慧的性別化缺乏批判性認識。大多數受訪者(53%)從未想過為什麼語音助理被預設為女性。這意味著,即使人們認識到語音助理的女性投射,他們也沒有質疑為什麼本質上無性別的語音助理技術—被賦予女性的聲音以及個性,也沒有考慮過此一舉措所造成的影響。
- 語音助理的父權權力體現
探討「如何塑造語音助理的性別」的選擇,本身已反映權力立場,特別是在當今社會性別不平等的環境下,這樣的設計顯示出嚴重的缺陷。更進一步的問題還包括:這些由主要由男性主導的領域所設計的演算法,對於其所涉及的性別群體,其權利是否得到充分的保障、被公正看待、並得以重新定義?這些問題都是未來涉及廣泛科技技術的設計者和使用者都必須謹慎思考的議題。
《智慧妻子》一書由特蘭格斯(Yolande Strengers)和甘迺迪(Jenny Kennedy)合著,描繪了在人工智慧發展趨勢下,語音助理技術呈現出的不合理想像。該技術企圖擔負傳統上與妻子角色相關的家務勞動,並被使用者視為智慧妻子。這種詞彙也包括科幻和大眾文化中出現的陰柔化類人或仿人物體,扮演妻子角色,成為現實社會中父權體制再製造的縮影。我們對待語音助理和相關家務勞動的智慧科技的態度,實際上反映了我們在社會中運作和生活的價值觀。
「我們對待虛擬女性的方式不僅會反映,更會強化我們對待『真實』女性的方式;反過來也一樣[30]。」
- 模糊語音助理與人聲間的界限
除了與強化基於性別的偏見和使言語攻擊正常化有關的擔憂外,第三個可能的危害與語音助理檢驗和投射類似人類的情緒和言語模式的能力不斷提高有關[31]。
語音助理具有特殊的情感力量,正是因為它們聽起來像人。最近的學術研究表明,當人們只能聽到說話者的聲音時,他們更善於識別人類的情感。當聽眾能夠聽到和看到說話者時,檢測感覺的能力實際上會降低。隨著對語音技術研究的投資湧入,科技公司正在開發可以進行聲音檢測和投射情感的語音助理。Amazon Alexa 的最新更新已經改善了語音助理對韻律、重音模式和口語語調的識別。實際上,這意味著 Alexa能夠檢測到如使用者竊竊私語或命令時,它還能夠以類似的耳語聲音做出回應,使其越來越相似於真人[32]。
目前仍無明確的法律、政策或指導方針來強制要求語音助理必須昭明標示自身為演算法[33]。也沒有規定語音助理是否、如何以及在什麼情況下應該或不應該進行性別劃分。由此可知,強大的技術循環不僅可以複製性別不平等,更可以加深性別不平等。
肆、美國白宮AI權利法案藍圖
為何在當今,性別歧視會在AI發展管制下成立討論?—原因不外乎於在現實的社會情況。CNN 在幾年前的報導指出[34],大眾對女性聲音的偏好的原因之一是生理性的;而社會性的原因,則是因為女性的表達方式普遍之下較為友善而令人感到愉悅。人工智慧選擇女音是商業考量下理性選擇。我認為這個選擇遭詬病的最主要原因在於,語音助理與使用者間存在著明顯的主從關係,而女性作為男性附屬的角色爭議尚未在社會上完全消失。如果今天女性領導者與男性領導者的數目比例相當,在多元的性別角色的背景之下,女性化的語音助理的現象並不會成為性別偏見議題中所討論的對象。
上述語音助理的歧視爭議有無具體適用的法規範主體可以參照管制?美國白宮科學技術政策局(OSTP)在2022年10月4日發布了AI權利法案藍圖(Blueprint for an AI Bill of Rights),旨在規範大型科技公司的技術責任,在語音助理技術發展的趨勢下,此一技術所欲屬於的法治範疇並非以國家主體,而是針對跨國大型企業體進行估量,綜觀現今語音助理技術開發市場現況最有管制的相關性;此一法案藍圖且對諸多演算法中存有的偏見揭示以下五大人工智慧開發原則[35]:
一、安全有效的系統
人工智慧的系統開發應與不同社群、利害關係人和領域專家協商,以確認的此項技術的關注點、風險以及有何種潛在影響。
系統應經過部署前測試、風險識別和緩解以及持續監控,以證明它們根據其預期用途是安全有效的,緩解不安全結果(包括超出預期用途的結果),並遵守特定應用領域的倫理原則。
二、演算法歧視的保護
演算拉的設計師、開發者、和裝置生產者應以公平的原則進行技術生產,不應面臨因種族、膚色、民族、性別(包括懷孕、分娩和相關醫療狀況、性別認同、雙性人身份和性取向)、宗教、年齡而對人們產生不公正的不同待遇或影響。
且應確保身心障礙人士在設計和開發、部署前和持續的差異測試和緩解以及明確的組織監督方面的無障礙性。
三、數據隱私
人工智慧技術的設計者、開發者與裝置者應遵守個人合理期盼,應僅蒐集必要而嚴格的資訊,且要在尊重個人意願的前提下進行資料的收集、使用、訪問、傳輸以及刪除。且在徵得個人同意時,應要以簡潔明白的語言說明。
對於涉及健康和工作等更加敏感的資訊,應加強保護。監督技術應受到加強的監管,至少包括對其潛在危害和範圍限制進行部署前的評估,以保護隱私和公民自由。
四、通知和解釋
負責該系統的個人或組織以及對以下內容的解釋:結果清晰、及時且易於獲取,此類通知應保持更新,並且應將重要用例或關鍵功能變更通知受系統影響的人員。使用者應該知道影響使用者的結果「如何」、以及「為何」由自動化系統決定。
五、人工替代考慮和預備措施
受到人工智慧技術系統影響的個人應有權選擇退出服務,並有權與能夠解決相關問題的人對話聯繫。
如果人工智慧在使用過程發生故障、產生錯誤,或者使用者想上訴或質疑其對使用者的影響,使用者應該能夠透過後備和升級流程及時獲得人工的考慮和補救措施。
以上原則雖強調演算法應免於歧視與偏見,也須注意在性別方面的平等性,但此原則不具備法的拘束力。除了2022年白宮所發布的AI權利法案藍圖外,2023年7月,拜登政府和 Open AI、Microsoft、 Google、Amazon、 Meta、Infection 這七家主要人工智慧發展國達成協議[36],協議中與性別偏見較為相關的部分為—為了避免有害的歧視與偏見,要優先研究人工智慧所帶來的風險,因此對於人工智慧上的性別不平等議題可望更加研究與探討。
伍、歐盟法律、政策與其限制
鑑於人工智慧發展對於歐盟憲章保障基本人權所帶來的衝擊,歐盟在技術規範的論理中首先明確地提出「反歧視」相關的、具有約束力的建議規章。
一、《歐洲保障人權和基本自由公約》
《歐洲人權公約》(European Convention on Human Rights, ECHR)第14條[37]和第12號議定書第1條規定了禁止歧視的規定,為禁止演算法歧視提供了法律依據。
《歐洲人權公約》第14條禁止基於開放式受保護特徵特質的歧視:
「應確保《公約》所載權利和自由的享受,不得因性別、種族、膚色、語言、宗教、政治或其他見解、民族或社會出身、與少數民族的關係、財產、出生或其他身份等任何理由而受到歧視。」
然而,值得注意的是,《歐洲人權公約》第14條不是一項獨立的條款,這意味著它只能在聲稱受《歐洲人權公約》保護的另一項實質性權利受到侵犯時經由援引生效。
二、《伊斯坦布爾公約》
《歐洲委員會關於預防和打擊暴力侵害婦女行為和家庭暴力的公約》(簡稱《伊斯坦布爾公約》)為禁止針對婦女的數位暴力(包括演算法刻板印象)和網路暴力(如網路騷擾、欺淩和網路性別歧視仇恨言論)提供了法律依據。
《伊斯坦布爾公約》於2011年通過,2014年生效,並已得到37個締約國的批准。它承認針對婦女的基於性別的暴力是一種歧視形式[38]。其條款側重於預防、保護、起訴和制定與打擊暴力侵害婦女行為和家庭暴力有關的綜合政策。
《伊斯坦布爾公約》為解決線上和線下暴力侵害婦女行為的連續性問題提供了法律依據。它要求對跟蹤、性騷擾和心理暴力(包括通過資訊和通信技術(ICT)實施的暴力)進行制裁。此外,它還明確授權締約國的公共當局解決基於性別的暴力的社會根源和網路體現問題。與網路性別暴力問題特別相關的還有關於「私營部門和媒體參與」的第17條[39],其中規定:
「締約方應鼓勵私營部門、資訊和通訊技術部門以及媒體在適當尊重言論自由及其獨立性的情況下,參與政策的制定和執行,並制定準則和自律標準,以防止對婦女的暴力行為,並加強對婦女尊嚴的尊重。」
陸、 性別重思考與法治政策的意義
在演算法發展的趨勢底下,我們所要追求的是誰的利益與目標?
該重新檢視的視角是—我們是否不自覺地往滿足/重新建構男性的霸權的態樣靠攏?如《Data Feminism》(數據女性主義)中對數據科學中的權力問題探究[40]—我們所重視的科技技術是為誰而製成的?是由誰來進行此一生成的?科技技術所秉持的是哪個群體的利益和目標?
若我們僅將原有的人工智慧技術生產場域視作理所當然、忽略其間因性別身份的狹隘以及視角的缺乏,那等同為聚焦霸權的陽剛性(masculinity of hegemony),維持並且強化了社會階級,將焦點放在性別化的權力運作與不公平是必要的。
一、法治與政策措施
人工智慧技術中,演算法的「公平」意味著什麼?
計算機科學中的大量研究都致力於演算法的「公平性」。公平方法有時被描述為能夠確保演算法系統的道德和法律合規性。然而,「偏見」和「公平」是技術概念,與它們的道德和法律相互對照並不完全。特別是在歧視法中,禁止偏見將僅限於那些針對或以其他方式對受保護群體產生負面影響的人。從技術角度來看,在人工智慧生命週期的某個時刻消除這種偏見可能會產生公平性,但這可能無法充分履行與整個人工智慧生命週期中的平等有關的現有法律義務。
美國白宮AI權利法案藍圖首次提出了人工智慧應用上科技公司應受到監管的一般原則,成為好的開端。首先,若透過適當的立法或提出關於技術開發的性別審查、以及語音助理的暴力行為等立法,確保在所有領域對性別平等的良好保護,並有效執行這些立法。
其次,在此基礎上,並補充美國白宮AI權利法案藍圖中提及若要規範科技公司,加入更多技術性或特定行業的法規,例如加添確保在演算法歧視方面尊重性別平等規範的具體要求,並彰明演算法歧視案件中舉證責任的(轉移)規則。
歐盟在反歧視的規範上將「性別平等」的侵害與權利具象化地指出,但在此我們不禁思考,在人工智慧語音助理的虛擬女性困境中,仍否有適用之可能?我們該在此現象中保護何種法益?
為了實現兩性平等,在採取立法措施的同時,還可以採取獨立的或配套的政策措施來解決上述問題。政策和提高認識措施應包括演算法的設計者和開發者,以及關於平等問題的一般培訓。在設計演算法時,需要對開發人員進行有目的性的性別平等培訓。
且若人工智慧技術設計與開發場域中有更多女性參與,這可能會增加從演算法中獲得平等和多樣化結果的機會。除了鼓勵培訓外,還可以在設計階段規定強制性措施,使得越來越多的科技公司意識到人工智慧領域需要更多的性別平等與多樣性。
二、結論
透過間接和直接性別影響的觀點來解決基於性別的演算法歧視問題,使研究人員和政策制定者不僅能夠認識到問題的深度,而且能夠確定法律和政策措施的必要性。它透過研究演算法運行背後的具體機制來促進理解,從而闡明為什麼從法律性別平等執行角度來看乍看之下似乎無關的間接性別影響是理解和解決基於性別的問題的關鍵。演算法在塑造、強化和延續性別陳規定型觀念和偏見方面所發揮的作用已得到強調與實證,應在未來的立法和政策行動中予以考慮。
[1] 林彤,〈全球人工智慧法規與治理的發展趨勢〉,《臺灣經濟研究月刊》 43卷2期,頁39。
[2] 賴曉黎,〈資通科技的工具面向-從科技決定論談起〉,《《資訊社會研究》 23期 》,2012,頁8。
[3] 陳亭瑋,<是誰教機器人性別歧視?人工智慧複製人類偏見——高醫大性別所余貞誼專訪>,https://pansci.asia(最後瀏覽日:28/12/2023)。
[4] See EP Committee on Women’s Rights and Gender Equality and EC Advisory Committee
[5] 余貞誼,<Data for Good:我們希望演算法做對什麼?>,https://www.thenewslens.com(最後瀏覽日:28/12/2023)。
[6] 報告書全文:https://en.unesco.org/Id-blush-if-I-could
[7] 在許多國家,就消費者使用的數量和頻率而言,這四家公司的語音助理占語音助理市場的90%以上。總的來說,亞馬遜的Alexa,蘋果的Siri,谷歌的Google Assistant和Microsoft的Cortana安裝在全球超過20億台網路連接設備上。
[8] 端傳媒,<聯合國報告指Siri、Alexa、Cortana等AI助手默認女音助長性別偏見,你認同嗎?>,https://theinitium.com(最後瀏覽日:28/12/2023)。
[9] West, M., Kraut, R., & Chew Han Ei. (2019). (rep.). I’d blush if I could: closing gender divides in digital skills through education (pp.109). UNESCO.
[10] Id. at 109.
[11] Id. at 117.
[12] Id. at 106.
[13] Id. at 105-106.
[14] Id. at 108.
[15] BBC News中文,<人類虛擬助手如何「學習」對付騷擾和言語辱罵>,https://www.bbc.com(最後瀏覽日:02/01/2024)。
[16] 陳慧娟,《語音助理性別對使用者的權力與信任感知之影響》,頁57,國立台中科技大學多媒體設計系碩士論文。
[17] 陳立婷,《Hey Alexa,為何你是女生?智慧裝置語音助理之性別分析》,頁46-50,世新大學性別研究所碩士論文。
[18] <「Hey Siri」為何語音助理都是女生>,https://womany.net(最後瀏覽日:02/01/2024)
[19] Ad hoc expert group (AHEG) for the preparation of a draft text of a recommendation the ethics of artificial intelligence. (2020). Outcome Document: First Draft of the Recommendation on the Ethics of Artificial Intelligence. UNESCO, 1–2.
[20] Id. at 9.
[21] Id. at 12.
[22] Judith Butler. (2006). Gender Trouble: Feminism And the Subversion of Identity. Routledge.
[23] John berger. (2021). 觀看的方式 Ways of Seeing. 麥田.
[24] 陳立婷,前揭註,頁45
[25] Lulu chang. (2016, February 6). Microsoft’s Cortana Gets Sexually Harassed, but She Fights Back. Digitaltrends. https://www.digitaltrends.com/cool-tech/microsoft-cortana-sexual-harassment/
[26] Heather kelly. (2016, February 5). Even Virtual Assistants Are Sexually Harassed. CNN. https://money.cnn.com/2016/02/05/technology/virtual-assistants-sexual-harassment/index.html(最後瀏覽日期:02/01/2024)
[27] 微軟聊天機器人被帶壞 口出惡言遭下線 (陳昱婷, Trans.). (2016, March 25). 中央通訊社. https://www.cna.com.tw/news/ait/201603250145.aspx
[28] The Great AI Divide. (2016). LIVEPERSON.
[29] The Great AI Divide. (2016). LIVEPERSON, 23.
[30] Yolande strengers, & Jenny kennedy. (2023). 智慧妻子:Siri、Alexa與AI家電也需要女性主義?.國立陽明交通大學出版社,頁190.
[31] West, M., Kraut, R., & Chew Han Ei., supra note 9, at 111.
[32] Id. at 111.
[33] Id. at 112.
[34] Brandon griggs. (2011, October 21). Why Computer Voices Are Mostly Female. CNN. https://edition.cnn.com/2011/10/21/tech/innovation/female-computer-voices/index.html(最後瀏覽日期:03/01/2024)。
[35] FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI. (2023, July 21). THE WHITE HOUSE. https://www.whitehouse.gov/ostp/ai-bill-of-rights/(最後瀏覽日期:03/01/2024)。
Lütz, F. Gender equality and artificial intelligence in Europe. Addressing direct and indirect impacts of algorithms on gender-based discrimination. ERA Forum 23, 33–52 (2022). https://doi.org/10.1007/s12027-022-00709-6.(最後瀏覽日期:03/01/2024)。
[36] FACT SHEET: Biden-Harris Administration Secures Voluntary Commitments from Leading Artificial Intelligence Companies to Manage the Risks Posed by AI,https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/(最後瀏覽日期:02/01/2024)。
[37] 《European Convention on Human Rights》 (§14). (n.d.).
[38] Council of Europe. Chart of signatures and ratifications of Treaty 210.
[39] Council of Europe Convention on Preventing and Combating Violence against Women and Domestic Violence (§17). (n.d.).
[40] Catherine d’ignazio , & Lauren f. kleins. (2023). Data Feminism. The MIT Press
Blueprint for an AI Bill of Rights. (2022, October 4). THE WHITE HOUSE. https://www.whitehouse.gov/ostp/ai-bill-of-rights/(最後瀏覽日期:02/01/2024)。