文字遊戲:話語心理學的重要性
那些看似不重要卻互相矛盾的地方,就是細節裡的魔鬼
本法所稱人工智慧定義。(草案第二條)
本法所稱人工智慧,指具自主運行能力之系統,該系統透過輸入或感測,經由機器學習及演算法,可為明確或隱含之目標實現預測、內容、建議或決策等影響實體或虛擬環境之產出。
所以人腦也算嗎?
定義很重要,當主體的對象是人,這整份草案便能夠被解讀成「政府對人民的思想控制」—裴七
根據經濟合作暨發展組織(OECD)二0一九年公布之人工智慧建議書對 AI 的定義:
An AI system is a machine-based system that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments.
—《Recommendation of the Council on Artificial Intelligence 8》(OECD Legal Instruments, 2019)
- 如果人腦也算的話,那是否代表政府可以無視個體意願,強制將個人產出作為大數據的一環?
- 並且很明顯草案第二條就是直接照翻這一段的譯文,為何省略 machine-based system?
人工智慧研發與應用之基本原則。(草案第三條)
人工智慧之研發與應用,應在兼顧社會公益及數位平權之前提下,發展良善治理,並遵循下列原則:
二、人類自主性:應支持人類自主權,尊重人格權等個人基本權利與文化價值,並允許人類監督,落實以人為本並尊重法治及民主價值觀。
所以原本沒打算讓人類做監督?而是讓機器交互檢驗數據?
於第二款定明人類自主性原則 ,應支持人類自主權(Human Autonomy),並尊重人格權(含姓名、肖像、聲音)等個人基本權利與文化價值,確保以人為本之基本價值。
AI actors should respect the rule of law, human rights, democratic and human-centred values throughout the AI system lifecycle. These include non-discrimination and equality, freedom, dignity, autonomy of individuals, privacy and data protection, diversity, fairness, social justice, and internationally recognised labour rights. This also includes addressing misinformation and disinformation amplified by AI, while respecting freedom of expression and other rights and freedoms protected by applicable international law.
—《Recommendation of the Council on Artificial Intelligence 8》(OECD Legal Instruments, 2019)
- 台灣是民主國,為何還需要特別強調人權自主性(尤其是身份識別等要素)?這是否與草案第一條相呼應?人腦也被視為人工智慧?
- 明明 OECD 還有說了很多人權都該被保障的權利,為何只特別點出人類自主權?台灣最需要的勞工權益、個資保護法呢?這些難道不是現在最應該關注的社會議題嗎?
- 難道暗指當代社會已無法分辨出機器人與真人?
三、隱私保護及資料治理:應妥善保護個人資料隱私,避免資料外洩風險,並採用資料最小化原則;在符合憲法隱私權保障之前提下,促進非敏感資料之開放及再利用。
所以人類的憲法是個資的唯一保障嗎?但是草案第一條的定義如若成立,憲法與人工智慧法到底該以誰為主?
Adequate, relevant and limited to what is necessary in relation to the purposes for which they are processed (‘data minimisation’) — (GDPR, 2018)
- 資料最小化原則的來源出處是 General Data Protection Regulation (GDPR),為何起草法案無將其視爲參考來源之一?
Consent should only be used to justify collection of data in cases where it can be appropriately and meaningfully given.
— 《The Blueprint for an AI Bill of Rights》(Blueprint for an AI Bill of Rights | OSTP | The White House, 2023)
- 美國權利 AI 法案藍圖明明就有說「僅在可以適當且有意義地給予同意的情況下,才應使用同意來證明數據收集的合理性。」為何不將這一條納入草案法條三第三款,作為保障個資的護城河?
Enhanced protections and restrictions for data and inferences related to sensitive domains, including health, work, education, criminal justice, and finance, and for data pertaining to youth should put you first. In sensitive domains, your data and related inferences should only be used for necessary functions, and you should be protected by ethical review and use prohibitions.
— 《The Blueprint for an AI Bill of Rights》(Blueprint for an AI Bill of Rights | OSTP | The White House, 2023)
- 並且,「加強對與敏感領域(包括健康、工作、教育、刑事司法和金融)相關的數據和推論以及與青少年相關的數據的保護和限制應該都以個人意願為優先。」這一部分的加強是否才該是草案法條三真正該起草的相關內容?
六、公平性:人工智慧研發與應用過程中,應盡可能避免演算法產生偏差及歧視等風險,不應對特定群體造成歧視之結果。
- 如何避免?全球最大的社交平台演算法 — Meta 都將演算法歧視延伸為一種全球現象了 (Albert, 2023; Facebook algorithm engages in prohibited gender discrimination, 2025)。
- 演算法的存在本就具備偏頗性,難道是要只接受特定類型的資料來源嗎?
政府得透過法令或指引建立標準、驗證、朔源或問責機制,強化人工智慧決策之可驗證性及人為可控性。(草案第十條)
政府得透過法令或指引建立標準、驗證、溯源或問責機制,於促進人工智慧研發與應用之同時,以風險管理為基礎,評估潛在弱點及可能濫用之情形,強化人工智慧決策之可驗證性及人為可控性,以提升人工智慧應用之可信任度。
為提升人工智慧應用之可信任度,政府得透過具有拘束力之法令(如法律、法規命令或行政規則)或不具拘束力之行政指導(如技術應用指引)之方式,推動安全標準(包括團體標準、國家標準、國際標準)、驗證、透明可解釋之溯源或問責機制,協助研發、部署或應用人工智慧者納入風險管理制度,針對人工智慧決策過程或內容結果進行驗證,並確保能由人類有效監督。
所以當政府覺得數據來源對自身不利時,便能夠利用五權三力之便,屏蔽掉該數據來源嗎? <--> 人工智慧研發與應用之基本原則(草案第三條)第六款(公平性)
希望大家耐著性子,好好的看一遍,不要這麼輕易的將自己的國家交給如此破綻百出的決定。

24th Dec. 2025
裴七 🐾
© 2025 Softlogic Ink. All rights reserved.
嚴禁私自販售、改寫、複製本網站
所有內容/作品,違者將保留追究權利
智慧財產權聲明|授權說明
References
Albert, J. (2023) Not a solution: Meta’s new AI system to contain discriminatory ads, AlgorithmWatch. Available at: https://algorithmwatch.org/en/meta-discriminatory-ads/ (Accessed: 24 December 2025).
Blueprint for an AI Bill of Rights | OSTP | The White House (2023) The White House. Available at: https://bidenwhitehouse.archives.gov/ostp/ai-bill-of-rights/#privacy (Accessed: 24 December 2025).
Facebook algorithm engages in prohibited gender discrimination (2025) Global Witness. Available at: https://globalwitness.org/en/press-releases/facebook-algorithm-engages-in-prohibited-gender-discrimination/ (Accessed: 24 December 2025).
GDPR (2018) Art. 5 GDPR – Principles Relating to Processing of Personal Data | General Data Protection Regulation (GDPR), General Data Protection Regulation (GDPR). Available at: https://gdpr-info.eu/art-5-gdpr/ (Accessed: 24 December 2025).
OECD Legal Instruments (2019) Recommendation of the Council on OECD Legal Instruments Artificial Intelligence 8. Available at: https://legalinstruments.oecd.org/api/print?ids=648&lang=en (Accessed: 24 December 2025).















