郝信華 iPAS AI應用規劃師 學習筆記
AI風險管理
25
免費公開
房間資訊
AI風險管理
全部
全部
全部類型
免費與付費
最新發佈
最新發佈
iPAS AI應用規劃師學習筆記
2025/09/02
聲譽風險(Reputation Risk)
聲譽風險(Reputation Risk)指的是由於企業或產品受到負面事件、信息曝光或用戶質疑,導致品牌信譽受損,影響其市場地位、客戶信任及營收的風險。在機器學習與人工智慧(AI)領域,聲譽風險特別關注AI系統可能帶來的負面影響,包括誤判、偏見、隱私泄露或生成不當內容,進而損害企業形象。 聲譽風險
含 AI 應用內容
#
AI風險管理
#
風險
#
機器學習
iPAS AI應用規劃師學習筆記
2025/09/02
聲譽風險(Reputation Risk)
聲譽風險(Reputation Risk)指的是由於企業或產品受到負面事件、信息曝光或用戶質疑,導致品牌信譽受損,影響其市場地位、客戶信任及營收的風險。在機器學習與人工智慧(AI)領域,聲譽風險特別關注AI系統可能帶來的負面影響,包括誤判、偏見、隱私泄露或生成不當內容,進而損害企業形象。 聲譽風險
含 AI 應用內容
#
AI風險管理
#
風險
#
機器學習
iPAS AI應用規劃師學習筆記
2025/09/02
數據重建攻擊(Data Reconstruction Attack)
數據重建攻擊(Data Reconstruction Attack)是一種針對機器學習模型的隱私攻擊,攻擊者試圖從模型的輸出或梯度資訊中反推原始訓練數據,重新構建敏感的數據樣本。 數據重建攻擊的定義與原理: • 攻擊者通過攔截或獲得模型訓練過程中暴露的數據(如梯度、參數更新等),利用數學優化和
含 AI 應用內容
#
AI風險管理
#
數據
#
攻擊
iPAS AI應用規劃師學習筆記
2025/09/02
數據重建攻擊(Data Reconstruction Attack)
數據重建攻擊(Data Reconstruction Attack)是一種針對機器學習模型的隱私攻擊,攻擊者試圖從模型的輸出或梯度資訊中反推原始訓練數據,重新構建敏感的數據樣本。 數據重建攻擊的定義與原理: • 攻擊者通過攔截或獲得模型訓練過程中暴露的數據(如梯度、參數更新等),利用數學優化和
含 AI 應用內容
#
AI風險管理
#
數據
#
攻擊
iPAS AI應用規劃師學習筆記
2025/09/02
成員推斷攻擊(Membership Inference Attack)
「成員推斷攻擊」(Membership Inference Attack)是一種針對機器學習模型的隱私攻擊技術。攻擊者目標是判斷某個特定數據樣本是否包含在模型的訓練數據中,從而推斷出用戶的敏感信息。 成員推斷攻擊的原理與工作方式: • 攻擊者利用觀察模型輸出的差異,尤其是對訓練數據和未見過數據
含 AI 應用內容
#
AI風險管理
#
模型
#
數據
iPAS AI應用規劃師學習筆記
2025/09/02
成員推斷攻擊(Membership Inference Attack)
「成員推斷攻擊」(Membership Inference Attack)是一種針對機器學習模型的隱私攻擊技術。攻擊者目標是判斷某個特定數據樣本是否包含在模型的訓練數據中,從而推斷出用戶的敏感信息。 成員推斷攻擊的原理與工作方式: • 攻擊者利用觀察模型輸出的差異,尤其是對訓練數據和未見過數據
含 AI 應用內容
#
AI風險管理
#
模型
#
數據
iPAS AI應用規劃師學習筆記
2025/09/02
演算法焦慮
演算法焦慮泛指因應對各類演算法系統(如社交媒體推薦、內容排序、流量指標等)的不確定性與影響,所產生的心理焦慮和壓力感。這種現象在數位時代普遍存在,尤其影響內容創作者、用戶及企業。 演算法焦慮的定義與主要成因: • 定義:使用者因為過度關注演算法如何決定內容曝光、排名,導致自我價值與成功感受與演
含 AI 應用內容
#
AI風險管理
#
焦慮
#
心理
iPAS AI應用規劃師學習筆記
2025/09/02
演算法焦慮
演算法焦慮泛指因應對各類演算法系統(如社交媒體推薦、內容排序、流量指標等)的不確定性與影響,所產生的心理焦慮和壓力感。這種現象在數位時代普遍存在,尤其影響內容創作者、用戶及企業。 演算法焦慮的定義與主要成因: • 定義:使用者因為過度關注演算法如何決定內容曝光、排名,導致自我價值與成功感受與演
含 AI 應用內容
#
AI風險管理
#
焦慮
#
心理
iPAS AI應用規劃師學習筆記
2025/09/02
藍隊演練(Blue Team Exercise)
藍隊演練(Blue Team Exercise)是指組織內部的資安防禦團隊進行的安全演練,目的是在遭受攻擊時迅速偵測、應對並防護,減少損害。與紅隊(攻擊方)模擬攻擊系統不同,藍隊聚焦於系統防禦、事件響應、漏洞修補及資安監控,是資安防護的重要環節。 藍隊演練的主要內容包括: • 安全事件監控與日
含 AI 應用內容
#
AI風險管理
#
演練
#
資安
iPAS AI應用規劃師學習筆記
2025/09/02
藍隊演練(Blue Team Exercise)
藍隊演練(Blue Team Exercise)是指組織內部的資安防禦團隊進行的安全演練,目的是在遭受攻擊時迅速偵測、應對並防護,減少損害。與紅隊(攻擊方)模擬攻擊系統不同,藍隊聚焦於系統防禦、事件響應、漏洞修補及資安監控,是資安防護的重要環節。 藍隊演練的主要內容包括: • 安全事件監控與日
含 AI 應用內容
#
AI風險管理
#
演練
#
資安
iPAS AI應用規劃師學習筆記
2025/09/02
紅隊演練(Red Team Exercise)
紅隊演練(Red Team Exercise)是一種模擬真實攻擊者行為的安全測試方法,藉由主動對系統、應用或AI模型進行全面性的攻擊和挑戰,來評估系統的脆弱性與防禦能力,進而提升整體安全防護水平。 紅隊演練的主要特點與流程: • 目標:模擬敵對攻擊者環境,發掘系統漏洞、弱點及安全風險。 •
含 AI 應用內容
#
AI風險管理
#
演練
#
漏洞
iPAS AI應用規劃師學習筆記
2025/09/02
紅隊演練(Red Team Exercise)
紅隊演練(Red Team Exercise)是一種模擬真實攻擊者行為的安全測試方法,藉由主動對系統、應用或AI模型進行全面性的攻擊和挑戰,來評估系統的脆弱性與防禦能力,進而提升整體安全防護水平。 紅隊演練的主要特點與流程: • 目標:模擬敵對攻擊者環境,發掘系統漏洞、弱點及安全風險。 •
含 AI 應用內容
#
AI風險管理
#
演練
#
漏洞
iPAS AI應用規劃師學習筆記
2025/09/02
HITL(Human-in-the-Loop)人在迴路中
HITL(Human-in-the-Loop)指的是機器學習或人工智慧系統中,人類能夠在系統設計、訓練、判斷或決策過程中介入的機制或流程。此方法結合人類專業知識與機器學習算法,以提高模型的準確度、可靠性和倫理性。 HITL的工作原理與特點: • 人類參與數據標注、模型訓練數據清理、模型校正和實
含 AI 應用內容
#
AI風險管理
#
機器學習
#
人類
iPAS AI應用規劃師學習筆記
2025/09/02
HITL(Human-in-the-Loop)人在迴路中
HITL(Human-in-the-Loop)指的是機器學習或人工智慧系統中,人類能夠在系統設計、訓練、判斷或決策過程中介入的機制或流程。此方法結合人類專業知識與機器學習算法,以提高模型的準確度、可靠性和倫理性。 HITL的工作原理與特點: • 人類參與數據標注、模型訓練數據清理、模型校正和實
含 AI 應用內容
#
AI風險管理
#
機器學習
#
人類
iPAS AI應用規劃師學習筆記
2025/09/02
Adversarial Attack(對抗性攻擊)
Adversarial Attack(對抗性攻擊)是在機器學習中,攻擊者故意設計微小但精心修改的輸入(稱為對抗樣本),使模型產生錯誤判斷或錯誤預測的一種攻擊手法。這些微小的改動對人類觀察者來說幾乎無異,但能有效迷惑AI模型。 Adversarial Attack的定義和工作原理 • 攻擊者透過
含 AI 應用內容
#
AI風險管理
#
模型
#
攻擊
iPAS AI應用規劃師學習筆記
2025/09/02
Adversarial Attack(對抗性攻擊)
Adversarial Attack(對抗性攻擊)是在機器學習中,攻擊者故意設計微小但精心修改的輸入(稱為對抗樣本),使模型產生錯誤判斷或錯誤預測的一種攻擊手法。這些微小的改動對人類觀察者來說幾乎無異,但能有效迷惑AI模型。 Adversarial Attack的定義和工作原理 • 攻擊者透過
含 AI 應用內容
#
AI風險管理
#
模型
#
攻擊
iPAS AI應用規劃師學習筆記
2025/09/02
人工智慧(AI)模型的公平性指標
評估人工智慧(AI)模型的公平性指標主要用來衡量模型在不同人口群體或個體之間是否表現出平等對待,避免偏見和歧視。這些指標可分為群體公平性指標、個體公平性指標,以及基於過程和結果的公平性指標。 主要公平性指標類型: 1. 群體公平性指標 • 統計均等性(Demographic Parity)
含 AI 應用內容
#
AI風險管理
#
指標
#
模型
iPAS AI應用規劃師學習筆記
2025/09/02
人工智慧(AI)模型的公平性指標
評估人工智慧(AI)模型的公平性指標主要用來衡量模型在不同人口群體或個體之間是否表現出平等對待,避免偏見和歧視。這些指標可分為群體公平性指標、個體公平性指標,以及基於過程和結果的公平性指標。 主要公平性指標類型: 1. 群體公平性指標 • 統計均等性(Demographic Parity)
含 AI 應用內容
#
AI風險管理
#
指標
#
模型
iPAS AI應用規劃師學習筆記
2025/09/01
安全開發生命週期(Secure Software Development Life Cycle, SSDLC)
安全開發生命週期(Secure Software Development Life Cycle, SSDLC)是一種在軟體開發的各個階段(需求、設計、開發、測試、部署和維運)中主動整合安全和隱私考量的流程,目的是在軟體生命週期的每個階段降低安全風險與漏洞,提高軟體安全性與可靠性。 主要階段與內容
含 AI 應用內容
#
AI風險管理
#
階段
#
開發
iPAS AI應用規劃師學習筆記
2025/09/01
安全開發生命週期(Secure Software Development Life Cycle, SSDLC)
安全開發生命週期(Secure Software Development Life Cycle, SSDLC)是一種在軟體開發的各個階段(需求、設計、開發、測試、部署和維運)中主動整合安全和隱私考量的流程,目的是在軟體生命週期的每個階段降低安全風險與漏洞,提高軟體安全性與可靠性。 主要階段與內容
含 AI 應用內容
#
AI風險管理
#
階段
#
開發
iPAS AI應用規劃師學習筆記
2025/08/29
金管會 金融業運用人工智慧(AI)指引
金融監督管理委員會(金管會)於2024年6月20日正式發布「金融業運用人工智慧(AI)指引」,以推動金融機構安全、合規且負責任地導入與運用AI技術,協助金融業提升服務效率與公平性,同時保障客戶權益與金融市場穩定。 金管會「金融業運用人工智慧指引」主要內容: 1. 總則與共通事項 • 包括A
含 AI 應用內容
#
AI風險管理
#
金融業
#
管理
iPAS AI應用規劃師學習筆記
2025/08/29
金管會 金融業運用人工智慧(AI)指引
金融監督管理委員會(金管會)於2024年6月20日正式發布「金融業運用人工智慧(AI)指引」,以推動金融機構安全、合規且負責任地導入與運用AI技術,協助金融業提升服務效率與公平性,同時保障客戶權益與金融市場穩定。 金管會「金融業運用人工智慧指引」主要內容: 1. 總則與共通事項 • 包括A
含 AI 應用內容
#
AI風險管理
#
金融業
#
管理
iPAS AI應用規劃師學習筆記
2025/08/29
數位發展部 公部門人工智慧應用參考手冊(草案)
「公部門人工智慧應用參考手冊(草案)」由數位發展部於2025年初發布,目的是協助各級政府機關理解AI技術、評估AI應用場景、推動AI導入並掌握相關風險與治理議題,打造負責任且有效率的公部門AI應用生態。 手冊主要內容: 1. AI概念介紹 • 介紹AI與生成式AI的基本定義、技術類型、應用
含 AI 應用內容
#
AI風險管理
#
數位發展部
#
人工智慧
iPAS AI應用規劃師學習筆記
2025/08/29
數位發展部 公部門人工智慧應用參考手冊(草案)
「公部門人工智慧應用參考手冊(草案)」由數位發展部於2025年初發布,目的是協助各級政府機關理解AI技術、評估AI應用場景、推動AI導入並掌握相關風險與治理議題,打造負責任且有效率的公部門AI應用生態。 手冊主要內容: 1. AI概念介紹 • 介紹AI與生成式AI的基本定義、技術類型、應用
含 AI 應用內容
#
AI風險管理
#
數位發展部
#
人工智慧
iPAS AI應用規劃師學習筆記
2025/08/29
國科會 AI科學發展策略
國家科學及技術委員會(國科會)在2024年針對人工智慧(AI)科學發展提出了全面的策略規劃,主要聚焦於打造臺灣成為全球AI科技創新的重要基地,推動AI與產業深度融合,並提升國際競爭力。 國科會AI科學發展策略主要內容: 1. 臺灣AI行動計畫2.0(2023-2026) • 核心目標是強化
含 AI 應用內容
#
AI風險管理
#
國科會
#
生成式AI
iPAS AI應用規劃師學習筆記
2025/08/29
國科會 AI科學發展策略
國家科學及技術委員會(國科會)在2024年針對人工智慧(AI)科學發展提出了全面的策略規劃,主要聚焦於打造臺灣成為全球AI科技創新的重要基地,推動AI與產業深度融合,並提升國際競爭力。 國科會AI科學發展策略主要內容: 1. 臺灣AI行動計畫2.0(2023-2026) • 核心目標是強化
含 AI 應用內容
#
AI風險管理
#
國科會
#
生成式AI
iPAS AI應用規劃師學習筆記
2025/08/29
NIST AI Risk Management Framework(NIST AI RMF)
NIST AI Risk Management Framework(NIST AI RMF)是由美國國家標準暨技術研究院(NIST)在2023年首次發布的一套自願性指導框架,旨在幫助組織系統性管理人工智慧(AI)系統在其整個生命周期中的風險,促進可信任且負責任的AI技術開發與應用。2024年7月,N
含 AI 應用內容
#
AI風險管理
#
生成式AI
#
風險
iPAS AI應用規劃師學習筆記
2025/08/29
NIST AI Risk Management Framework(NIST AI RMF)
NIST AI Risk Management Framework(NIST AI RMF)是由美國國家標準暨技術研究院(NIST)在2023年首次發布的一套自願性指導框架,旨在幫助組織系統性管理人工智慧(AI)系統在其整個生命周期中的風險,促進可信任且負責任的AI技術開發與應用。2024年7月,N
含 AI 應用內容
#
AI風險管理
#
生成式AI
#
風險
iPAS AI應用規劃師學習筆記
2025/08/29
OECD AI Principles
OECD AI Principles是在2019年由經濟合作與發展組織(OECD)首次制定,並於2024年更新的一套人工智慧治理標準,旨在推動創新、可信且尊重人權與民主價值的AI技術發展。 2024年OECD AI Principles更新重點: 主要價值導向原則(五大原則) 1. 創新與環
含 AI 應用內容
#
AI風險管理
#
OECD
#
政策
1
iPAS AI應用規劃師學習筆記
2025/08/29
OECD AI Principles
OECD AI Principles是在2019年由經濟合作與發展組織(OECD)首次制定,並於2024年更新的一套人工智慧治理標準,旨在推動創新、可信且尊重人權與民主價值的AI技術發展。 2024年OECD AI Principles更新重點: 主要價值導向原則(五大原則) 1. 創新與環
含 AI 應用內容
#
AI風險管理
#
OECD
#
政策
1
iPAS AI應用規劃師學習筆記
2025/08/28
Homomorphic Encryption(同態加密)
Homomorphic Encryption(同態加密)是一種先進的加密技術,允許對加密數據直接進行計算和處理,而無需先將數據解密。計算結果仍保留加密狀態,只有持有私鑰的用戶才能解密並獲得與在未加密數據上計算相同的結果。 同態加密的定義與原理: • 這種加密方法支持對加密數據執行算術或邏輯運算
含 AI 應用內容
#
AI風險管理
#
數據
#
momo
1
iPAS AI應用規劃師學習筆記
2025/08/28
Homomorphic Encryption(同態加密)
Homomorphic Encryption(同態加密)是一種先進的加密技術,允許對加密數據直接進行計算和處理,而無需先將數據解密。計算結果仍保留加密狀態,只有持有私鑰的用戶才能解密並獲得與在未加密數據上計算相同的結果。 同態加密的定義與原理: • 這種加密方法支持對加密數據執行算術或邏輯運算
含 AI 應用內容
#
AI風險管理
#
數據
#
momo
1
iPAS AI應用規劃師學習筆記
2025/08/28
Federated Learning(聯邦學習)
Federated Learning(聯邦學習)是一種機器學習技術,允許多個分散的設備或服務器在本地數據上共同訓練模型,而不需將數據集中或共享,從而實現數據隱私保護與協同學習。 聯邦學習的定義與核心原理: • 聯邦學習使多個本地節點(如手機或邊緣設備)在自己的數據上訓練局部模型,僅將模型參數或
含 AI 應用內容
#
AI風險管理
#
數據
#
學習
iPAS AI應用規劃師學習筆記
2025/08/28
Federated Learning(聯邦學習)
Federated Learning(聯邦學習)是一種機器學習技術,允許多個分散的設備或服務器在本地數據上共同訓練模型,而不需將數據集中或共享,從而實現數據隱私保護與協同學習。 聯邦學習的定義與核心原理: • 聯邦學習使多個本地節點(如手機或邊緣設備)在自己的數據上訓練局部模型,僅將模型參數或
含 AI 應用內容
#
AI風險管理
#
數據
#
學習
iPAS AI應用規劃師學習筆記
2025/08/28
Differential Privacy(差分隱私)
Differential Privacy(差分隱私)是一種數學框架,用於在數據分析和機器學習中保護個人隱私,確保透過數據集產生的結果不會明顯透露任何單一個體的資訊。 差分隱私的定義與原理: • 差分隱私保證當數據集中某個人的數據被加入或移除時,輸出結果的概率變化非常有限,令攻擊者難以判斷該個體
含 AI 應用內容
#
AI風險管理
#
隱私
#
數據
iPAS AI應用規劃師學習筆記
2025/08/28
Differential Privacy(差分隱私)
Differential Privacy(差分隱私)是一種數學框架,用於在數據分析和機器學習中保護個人隱私,確保透過數據集產生的結果不會明顯透露任何單一個體的資訊。 差分隱私的定義與原理: • 差分隱私保證當數據集中某個人的數據被加入或移除時,輸出結果的概率變化非常有限,令攻擊者難以判斷該個體
含 AI 應用內容
#
AI風險管理
#
隱私
#
數據
iPAS AI應用規劃師學習筆記
2025/08/28
GDPR(General Data Protection Regulation,通用數據保護條例)
GDPR(General Data Protection Regulation,通用數據保護條例)是歐盟於2018年生效的重要法律,規範個人數據的收集、處理與保護。對於機器學習和人工智慧模型的開發與部署,GDPR提出了嚴格的要求,以確保個人隱私權益不被侵犯。 GDPR在機器學習中的核心要求:
含 AI 應用內容
#
AI風險管理
#
GDPR
#
數據
iPAS AI應用規劃師學習筆記
2025/08/28
GDPR(General Data Protection Regulation,通用數據保護條例)
GDPR(General Data Protection Regulation,通用數據保護條例)是歐盟於2018年生效的重要法律,規範個人數據的收集、處理與保護。對於機器學習和人工智慧模型的開發與部署,GDPR提出了嚴格的要求,以確保個人隱私權益不被侵犯。 GDPR在機器學習中的核心要求:
含 AI 應用內容
#
AI風險管理
#
GDPR
#
數據
iPAS AI應用規劃師學習筆記
2025/08/28
Model Stealing(模型竊取)
Model Stealing(模型竊取)是一種針對機器學習模型的安全攻擊,攻擊者通過向目標模型發送大量查詢,並根據模型輸出的結果推測模型的內部參數、架構或行為,進而複製或仿製原模型。 Model Stealing的定義: • 攻擊者無需訪問模型的內部結構(黑盒攻擊),只利用模型的查詢輸出來重建
含 AI 應用內容
#
AI風險管理
#
模型
#
攻擊
iPAS AI應用規劃師學習筆記
2025/08/28
Model Stealing(模型竊取)
Model Stealing(模型竊取)是一種針對機器學習模型的安全攻擊,攻擊者通過向目標模型發送大量查詢,並根據模型輸出的結果推測模型的內部參數、架構或行為,進而複製或仿製原模型。 Model Stealing的定義: • 攻擊者無需訪問模型的內部結構(黑盒攻擊),只利用模型的查詢輸出來重建
含 AI 應用內容
#
AI風險管理
#
模型
#
攻擊
加入
全部
全部
全部類型
免費與付費
最新發佈
最新發佈
iPAS AI應用規劃師學習筆記
2025/09/02
聲譽風險(Reputation Risk)
聲譽風險(Reputation Risk)指的是由於企業或產品受到負面事件、信息曝光或用戶質疑,導致品牌信譽受損,影響其市場地位、客戶信任及營收的風險。在機器學習與人工智慧(AI)領域,聲譽風險特別關注AI系統可能帶來的負面影響,包括誤判、偏見、隱私泄露或生成不當內容,進而損害企業形象。 聲譽風險
含 AI 應用內容
#
AI風險管理
#
風險
#
機器學習
iPAS AI應用規劃師學習筆記
2025/09/02
聲譽風險(Reputation Risk)
聲譽風險(Reputation Risk)指的是由於企業或產品受到負面事件、信息曝光或用戶質疑,導致品牌信譽受損,影響其市場地位、客戶信任及營收的風險。在機器學習與人工智慧(AI)領域,聲譽風險特別關注AI系統可能帶來的負面影響,包括誤判、偏見、隱私泄露或生成不當內容,進而損害企業形象。 聲譽風險
含 AI 應用內容
#
AI風險管理
#
風險
#
機器學習
iPAS AI應用規劃師學習筆記
2025/09/02
數據重建攻擊(Data Reconstruction Attack)
數據重建攻擊(Data Reconstruction Attack)是一種針對機器學習模型的隱私攻擊,攻擊者試圖從模型的輸出或梯度資訊中反推原始訓練數據,重新構建敏感的數據樣本。 數據重建攻擊的定義與原理: • 攻擊者通過攔截或獲得模型訓練過程中暴露的數據(如梯度、參數更新等),利用數學優化和
含 AI 應用內容
#
AI風險管理
#
數據
#
攻擊
iPAS AI應用規劃師學習筆記
2025/09/02
數據重建攻擊(Data Reconstruction Attack)
數據重建攻擊(Data Reconstruction Attack)是一種針對機器學習模型的隱私攻擊,攻擊者試圖從模型的輸出或梯度資訊中反推原始訓練數據,重新構建敏感的數據樣本。 數據重建攻擊的定義與原理: • 攻擊者通過攔截或獲得模型訓練過程中暴露的數據(如梯度、參數更新等),利用數學優化和
含 AI 應用內容
#
AI風險管理
#
數據
#
攻擊
iPAS AI應用規劃師學習筆記
2025/09/02
成員推斷攻擊(Membership Inference Attack)
「成員推斷攻擊」(Membership Inference Attack)是一種針對機器學習模型的隱私攻擊技術。攻擊者目標是判斷某個特定數據樣本是否包含在模型的訓練數據中,從而推斷出用戶的敏感信息。 成員推斷攻擊的原理與工作方式: • 攻擊者利用觀察模型輸出的差異,尤其是對訓練數據和未見過數據
含 AI 應用內容
#
AI風險管理
#
模型
#
數據
iPAS AI應用規劃師學習筆記
2025/09/02
成員推斷攻擊(Membership Inference Attack)
「成員推斷攻擊」(Membership Inference Attack)是一種針對機器學習模型的隱私攻擊技術。攻擊者目標是判斷某個特定數據樣本是否包含在模型的訓練數據中,從而推斷出用戶的敏感信息。 成員推斷攻擊的原理與工作方式: • 攻擊者利用觀察模型輸出的差異,尤其是對訓練數據和未見過數據
含 AI 應用內容
#
AI風險管理
#
模型
#
數據
iPAS AI應用規劃師學習筆記
2025/09/02
演算法焦慮
演算法焦慮泛指因應對各類演算法系統(如社交媒體推薦、內容排序、流量指標等)的不確定性與影響,所產生的心理焦慮和壓力感。這種現象在數位時代普遍存在,尤其影響內容創作者、用戶及企業。 演算法焦慮的定義與主要成因: • 定義:使用者因為過度關注演算法如何決定內容曝光、排名,導致自我價值與成功感受與演
含 AI 應用內容
#
AI風險管理
#
焦慮
#
心理
iPAS AI應用規劃師學習筆記
2025/09/02
演算法焦慮
演算法焦慮泛指因應對各類演算法系統(如社交媒體推薦、內容排序、流量指標等)的不確定性與影響,所產生的心理焦慮和壓力感。這種現象在數位時代普遍存在,尤其影響內容創作者、用戶及企業。 演算法焦慮的定義與主要成因: • 定義:使用者因為過度關注演算法如何決定內容曝光、排名,導致自我價值與成功感受與演
含 AI 應用內容
#
AI風險管理
#
焦慮
#
心理
iPAS AI應用規劃師學習筆記
2025/09/02
藍隊演練(Blue Team Exercise)
藍隊演練(Blue Team Exercise)是指組織內部的資安防禦團隊進行的安全演練,目的是在遭受攻擊時迅速偵測、應對並防護,減少損害。與紅隊(攻擊方)模擬攻擊系統不同,藍隊聚焦於系統防禦、事件響應、漏洞修補及資安監控,是資安防護的重要環節。 藍隊演練的主要內容包括: • 安全事件監控與日
含 AI 應用內容
#
AI風險管理
#
演練
#
資安
iPAS AI應用規劃師學習筆記
2025/09/02
藍隊演練(Blue Team Exercise)
藍隊演練(Blue Team Exercise)是指組織內部的資安防禦團隊進行的安全演練,目的是在遭受攻擊時迅速偵測、應對並防護,減少損害。與紅隊(攻擊方)模擬攻擊系統不同,藍隊聚焦於系統防禦、事件響應、漏洞修補及資安監控,是資安防護的重要環節。 藍隊演練的主要內容包括: • 安全事件監控與日
含 AI 應用內容
#
AI風險管理
#
演練
#
資安
iPAS AI應用規劃師學習筆記
2025/09/02
紅隊演練(Red Team Exercise)
紅隊演練(Red Team Exercise)是一種模擬真實攻擊者行為的安全測試方法,藉由主動對系統、應用或AI模型進行全面性的攻擊和挑戰,來評估系統的脆弱性與防禦能力,進而提升整體安全防護水平。 紅隊演練的主要特點與流程: • 目標:模擬敵對攻擊者環境,發掘系統漏洞、弱點及安全風險。 •
含 AI 應用內容
#
AI風險管理
#
演練
#
漏洞
iPAS AI應用規劃師學習筆記
2025/09/02
紅隊演練(Red Team Exercise)
紅隊演練(Red Team Exercise)是一種模擬真實攻擊者行為的安全測試方法,藉由主動對系統、應用或AI模型進行全面性的攻擊和挑戰,來評估系統的脆弱性與防禦能力,進而提升整體安全防護水平。 紅隊演練的主要特點與流程: • 目標:模擬敵對攻擊者環境,發掘系統漏洞、弱點及安全風險。 •
含 AI 應用內容
#
AI風險管理
#
演練
#
漏洞
iPAS AI應用規劃師學習筆記
2025/09/02
HITL(Human-in-the-Loop)人在迴路中
HITL(Human-in-the-Loop)指的是機器學習或人工智慧系統中,人類能夠在系統設計、訓練、判斷或決策過程中介入的機制或流程。此方法結合人類專業知識與機器學習算法,以提高模型的準確度、可靠性和倫理性。 HITL的工作原理與特點: • 人類參與數據標注、模型訓練數據清理、模型校正和實
含 AI 應用內容
#
AI風險管理
#
機器學習
#
人類
iPAS AI應用規劃師學習筆記
2025/09/02
HITL(Human-in-the-Loop)人在迴路中
HITL(Human-in-the-Loop)指的是機器學習或人工智慧系統中,人類能夠在系統設計、訓練、判斷或決策過程中介入的機制或流程。此方法結合人類專業知識與機器學習算法,以提高模型的準確度、可靠性和倫理性。 HITL的工作原理與特點: • 人類參與數據標注、模型訓練數據清理、模型校正和實
含 AI 應用內容
#
AI風險管理
#
機器學習
#
人類
iPAS AI應用規劃師學習筆記
2025/09/02
Adversarial Attack(對抗性攻擊)
Adversarial Attack(對抗性攻擊)是在機器學習中,攻擊者故意設計微小但精心修改的輸入(稱為對抗樣本),使模型產生錯誤判斷或錯誤預測的一種攻擊手法。這些微小的改動對人類觀察者來說幾乎無異,但能有效迷惑AI模型。 Adversarial Attack的定義和工作原理 • 攻擊者透過
含 AI 應用內容
#
AI風險管理
#
模型
#
攻擊
iPAS AI應用規劃師學習筆記
2025/09/02
Adversarial Attack(對抗性攻擊)
Adversarial Attack(對抗性攻擊)是在機器學習中,攻擊者故意設計微小但精心修改的輸入(稱為對抗樣本),使模型產生錯誤判斷或錯誤預測的一種攻擊手法。這些微小的改動對人類觀察者來說幾乎無異,但能有效迷惑AI模型。 Adversarial Attack的定義和工作原理 • 攻擊者透過
含 AI 應用內容
#
AI風險管理
#
模型
#
攻擊
iPAS AI應用規劃師學習筆記
2025/09/02
人工智慧(AI)模型的公平性指標
評估人工智慧(AI)模型的公平性指標主要用來衡量模型在不同人口群體或個體之間是否表現出平等對待,避免偏見和歧視。這些指標可分為群體公平性指標、個體公平性指標,以及基於過程和結果的公平性指標。 主要公平性指標類型: 1. 群體公平性指標 • 統計均等性(Demographic Parity)
含 AI 應用內容
#
AI風險管理
#
指標
#
模型
iPAS AI應用規劃師學習筆記
2025/09/02
人工智慧(AI)模型的公平性指標
評估人工智慧(AI)模型的公平性指標主要用來衡量模型在不同人口群體或個體之間是否表現出平等對待,避免偏見和歧視。這些指標可分為群體公平性指標、個體公平性指標,以及基於過程和結果的公平性指標。 主要公平性指標類型: 1. 群體公平性指標 • 統計均等性(Demographic Parity)
含 AI 應用內容
#
AI風險管理
#
指標
#
模型
iPAS AI應用規劃師學習筆記
2025/09/01
安全開發生命週期(Secure Software Development Life Cycle, SSDLC)
安全開發生命週期(Secure Software Development Life Cycle, SSDLC)是一種在軟體開發的各個階段(需求、設計、開發、測試、部署和維運)中主動整合安全和隱私考量的流程,目的是在軟體生命週期的每個階段降低安全風險與漏洞,提高軟體安全性與可靠性。 主要階段與內容
含 AI 應用內容
#
AI風險管理
#
階段
#
開發
iPAS AI應用規劃師學習筆記
2025/09/01
安全開發生命週期(Secure Software Development Life Cycle, SSDLC)
安全開發生命週期(Secure Software Development Life Cycle, SSDLC)是一種在軟體開發的各個階段(需求、設計、開發、測試、部署和維運)中主動整合安全和隱私考量的流程,目的是在軟體生命週期的每個階段降低安全風險與漏洞,提高軟體安全性與可靠性。 主要階段與內容
含 AI 應用內容
#
AI風險管理
#
階段
#
開發
iPAS AI應用規劃師學習筆記
2025/08/29
金管會 金融業運用人工智慧(AI)指引
金融監督管理委員會(金管會)於2024年6月20日正式發布「金融業運用人工智慧(AI)指引」,以推動金融機構安全、合規且負責任地導入與運用AI技術,協助金融業提升服務效率與公平性,同時保障客戶權益與金融市場穩定。 金管會「金融業運用人工智慧指引」主要內容: 1. 總則與共通事項 • 包括A
含 AI 應用內容
#
AI風險管理
#
金融業
#
管理
iPAS AI應用規劃師學習筆記
2025/08/29
金管會 金融業運用人工智慧(AI)指引
金融監督管理委員會(金管會)於2024年6月20日正式發布「金融業運用人工智慧(AI)指引」,以推動金融機構安全、合規且負責任地導入與運用AI技術,協助金融業提升服務效率與公平性,同時保障客戶權益與金融市場穩定。 金管會「金融業運用人工智慧指引」主要內容: 1. 總則與共通事項 • 包括A
含 AI 應用內容
#
AI風險管理
#
金融業
#
管理
iPAS AI應用規劃師學習筆記
2025/08/29
數位發展部 公部門人工智慧應用參考手冊(草案)
「公部門人工智慧應用參考手冊(草案)」由數位發展部於2025年初發布,目的是協助各級政府機關理解AI技術、評估AI應用場景、推動AI導入並掌握相關風險與治理議題,打造負責任且有效率的公部門AI應用生態。 手冊主要內容: 1. AI概念介紹 • 介紹AI與生成式AI的基本定義、技術類型、應用
含 AI 應用內容
#
AI風險管理
#
數位發展部
#
人工智慧
iPAS AI應用規劃師學習筆記
2025/08/29
數位發展部 公部門人工智慧應用參考手冊(草案)
「公部門人工智慧應用參考手冊(草案)」由數位發展部於2025年初發布,目的是協助各級政府機關理解AI技術、評估AI應用場景、推動AI導入並掌握相關風險與治理議題,打造負責任且有效率的公部門AI應用生態。 手冊主要內容: 1. AI概念介紹 • 介紹AI與生成式AI的基本定義、技術類型、應用
含 AI 應用內容
#
AI風險管理
#
數位發展部
#
人工智慧
iPAS AI應用規劃師學習筆記
2025/08/29
國科會 AI科學發展策略
國家科學及技術委員會(國科會)在2024年針對人工智慧(AI)科學發展提出了全面的策略規劃,主要聚焦於打造臺灣成為全球AI科技創新的重要基地,推動AI與產業深度融合,並提升國際競爭力。 國科會AI科學發展策略主要內容: 1. 臺灣AI行動計畫2.0(2023-2026) • 核心目標是強化
含 AI 應用內容
#
AI風險管理
#
國科會
#
生成式AI
iPAS AI應用規劃師學習筆記
2025/08/29
國科會 AI科學發展策略
國家科學及技術委員會(國科會)在2024年針對人工智慧(AI)科學發展提出了全面的策略規劃,主要聚焦於打造臺灣成為全球AI科技創新的重要基地,推動AI與產業深度融合,並提升國際競爭力。 國科會AI科學發展策略主要內容: 1. 臺灣AI行動計畫2.0(2023-2026) • 核心目標是強化
含 AI 應用內容
#
AI風險管理
#
國科會
#
生成式AI
iPAS AI應用規劃師學習筆記
2025/08/29
NIST AI Risk Management Framework(NIST AI RMF)
NIST AI Risk Management Framework(NIST AI RMF)是由美國國家標準暨技術研究院(NIST)在2023年首次發布的一套自願性指導框架,旨在幫助組織系統性管理人工智慧(AI)系統在其整個生命周期中的風險,促進可信任且負責任的AI技術開發與應用。2024年7月,N
含 AI 應用內容
#
AI風險管理
#
生成式AI
#
風險
iPAS AI應用規劃師學習筆記
2025/08/29
NIST AI Risk Management Framework(NIST AI RMF)
NIST AI Risk Management Framework(NIST AI RMF)是由美國國家標準暨技術研究院(NIST)在2023年首次發布的一套自願性指導框架,旨在幫助組織系統性管理人工智慧(AI)系統在其整個生命周期中的風險,促進可信任且負責任的AI技術開發與應用。2024年7月,N
含 AI 應用內容
#
AI風險管理
#
生成式AI
#
風險
iPAS AI應用規劃師學習筆記
2025/08/29
OECD AI Principles
OECD AI Principles是在2019年由經濟合作與發展組織(OECD)首次制定,並於2024年更新的一套人工智慧治理標準,旨在推動創新、可信且尊重人權與民主價值的AI技術發展。 2024年OECD AI Principles更新重點: 主要價值導向原則(五大原則) 1. 創新與環
含 AI 應用內容
#
AI風險管理
#
OECD
#
政策
1
iPAS AI應用規劃師學習筆記
2025/08/29
OECD AI Principles
OECD AI Principles是在2019年由經濟合作與發展組織(OECD)首次制定,並於2024年更新的一套人工智慧治理標準,旨在推動創新、可信且尊重人權與民主價值的AI技術發展。 2024年OECD AI Principles更新重點: 主要價值導向原則(五大原則) 1. 創新與環
含 AI 應用內容
#
AI風險管理
#
OECD
#
政策
1
iPAS AI應用規劃師學習筆記
2025/08/28
Homomorphic Encryption(同態加密)
Homomorphic Encryption(同態加密)是一種先進的加密技術,允許對加密數據直接進行計算和處理,而無需先將數據解密。計算結果仍保留加密狀態,只有持有私鑰的用戶才能解密並獲得與在未加密數據上計算相同的結果。 同態加密的定義與原理: • 這種加密方法支持對加密數據執行算術或邏輯運算
含 AI 應用內容
#
AI風險管理
#
數據
#
momo
1
iPAS AI應用規劃師學習筆記
2025/08/28
Homomorphic Encryption(同態加密)
Homomorphic Encryption(同態加密)是一種先進的加密技術,允許對加密數據直接進行計算和處理,而無需先將數據解密。計算結果仍保留加密狀態,只有持有私鑰的用戶才能解密並獲得與在未加密數據上計算相同的結果。 同態加密的定義與原理: • 這種加密方法支持對加密數據執行算術或邏輯運算
含 AI 應用內容
#
AI風險管理
#
數據
#
momo
1
iPAS AI應用規劃師學習筆記
2025/08/28
Federated Learning(聯邦學習)
Federated Learning(聯邦學習)是一種機器學習技術,允許多個分散的設備或服務器在本地數據上共同訓練模型,而不需將數據集中或共享,從而實現數據隱私保護與協同學習。 聯邦學習的定義與核心原理: • 聯邦學習使多個本地節點(如手機或邊緣設備)在自己的數據上訓練局部模型,僅將模型參數或
含 AI 應用內容
#
AI風險管理
#
數據
#
學習
iPAS AI應用規劃師學習筆記
2025/08/28
Federated Learning(聯邦學習)
Federated Learning(聯邦學習)是一種機器學習技術,允許多個分散的設備或服務器在本地數據上共同訓練模型,而不需將數據集中或共享,從而實現數據隱私保護與協同學習。 聯邦學習的定義與核心原理: • 聯邦學習使多個本地節點(如手機或邊緣設備)在自己的數據上訓練局部模型,僅將模型參數或
含 AI 應用內容
#
AI風險管理
#
數據
#
學習
iPAS AI應用規劃師學習筆記
2025/08/28
Differential Privacy(差分隱私)
Differential Privacy(差分隱私)是一種數學框架,用於在數據分析和機器學習中保護個人隱私,確保透過數據集產生的結果不會明顯透露任何單一個體的資訊。 差分隱私的定義與原理: • 差分隱私保證當數據集中某個人的數據被加入或移除時,輸出結果的概率變化非常有限,令攻擊者難以判斷該個體
含 AI 應用內容
#
AI風險管理
#
隱私
#
數據
iPAS AI應用規劃師學習筆記
2025/08/28
Differential Privacy(差分隱私)
Differential Privacy(差分隱私)是一種數學框架,用於在數據分析和機器學習中保護個人隱私,確保透過數據集產生的結果不會明顯透露任何單一個體的資訊。 差分隱私的定義與原理: • 差分隱私保證當數據集中某個人的數據被加入或移除時,輸出結果的概率變化非常有限,令攻擊者難以判斷該個體
含 AI 應用內容
#
AI風險管理
#
隱私
#
數據
iPAS AI應用規劃師學習筆記
2025/08/28
GDPR(General Data Protection Regulation,通用數據保護條例)
GDPR(General Data Protection Regulation,通用數據保護條例)是歐盟於2018年生效的重要法律,規範個人數據的收集、處理與保護。對於機器學習和人工智慧模型的開發與部署,GDPR提出了嚴格的要求,以確保個人隱私權益不被侵犯。 GDPR在機器學習中的核心要求:
含 AI 應用內容
#
AI風險管理
#
GDPR
#
數據
iPAS AI應用規劃師學習筆記
2025/08/28
GDPR(General Data Protection Regulation,通用數據保護條例)
GDPR(General Data Protection Regulation,通用數據保護條例)是歐盟於2018年生效的重要法律,規範個人數據的收集、處理與保護。對於機器學習和人工智慧模型的開發與部署,GDPR提出了嚴格的要求,以確保個人隱私權益不被侵犯。 GDPR在機器學習中的核心要求:
含 AI 應用內容
#
AI風險管理
#
GDPR
#
數據
iPAS AI應用規劃師學習筆記
2025/08/28
Model Stealing(模型竊取)
Model Stealing(模型竊取)是一種針對機器學習模型的安全攻擊,攻擊者通過向目標模型發送大量查詢,並根據模型輸出的結果推測模型的內部參數、架構或行為,進而複製或仿製原模型。 Model Stealing的定義: • 攻擊者無需訪問模型的內部結構(黑盒攻擊),只利用模型的查詢輸出來重建
含 AI 應用內容
#
AI風險管理
#
模型
#
攻擊
iPAS AI應用規劃師學習筆記
2025/08/28
Model Stealing(模型竊取)
Model Stealing(模型竊取)是一種針對機器學習模型的安全攻擊,攻擊者通過向目標模型發送大量查詢,並根據模型輸出的結果推測模型的內部參數、架構或行為,進而複製或仿製原模型。 Model Stealing的定義: • 攻擊者無需訪問模型的內部結構(黑盒攻擊),只利用模型的查詢輸出來重建
含 AI 應用內容
#
AI風險管理
#
模型
#
攻擊