AI風險管理
含有「AI風險管理」共 17 篇內容
全部內容
發佈日期由新至舊
郝信華 iPAS AI應用規劃師 學習筆記
2025/09/01
安全開發生命週期(Secure Software Development Life Cycle, SSDLC)
安全開發生命週期(Secure Software Development Life Cycle, SSDLC)是一種在軟體開發的各個階段(需求、設計、開發、測試、部署和維運)中主動整合安全和隱私考量的流程,目的是在軟體生命週期的每個階段降低安全風險與漏洞,提高軟體安全性與可靠性。 主要階段與內容
含 AI 應用內容
#
AI風險管理
#
階段
#
開發
喜歡
留言
郝信華 iPAS AI應用規劃師 學習筆記
2025/08/29
金管會 金融業運用人工智慧(AI)指引
金融監督管理委員會(金管會)於2024年6月20日正式發布「金融業運用人工智慧(AI)指引」,以推動金融機構安全、合規且負責任地導入與運用AI技術,協助金融業提升服務效率與公平性,同時保障客戶權益與金融市場穩定。 金管會「金融業運用人工智慧指引」主要內容: 1. 總則與共通事項 • 包括A
含 AI 應用內容
#
AI風險管理
#
金融業
#
管理
喜歡
留言
郝信華 iPAS AI應用規劃師 學習筆記
2025/08/29
數位發展部 公部門人工智慧應用參考手冊(草案)
「公部門人工智慧應用參考手冊(草案)」由數位發展部於2025年初發布,目的是協助各級政府機關理解AI技術、評估AI應用場景、推動AI導入並掌握相關風險與治理議題,打造負責任且有效率的公部門AI應用生態。 手冊主要內容: 1. AI概念介紹 • 介紹AI與生成式AI的基本定義、技術類型、應用
含 AI 應用內容
#
AI風險管理
#
數位發展部
#
人工智慧
喜歡
留言
郝信華 iPAS AI應用規劃師 學習筆記
2025/08/29
國科會 AI科學發展策略
國家科學及技術委員會(國科會)在2024年針對人工智慧(AI)科學發展提出了全面的策略規劃,主要聚焦於打造臺灣成為全球AI科技創新的重要基地,推動AI與產業深度融合,並提升國際競爭力。 國科會AI科學發展策略主要內容: 1. 臺灣AI行動計畫2.0(2023-2026) • 核心目標是強化
含 AI 應用內容
#
AI風險管理
#
國科會
#
生成式AI
喜歡
留言
郝信華 iPAS AI應用規劃師 學習筆記
2025/08/29
NIST AI Risk Management Framework(NIST AI RMF)
NIST AI Risk Management Framework(NIST AI RMF)是由美國國家標準暨技術研究院(NIST)在2023年首次發布的一套自願性指導框架,旨在幫助組織系統性管理人工智慧(AI)系統在其整個生命周期中的風險,促進可信任且負責任的AI技術開發與應用。2024年7月,N
含 AI 應用內容
#
AI風險管理
#
生成式AI
#
風險
喜歡
留言
郝信華 iPAS AI應用規劃師 學習筆記
2025/08/29
OECD AI Principles
OECD AI Principles是在2019年由經濟合作與發展組織(OECD)首次制定,並於2024年更新的一套人工智慧治理標準,旨在推動創新、可信且尊重人權與民主價值的AI技術發展。 2024年OECD AI Principles更新重點: 主要價值導向原則(五大原則) 1. 創新與環
含 AI 應用內容
#
AI風險管理
#
OECD
#
政策
喜歡
留言
郝信華 iPAS AI應用規劃師 學習筆記
2025/08/28
Homomorphic Encryption(同態加密)
Homomorphic Encryption(同態加密)是一種先進的加密技術,允許對加密數據直接進行計算和處理,而無需先將數據解密。計算結果仍保留加密狀態,只有持有私鑰的用戶才能解密並獲得與在未加密數據上計算相同的結果。 同態加密的定義與原理: • 這種加密方法支持對加密數據執行算術或邏輯運算
含 AI 應用內容
#
AI風險管理
#
數據
#
momo
1
留言
郝信華 iPAS AI應用規劃師 學習筆記
2025/08/28
Federated Learning(聯邦學習)
Federated Learning(聯邦學習)是一種機器學習技術,允許多個分散的設備或服務器在本地數據上共同訓練模型,而不需將數據集中或共享,從而實現數據隱私保護與協同學習。 聯邦學習的定義與核心原理: • 聯邦學習使多個本地節點(如手機或邊緣設備)在自己的數據上訓練局部模型,僅將模型參數或
含 AI 應用內容
#
AI風險管理
#
數據
#
學習
喜歡
留言
郝信華 iPAS AI應用規劃師 學習筆記
2025/08/28
Differential Privacy(差分隱私)
Differential Privacy(差分隱私)是一種數學框架,用於在數據分析和機器學習中保護個人隱私,確保透過數據集產生的結果不會明顯透露任何單一個體的資訊。 差分隱私的定義與原理: • 差分隱私保證當數據集中某個人的數據被加入或移除時,輸出結果的概率變化非常有限,令攻擊者難以判斷該個體
含 AI 應用內容
#
AI風險管理
#
隱私
#
數據
喜歡
留言
郝信華 iPAS AI應用規劃師 學習筆記
2025/08/28
GDPR(General Data Protection Regulation,通用數據保護條例)
GDPR(General Data Protection Regulation,通用數據保護條例)是歐盟於2018年生效的重要法律,規範個人數據的收集、處理與保護。對於機器學習和人工智慧模型的開發與部署,GDPR提出了嚴格的要求,以確保個人隱私權益不被侵犯。 GDPR在機器學習中的核心要求:
含 AI 應用內容
#
AI風險管理
#
GDPR
#
數據
喜歡
留言