嗨 我是 CCChen
分享"AI中級學習指引彙整核心知識點與新趨勢關鍵字分析與彙整"
本文件根據「AI應用規劃師(中級)-學習指引」文件(L21、L22、L23 科目)彙整了各科目的核心知識點與新趨勢關鍵字,旨在提供考生快速掌握學習精華。
每個科目彙整核心知識點20個與新趨勢關鍵字15個. 依照各科目一一條列出來:
科目 L21:人工智慧技術應用與規劃 (L21)
本科目聚焦於 AI 技術認知、導入策略、風險管理與系統部署,強調將技術轉化為商業價值的規劃能力。
核心知識點 (20 個)
自然語言處理 (NLP):使機器理解、解釋並生成人類語言的技術領域。
電腦視覺 (CV):使機器「看懂」影像,進行物體辨識與場景理解。
生成式 AI (Generative AI):可產生全新內容(文本、圖像等)的 AI 技術。
BERT/GPT 模型:預訓練語言模型的代表,BERT為雙向理解,GPT為單向生成。
詞嵌入 (Word Embedding):將詞彙映射到低維向量空間以捕捉語義關係。
卷積神經網路 (CNN):圖像處理的核心網路架構,包含卷積層與池化層。
池化層目的:降低特徵圖維度、減少參數、增強平移不變性。
物件偵測 (Object Detection):在圖像中識別並定位物件的邊界框。
語意分割 (Semantic Segmentation):將圖像中的每個像素分配到特定類別。
數據準備 (Data Preparation):資料收集、清理與預處理,確保模型輸入品質。
模型選擇:根據業務需求、資料特性與運算資源選擇合適的 AI 模型架構。
AI 導入評估:判斷 AI 專案是否具備實質價值與可行性。
ROI/NPV/回收期:評估 AI 專案財務效益的關鍵指標。
數據漂移 (Data Drift):模型部署後,輸入數據分佈發生變化導致效能下降。
模型重訓練 (Retraining):為應對數據漂移或新需求而調整模型參數或結構。
微服務架構:將應用程式拆分為小型服務,可獨立部署與擴展。
容器化:將應用程式與依賴項打包成獨立單元,實現跨平台環境一致性。
MLOps:整合模型開發、部署、監控與維護的自動化流程與最佳實踐。
AI 風險管理:從技術、組織、法規等層面識別和應對 AI 導入過程中的風險。
系統集成與部署:將訓練好的 AI 模型與企業現有的 ERP、CRM 或前端應用無縫接軌。
新趨勢關鍵字 (15 個)
多模態人工智慧 (Multimodal AI):同時處理與整合多種數據類型(如文字、圖像、聲音)的 AI 系統。
生成式 AI 倫理風險:生成內容的真偽性、資訊可信度、智慧財產權與偏見放大等風險。
提示工程 (Prompt Engineering):設計有效提示語句以引導生成式 AI 模型輸出所需內容的技術與技能。
RAG (檢索增強生成):結合外部知識檢索與語言生成,提升 LLM 在特定背景知識任務中的準確性。
LoRA (低秩自適應):一種高效微調技術,通過向原始模型添加輕量級參數,快速適應新應用情境。
模型幻覺 (Model Hallucination):生成式模型產生虛假、誤導性或與事實不符的內容。
提示攻擊 (Prompt Injection Attack):透過設計惡意輸入提示,引導生成式模型產生有害內容或洩漏敏感資訊。
邊緣計算 (Edge Computing):將運算任務移至靠近數據源的邊緣設備,優勢為低延遲、減少頻寬與提升隱私。
可解釋 AI (XAI):讓使用者理解模型預測或決策過程的技術,用於增強信任與合規性。
CLIP 模型:OpenAI 開發的多模態模型,將圖像與文本映射到共享語義空間,實現圖文對齊。
擴散模型 (Diffusion Models):透過逐步去噪過程生成高品質圖像,為圖像生成領域的主流技術。
AI 代理 (Agentic AI):具備推理與計畫能力,能自動完成複雜任務的 AI 系統。
負責任 AI (Responsible AI):確保 AI 系統在開發與應用時符合倫理、公平與法規要求。
深度偽造 (Deepfake):結合圖像與語音生成技術產生的合成媒體,常被用於詐騙或假訊息散播。
藍綠部署:一種模型部署策略,通過運行兩個相同的生產環境,以控制風險並實現不中斷服務的更新。
科目 L22:大數據處理分析與應用 (L22)
本科目著重於 機率統計基礎、大數據處理技術、分析方法與 AI 應用中的數據治理與隱私保護。
核心知識點 (20 個)
敘述性統計:透過指標(如平均數、標準差)與圖表(如箱型圖)摘要資料特性。
變異數/標準差:衡量資料分散程度的指標,標準差與資料單位相同。
四分位距 (IQR):衡量資料中間 50%的分佈範圍,常用於偵測異常值。
常態分佈:最常見的連續型機率分佈,適用於誤差建模與參數估計。
假設檢定:用於對母體參數進行統計推論的方法,包含虛無假設 (H₀) 與對立假設 (H₁)。
P 值 (P-value):在假設檢定中,用於判斷結果顯著性的機率值。
Z 分數 (Z-Score):衡量觀測值偏離平均值的標準化指標,以標準差為單位。
缺失值/異常值:資料品質問題的兩大類型,影響模型訓練與統計推論準確性。
數據收集與清理:確保資料完整性、一致性與準確性的基本流程。
強一致性/ACID:確保資料在寫入後,所有讀取都能即時取得最新狀態,適用於交易型應用。
最終一致性:容許資料在不同節點間存在短暫不一致,以換取高可用性與擴展性。
數據湖 (Data Lake):儲存多樣資料型態(結構化、非結構化)且不需預先定義結構的大規模儲存架構。
串流處理系統:能即時接收、處理與響應高頻率、連續性資料流的架構(如 IoT 數據)。
時序分析 (Time Series Analysis):分析數據隨時間變化的趨勢、週期性與季節性。
ARIMA 模型:用於時間序列預測的統計模型,I 代表整合 (Integrated),指差分階數。
圖論分析 (Graph Analysis):用於分析節點(如用戶)與邊(如互動)之間複雜關係的結構。
Softmax 函數:多分類問題輸出層的激活函數,將輸出轉換為機率分佈。
鑑別式 AI:機器學習中專注於資料分類與預測決策邊界的模型類型。
數據可視化:使用圖表(如折線圖、長條圖)將複雜數據轉化為直觀洞察的工具與方法。
GDPR 規範:歐盟一般資料保護規範,適用於處理歐盟居民個資的組織,強調個資控制權。
新趨勢關鍵字 (15 個)
差分隱私 (Differential Privacy):在查詢結果或模型訓練中加入受控隨機噪音,提供數學保證的個體隱私保護。
聯邦學習 (Federated Learning):模型在客戶端本地訓練,僅傳送參數更新,避免原始數據外洩。
同態加密 (Homomorphic Encryption):允許在加密數據上直接進行運算,確保數據全程保密。
K-匿名/L-多樣性:進階的結構化數據匿名化技術,降低個體再識別的風險。
透明性 (Transparency):AI 系統決策流程應清晰且可解釋,作為 AI 倫理治理的背景。
數據最小化原則:僅收集完成任務所需的最低限度資料,避免過度收集。
混合精度訓練 (Mixed Precision Training):在深度學習中結合 16 位元和 32 位元浮點運算,以加速訓練和減少記憶體消耗。
數據湖倉 (Data Lakehouse):結合資料湖的彈性與資料倉儲的結構優勢的新型數據架構。
5V 特性 (Volume, Velocity, Variety, Veracity, Value):現代大數據環境的五個核心挑戰與特性。
即時串流協議:如 MQTT、Apache Kafka 等,用於高頻率、連續性數據的即時傳輸與處理。
抽樣加權:用於校正非隨機抽樣造成的偏誤,提升統計推論的泛化性。
可追溯性:法規要求對數據從產生到應用全生命週期的流動和處理進行紀錄與追蹤。
長尾分佈 (Long-tail Distribution):大數據中常見的極度偏態分佈,使得平均數等傳統指標失真。
蒙地卡羅模擬 (Monte Carlo Simulation):通過大量隨機抽樣,估算複雜系統不確定性的分析方法。
分桶 (Bucketing):將連續數值轉換為區間(如年齡區間),用於數據匿名化或統計分析。
科目 L23:機器學習技術與應用 (L23)
本科目深入探討 機器學習的數學基礎、演算法原理、模型建模與參數調校、以及機器學習的治理 議題。
核心知識點 (20 個)
機率/統計應用:利用機率分佈、條件機率支撐模型學習與不確定性建模。
線性代數應用:使用向量、矩陣進行資料表示和模型運算,如特徵分解。
損失函數 (Loss Function):量化模型預測結果與真實值之間誤差的目標函數(如 MSE、交叉熵)。
數值優化:透過數學方法(如梯度下降)求解損失函數最小值,調整模型參數。
梯度下降 (Gradient Descent):優化器的基礎原理,沿著梯度反方向更新參數以最小化損失。
正則化 (Regularization):在損失函數中加入懲罰項(如 L1/L2),避免模型過度擬合。
監督式/非監督式學習:機器學習的兩大範式,前者依賴標註數據,後者探索數據結構。
集成學習 (Ensemble Learning):結合多個模型(如決策樹、隨機森林)預測結果,以提升準確度和穩定性。
卷積神經網路 (CNN):透過卷積層捕捉局部空間特徵,用於圖像處理。
遞迴神經網路 (RNN):用於處理序列數據(如文本、語音),常搭配 LSTM/GRU 解決長期依賴問題。
前向/反向傳播:神經網路訓練機制,前向計算預測結果,反向傳播誤差調整權重。
特徵工程 (Feature Engineering):將原始數據轉換為更能提升模型效能的特徵表示。
類別特徵處理:包含獨熱編碼(One-hot Encoding)和標籤編碼(Label Encoding)。
交叉驗證 (Cross-Validation):將資料切分為多個訓練和驗證折疊,確保模型泛化能力。
模型訓練/驗證/測試集:資料分割的三個部分,用於訓練、超參數調整與最終性能評估。
F1 分數:精確率和召回率的調和平均數,用於綜合評估分類模型,特別適用於類別不平衡。
批次大小 (Batch Size):每次梯度更新所使用的樣本數量,影響訓練速度與梯度穩定性。
過擬合/欠擬合:訓練過程中的兩個極端問題,前者泛化能力差,後者擬合程度不足。
數據隱私與合規:確保訓練數據的使用符合法規要求(如 GDPR、PDPA)。
演算法偏見與公平性:識別和修正模型對特定群體產生的歧視性決策。
新趨勢關鍵字 (15 個)
Transformer 架構:基於自注意力機制,解決長距離依賴問題,是 LLM 的基礎。
模型壓縮:透過剪枝、量化或知識蒸餾等技術,減小模型尺寸和運算需求。
知識蒸餾 (Knowledge Distillation):將大型複雜模型的知識遷移到小型模型中,實現模型壓縮。
SMOTE:過採樣技術,通過合成新樣本來處理分類任務中的類別不平衡問題。
對抗式去偏 (Adversarial Debiasing):模型內部處理方法,透過對抗訓練降低模型對敏感特徵的依賴。
Equal Opportunity:公平性指標,確保不同群體中「真正該被選擇者」被正確預測的機率相等。
Demographic Parity:公平性指標,確保不同群體獲得正向預測(如核准)的比例大致相同。
結果門檻調整:模型後處理方法,針對不同群體調整預測分數的閾值以達到公平性。
T-Closeness:進階匿名化技術,要求敏感欄位的分佈與整體數據集接近,減少推測風險。
聯邦學習 (Federated Learning):模型在分散式本地端訓練,保護原始數據隱私。
差分隱私 (Differential Privacy):透過加噪機制提供數學保證的隱私保護。
數值優化器:如 Adam、Adagrad,用於加速梯度下降並提高訓練效率。
模型漂移監控:MLOps 流程中,持續追蹤模型在生產環境中效能衰退的機制。
RLHF (人類回饋式強化學習):用於對齊 LLM 輸出的價值觀和安全性的訓練技術。
公平性審查委員會:企業內部跨部門治理組織,負責審核 AI 系統的倫理與公平性風險。
「願我們都能在AI時代學得深、走得穩。」
「證照不是終點,而是讓你轉換能力的語言。」
「跨領域不是學得多,而是學得通。」
CCChen
「留言分享你準備AI考試的心得」、「收藏這篇文章,下次複習更有效」。























