嗨 我是CCChen
iPAS AI應用規劃師 初級 第四場 將於11/01舉行考試
這是2025年的最後一場考試 (一年四場次, 每季一次)大家都準備好了嗎?
本文CCChen針對之前的親自考試所收集記憶的考古題
提供相關比較有難度的題目,讓大家複習參考一下
希望能更加對於"iPAS AI應用規劃師 初級"的考試題型與難度了解.
詞幹提取和詞形還原的主要區別:?
詞形還原(Lemmatization)是將單詞還原到其字典形式(Lemma),保留語意一致性,這通常需要語法規則和字典的輔助,結果一定是有效的單字 。 詞幹提取(Stemming)是使用字首字尾裁剪等簡單規則,去除詞尾變化以取得詞幹,處理速度快但準確性較低,結果不一定為有效的單字 。因此,主要區別在於處理方式和結果的準確性與語意保留程度。
歐盟AI Act 風險類型~公司內(非開放場合)員工臉部辨識打卡,屬於何種風險?
臉部辨識資料屬於個人識別資料(PII),特別是生物特徵資料,在GDPR等隱私法規下被視為高度敏感個資 。
在非開放場合使用也應審視是否符合《個人資料保護法》或GDPR等法規,並確保資料經妥善匿名化與授權 。因此,此應用最主要涉及的是資料隱私與法規遵循風險 。
隨機森林決策的優點?
隨機森林(Random Forest)是一種集成式學習算法,透過建立多棵決策樹並進行多數投票(分類)或平均(迴歸)來提升模型性能 。其主要優點包括:
能有效處理非線性資料與變數間的高階交互作用 。
具有強大的抗過度擬合能力,能維持穩定表現 。
可計算特徵的重要性 。
可處理類別型與數值型混合資料 。
訓練過程可並行運算,效率較高 。
KNN (K最近鄰算法) 判別原理?
K最近鄰(K-Nearest Neighbors, KNN)是一種非參數、惰性學習的分類算法 。其判別原理是:
計算新的未知資料點與訓練集中所有資料點的距離 。
找出距離最近的 K 個鄰居 。
根據這 K 個鄰居中出現次數最多的類別,將新資料點歸類(即多數決)。
RAG 與微調(Fine-tuning),哪個時間速度較快速?
微調(Fine-tuning)需要更新或調整模型的大量參數,即便使用如 LoRA 等高效技術,仍涉及模型再訓練或調參過程,需要一定的時間和計算資源 。
RAG(Retrieval-Augmented Generation,檢索增強生成)是將「外部知識檢索」與「語言生成」結合,在生成時才檢索相關資料,不需重新訓練或調整模型參數,因此速度較快 。RAG 在即時性、成本與對抗模型幻覺方面較具優勢。
何者不是資料集特性?
資料大小、資料的多樣性、資料的收集時間、資料的特徵數量。 這四項皆屬於資料集特性:
資料大小(Volume):資料規模,如GB、TB、PB 。
資料的多樣性(Variety):資料型態,如結構化、非結構化、半結構化 。
資料的收集時間(Velocity):資料流動速度與更新頻率 。
資料的特徵數量:資料的維度,如數十或數百個特徵 。
資料分析~哪個不是評估變異?
全距 / 中位數 / 標準差。 變異性(或離散度)衡量的是數據的分散程度。
全距(Range)、標準差(Standard Deviation)和四分位距(Interquartile Range, IQR)都屬於評估資料變異(分散)程度的指標 。
中位數(Median)是衡量資料的集中趨勢(Central Tendency)的指標,用於描述資料的中心位置,對極端值不敏感 。
機器模型各層別順序由下而上?
系統層 → 模型層 → 應用層 在AI系統的層次架構中,通常是由最底層的基礎設施向上層應用推進:
底層為系統層(Infrastructure/System Layer):包括硬體、作業系統、資料儲存與傳輸等基礎設施 。
中層為模型層(Model Layer):包括資料處理、特徵工程、模型訓練與部署等 。
上層為應用層(Application Layer):指直接與終端用戶或業務流程互動的應用,如聊天機器人、推薦系統、AI輔助診斷等 。
超商依照天氣進貨,天氣是「特徵(輸入變數)」,而銷售數量是?
銷售數量是模型試圖預測的目標數值,因此是目標變數(Target Variable)或標籤(Label)。
在迴歸任務中(預測連續數值),銷售數量是連續型的目標變數 。
在機器學習流程中,模型學習的即是從輸入變數(天氣)到目標變數(銷售數量)的映射關係 。
偏差與變異的關聯?
偏差(Bias)和變異(Variance)是機器學習中的一組權衡關係:
偏差(Bias):衡量模型對資料趨勢的擬合能力不足(欠擬合),系統性誤差高。
變異(Variance):衡量模型對訓練資料細微差異的敏感度(過度擬合),泛化能力差。
模型複雜度越高,通常偏差越低(擬合得越好),但變異越高(越容易過度擬合)。兩者之間存在權衡(Tradeoff)。
哪個不是提示工程?
零樣本學習、少樣本學習、思維鏈、AutoML
零樣本學習(Zero-shot Learning)、少樣本學習(Few-shot Learning)和思維鏈(Chain-of-Thought, CoT)都是提示工程(Prompt Engineering)中用來引導大型語言模型(LLM)的策略 。
AutoML(Automated Machine Learning)是自動化機器學習流程的工具或技術(如自動特徵工程、自動模型選擇、自動超參數調整),與提示工程是不同領域的技術。
CLIP 多模態模型原理?
CLIP(Contrastive Language-Image Pre-training)是 OpenAI 提出的多模態模型,原理是透過對比學習(Contrastive Learning)實現圖像與文字的語意對齊 。
它將圖片與文字映射到同一個向量空間(Embedding Space)。
使語意相符的圖文對(例如「一隻貓的圖片」和「一隻貓的文字描述」)在向量空間中的距離接近,而語意不符的則距離遠離 。
對抗性實驗目的與應用?
對抗性實驗(Adversarial Experiments)在AI治理和安全性中扮演重要角色 。其主要目的包括:
測試模型的穩健性(Robustness)與安全性 。
偵測模型的潛在漏洞與弱點(如被誤導或產生錯誤輸出)。
在生成式AI中,紅隊測試(Red Teaming)即是透過對抗性方法,測試模型是否會產生有害、歧視或不實內容 。
延遲性實驗目的與應用?
在AI系統部署和運維(MLOps)中,延遲性(Latency)實驗和測試至關重要 。
目的:評估模型從接收輸入到產生輸出的時間(推論延遲,Inference Latency) 。
應用:確保系統滿足即時應用情境的需求(如金融交易、即時推薦、自動駕駛),並優化模型壓縮與部署架構 。
AI 遇到新環境時能進步的能力是何種?
這是指模型的泛化能力(Generalization Capability) 。
泛化能力:模型在訓練資料上表現良好後,能將學到的模式應用於未曾見過的新資料並維持良好性能的能力 。
當模型從舊環境轉移到新環境時,其泛化能力決定了其適應新數據和新任務的成功程度。
希望這些解析能幫助您深入理解評鑑內容中的關鍵知識點。
最後CCChen的備考建議:
- 熟讀基本原理與概念,可以應付越來越靈活的題目變化.
- 相關主題的核心專有名詞務必了解清楚, 題目增加雙邏輯判斷題型, 常考兩個以上知識點互相比較.
- 注意題目的詢問關鍵字, 看清楚何者"正確"或是"錯誤", 看清楚問題.
- 注意題目的陷阱文字, 利用常識判斷合理性.
祝大家 考試順利 合格取證 CCChen 2025/10/25















