嗨 我是CCChen
分享iPAS AI應用規劃師中級考試~不同難度模擬題目
目的: 測試提示詞優化設計結果科目二, 難度1~10級, 三種等級題目, 每級10題
📘 科目二:大數據處理分析與應用 – 難度 1–3 題庫(邏輯比較題)
難度 1(基礎認知)
Q1. 若數據分析同時要求「檢視資料集中趨勢」與「顯示離群值」,最合適的圖表是:
A. 長條圖
B. 折線圖
C. 盒鬚圖
D. 圓餅圖
✅ 答案:C
📝 解析:盒鬚圖(Box Plot)可同時呈現集中趨勢(中位數、四分位數)與離群值,滿足「趨勢 + 離群值」雙重條件。其他圖僅偏重單一功能。
Q2. 在資料分布中,若同時需要「觀察資料對稱性」與「檢查是否符合常態分布」,最佳工具是:
A. Q-Q 圖
B. 直方圖
C. 散佈圖
D. 折線圖
✅ 答案:A
📝 解析:Q-Q 圖用於比較樣本分位數與理論分布分位數,能同時檢查「對稱性 + 常態性」,而直方圖或散佈圖僅能做單一視覺化。
Q3. 若公司需要「比較兩組平均數差異」並「確定差異是否具有統計顯著性」,最合適的檢定是:
A. 卡方檢定
B. t 檢定
C. F 檢定
D. 迴歸分析
✅ 答案:B
📝 解析:t 檢定專門用於比較兩組平均數並檢查顯著性,符合雙重條件。卡方檢定檢查類別變數,F 檢定偏向變異數比較。
難度 2(應用場景)
Q4. 在時間序列分析中,若同時要「消除非平穩性」與「保留趨勢變化資訊」,適合的方法是:
A. 差分 (Differencing)
B. 平滑移動平均
C. Z-score 標準化
D. Principal Component Analysis (PCA)
✅ 答案:A
📝 解析:差分能將非平穩數列轉換為平穩序列,並保留趨勢變化特徵。平滑僅抑制波動,PCA 與標準化非針對序列。
Q5. 在資料集呈現「偏態分布」時,若分析目標同時是「降低極端值影響」與「使資料更接近常態」,最佳轉換方式是:
A. 平方轉換
B. 對數轉換
C. 差分轉換
D. 標準化轉換
✅ 答案:B
📝 解析:對數轉換能降低偏態,尤其是右偏,符合「減少極端值影響 + 接近常態」。平方反而放大差距。
Q6. 若同時要「計算資料離散程度」與「反映每筆數據偏離平均值的平方」,應採用:
A. 標準差
B. 變異數
C. Z 分數
D. 四分位距
✅ 答案:B
📝 解析:變異數定義即為每筆數據與平均值差的平方平均,符合雙重條件。標準差只是變異數的平方根。
難度 3(進階比較)
Q7. 若要同時「檢查類別變數間的獨立性」與「衡量觀察值與期望值差異」,最佳統計檢定方法是:
A. t 檢定
B. F 檢定
C. 卡方檢定
D. Z 檢定
✅ 答案:C
📝 解析:卡方檢定檢查兩類別變數是否獨立,並比較觀察與期望頻數,符合雙重條件。
Q8. 在大數據應用中,若同時需要「存放結構化數據」與「適合 OLAP 分析」,最佳資料存儲方式是:
A. 資料湖 (Data Lake)
B. 資料倉儲 (Data Warehouse)
C. NoSQL 文件資料庫
D. 關聯式資料庫即時交易系統
✅ 答案:B
📝 解析:資料倉儲專為結構化數據 + OLAP(線上分析處理)設計,滿足雙重條件;資料湖偏向非結構化,NoSQL 用於彈性儲存。
Q9. 若分析師同時需要「找出高維度數據中主要特徵」與「減少運算複雜度」,最合適的方法是:
A. PCA
B. t-SNE
C. 聚類分析
D. Z 分數標準化
✅ 答案:A
📝 解析:PCA 透過主成分找出最大變異方向,能「特徵提取 + 降低維度」,符合雙重條件。t-SNE 偏視覺化,不適合全面降維。
Q10. 在資料治理中,若需同時「保護個資」與「保持分析有效性」,最佳處理方法是:
A. 差分隱私 (Differential Privacy)
B. 全部刪除個資欄位
C. 加密存儲後不可查詢
D. 只用隨機樣本替代
✅ 答案:A
📝 解析:差分隱私能在保護個資的同時保留統計分析效用,符合雙重條件;刪除與加密雖保護隱私但降低可用性。
✅ 總結
- 難度 1:檢定方法與圖表應用(盒鬚圖、Q-Q 圖、t 檢定)。
- 難度 2:時間序列與資料轉換(差分、對數轉換、變異數)。
- 難度 3:進階應用(卡方檢定、資料倉儲、PCA、差分隱私)。
- 題目皆設計相似選項以誤導,強調「雙重條件」比較思維。
📘 科目二:難度 4–6 題庫
難度 4(應用層級)
Q1. 若系統需要同時「處理即時串流資料」與「支援大規模分散式運算」,最佳框架是:
A. Hadoop MapReduce B. Apache Spark Streaming C. SQL 資料庫
D. Excel 巨集
✅ 答案:B
📝 解析:Spark Streaming 能同時做到即時處理與分散式運算;Hadoop MapReduce 偏批次,SQL 與 Excel 無法滿足雙重條件。
Q2. 若企業同時希望「快速搜尋非結構化數據」與「支援彈性擴展」,最佳選擇是:
A. NoSQL 文件資料庫 (MongoDB)
B. 關聯式資料庫 (MySQL)
C. CSV 平面檔
D. 傳統資料倉儲
✅ 答案:A
📝 解析:NoSQL 文件型資料庫可快速處理非結構化數據,且具高擴展性;傳統 RDB 與倉儲侷限在結構化數據。
Q3. 若大數據平台要同時「支援批次處理」與「機器學習建模」,最佳工具是:
A. Apache Hive
B. Apache Spark
C. Power BI
D. Excel Power Query
✅ 答案:B
📝 解析:Spark 同時具備批次處理與 MLlib 機器學習套件,符合雙重條件;Hive 僅偏向 SQL 查詢,Power BI 與 Excel 不具 ML 能力。
難度 5(進階應用)
Q4. 在數據前處理中,若同時需要「解決缺失值問題」與「避免模型偏差」,最合適的方法是:
A. 直接刪除所有缺失值
B. 使用均值填補 + 驗證模型效能
C. 隨機補值不檢查結果
D. 完全忽略缺失值
✅ 答案:B
📝 解析:均值填補可維持數據完整性,但需透過驗證避免偏差,符合「缺失處理 + 模型公平性」雙重條件。
Q5. 若同時要「將多種來源數據整合」與「保證數據一致性」,最佳策略是:
A. ETL 流程(抽取、轉換、載入)
B. 僅手動合併檔案
C. 寫入單一 CSV
D. 直接交給 BI 報表處理
✅ 答案:A
📝 解析:ETL 流程設計就是為了跨來源整合與一致性維護,符合雙重條件;手動與 CSV 難以確保品質。
Q6. 在大數據分析中,若要同時「視覺化高維度數據」與「凸顯資料群聚關係」,最佳方法是:
A. PCA 降維 + 散佈圖
B. Q-Q 圖
C. 長條圖
D. 標準化處理
✅ 答案:A
📝 解析:PCA 降維能保留主要特徵,再用散佈圖凸顯群聚,符合雙重條件;Q-Q 圖檢查分布,長條圖僅顯示頻率。
難度 6(綜合跨領域)
Q7. 在 AI 與大數據結合的場景中,若同時需要「即時分析 IoT 感測器數據」與「將模型部署在邊緣設備」,最佳解決方案是:
A. Spark + 雲端資料湖
B. Edge AI + 流式數據處理框架 (Kafka/Spark Streaming)
C. 傳統 RDB + Excel 巨集
D. 全部交由人工分析
✅ 答案:B
📝 解析:IoT 數據需即時處理,Edge AI 適合邊緣端推論,搭配 Kafka/Spark Streaming,符合雙重條件。
Q8. 若企業要同時「進行大數據異常偵測」與「提升 AI 模型預測準確率」,最佳做法是:
A. 使用無監督學習聚類檢測異常 + 特徵工程強化
B. 僅用隨機抽樣檢查
C. 只依賴回歸模型
D. 不進行資料清理
✅ 答案:A
📝 解析:異常值影響模型準確度,需透過聚類檢測 + 特徵工程處理,才能滿足雙重條件。
Q9. 在隱私敏感的醫療數據場景下,若同時需要「保護患者個資」與「仍能進行 AI 訓練」,最佳技術是:
A. 差分隱私 + 聯邦學習 (Federated Learning)
B. 全部刪除敏感欄位
C. 將數據加密後不允許存取
D. 將數據外包第三方
✅ 答案:A
📝 解析:差分隱私保護個資,聯邦學習允許數據不離開本地也能訓練模型,符合雙重條件。
Q10. 若企業同時要「以視覺化方式呈現大數據分析結果」與「讓管理層快速決策」,最佳工具選擇是:
A. Tableau / Power BI
B. Excel 基礎圖表
C. 純 SQL 查詢
D. Hadoop MapReduce 原始輸出
✅ 答案:A
📝 解析:Tableau 與 Power BI 提供互動式視覺化,能支援決策;Excel 與 SQL 視覺化能力有限,MapReduce 原始輸出不直觀。
✅ 總結
- 難度 4 → Spark、NoSQL、ETL 等應用技術選擇。
- 難度 5 → 數據清理、整合、一致性維護。
- 難度 6 → 跨領域結合(IoT、隱私保護、AI 模型與大數據結合)。
📘 科目二:難度 7–10 題庫
難度 7(產業應用案例)
Q1. 在智慧製造中,若企業同時需要「降低產線瑕疵檢測錯誤率」與「加速資料回饋迭代」,最佳方案是:
A. 人工抽樣 + SQL 報表
B. CV 模型 + MLOps 數據回饋流程
C. Hadoop 批次運算 + PDF 報告
D. 純統計檢定 + Excel 分析
✅ 答案:B
📝 解析:電腦視覺能精準檢測瑕疵,MLOps 回饋機制能快速更新模型,符合「降低錯誤率 + 加速回饋」雙重條件。
Q2. 在零售業分析中,若同時要「預測客戶流失」與「進行即時行銷推薦」,最適合的技術組合是:
A. 聚類分析 + 即時流式處理
B. Z-score 檢測 + 靜態報告
C. 傳統回歸分析 + 批次匯出
D. 隨機抽樣 + 雲端存檔
✅ 答案:A
📝 解析:聚類能辨識流失客群,流式處理支援即時推薦,符合「預測流失 + 即時推薦」。
難度 8(跨國數據合規)
Q3. 若醫療 AI 平台同時需要「符合歐盟 GDPR 個資規範」與「允許跨國模型協作訓練」,最佳技術是:
A. 差分隱私 + 聯邦學習
B. 資料湖存放全部原始數據
C. 黑箱大模型直接共享
D. 僅依靠手動資料去識別化
✅ 答案:A
📝 解析:GDPR 需個資保護,差分隱私能隱藏個體訊息,聯邦學習允許跨機構協作而不共享原始數據,符合雙重條件。
Q4. 若企業需同時「符合美國 CCPA 個資法規」與「確保雲端數據查詢效率」,最佳策略是:
A. 加密數據 + 建立索引
B. 完全刪除所有用戶數據
C. 僅依靠批次處理報表
D. 使用開放式資料替代
✅ 答案:A
📝 解析:CCPA 要求保護個資(加密),而索引能維持查詢效率,滿足「合規 + 效率」雙重條件。
難度 9(最佳化策略)
Q5. 在能源產業大數據應用中,若同時需要「即時監測電力使用」與「最佳化能源調度」,最適合的做法是:
A. IoT 感測器 + 強化學習
B. 純歷史資料回歸
C. 統計抽樣檢測
D. 傳統資料倉儲查詢
✅ 答案:A
📝 解析:IoT 提供即時數據,強化學習能不斷調整策略,符合「即時監測 + 調度最佳化」。
Q6. 若 AI 模型需同時「減少運算成本」與「維持準確度」,最佳技術組合是:
A. 知識蒸餾 + 模型剪枝
B. 單純增加 GPU 數量
C. 移除所有異常值
D. 僅依靠雲端批次處理
✅ 答案:A
📝 解析:知識蒸餾讓小模型學習大模型知識,剪枝移除冗餘參數,能降低成本又保持精度。
Q7. 在跨部門協作專案中,若同時要「確保資料來源一致」與「避免模型因數據品質下降而失效」,最佳策略是:
A. 資料治理框架 + 數據品質監控
B. 單次匯入數據 + 手動檢查
C. 僅依靠外部 API
D. 不設資料標準
✅ 答案:A
📝 解析:資料治理提供一致性規範,品質監控能檢測異常,符合「一致性 + 避免失效」。
難度 10(專家級案例)
Q8. 在智慧物流場景中,若同時要「降低車隊配送延遲」與「減少碳排放」,最佳 AI 應用方案是:
A. 路徑最佳化演算法 + 碳排放監測
B. 隨機調度 + 平均分配
C. 純人工規劃 + 靜態地圖
D. 無視碳排放僅追求速度
✅ 答案:A
📝 解析:路徑最佳化演算法提升效率,碳排監測減排,符合「時效 + 環保」。
Q9. 在金融大數據風險控管中,若同時需要「即時異常交易偵測」與「符合責任 AI 公平性要求」,最佳方案是:
A. 流式監控系統 + 偏見檢測工具
B. 純批次資料審計
C. 黑箱深度模型不解釋
D. 只用歷史報表檢查
✅ 答案:A
📝 解析:流式系統支援即時檢測,偏見檢測工具能確保公平性,符合「即時 + 公平」雙重條件。
Q10. 若政府 AI 政策同時要求「促進大數據跨領域應用」與「確保隱私安全」,最佳推動方向是:
A. 建立跨部門資料共享平台 + 差分隱私技術
B. 完全禁止資料交換
C. 僅由單一部門管理
D. 以人工紙本審核替代
✅ 答案:A
📝 解析:跨部門平台促進應用,差分隱私保障安全,符合「應用推動 + 隱私保護」。
✅ 總結
- 難度 7:產業應用案例(智慧製造、零售)。
- 難度 8:跨國合規(GDPR、CCPA)。
- 難度 9:最佳化策略(能源、模型壓縮、資料治理)。
- 難度 10:專家級案例(物流、金融、政府政策)。