第 1 題
某電商推薦模型離線評估 AUC 達 0.85,上線兩週後實際 CTR 卻遠低於離線預期。資料團隊排查後發現:訓練時使用的「近 30 日購買次數」特徵由 Spark 批次作業計算,線上推論時卻由 Kafka 串流服務即時重算,兩邊計算邏輯微有差異,造成特徵值在訓練與推論階段系統性偏移。下列何項對策最能從根本解決此類問題?
(A) 擴大模型參數量以增加對特徵偏移的容錯能力,縮小訓練與推論差距。
(B) 每 24 小時以最新資料重訓一次模型,讓模型適應現有特徵計算差異。
(C) 導入 Feature Store 作為訓練與推論共用的特徵層,統一定義與計算邏輯確保訓練推論一致。
(D) 上線後以 A/B Test 長期監控 CTR,若顯著下降再逐步修正特徵計算邏輯。
深度導讀解析
正確答案:C
核心考點:Feature Store 訓練推論一致
理論拆解:Training/Serving Skew 的根本在於訓練與推論環境各自計算特徵導致邏輯漂移。Feature Store 讓兩邊共用同一特徵定義與計算,是 MLOps 消除此類問題的產業標準。這就像是一位主廚要確保在研發中心試菜時(訓練)與連鎖店出餐時(推論),使用的是完全相同的量杯與食譜;導入 Feature Store 就是統一生產線的度量衡,避免因為兩邊秤重邏輯不一致而導致味道走鐘。
選項坑洞掃描:A 模型容錯不治本,偏移仍存在。B 重訓只是重新適應差異,問題循環。D A/B Test 為事後監控而非預防。
破題反射字:訓練推論偏移 → Feature Store / Training/Serving Skew → 特徵層統一
第 2 題
某銀行 ETL pipeline 每日處理 TB 級交易資料,當來源系統新增欄位或變更型別時,整條 pipeline 常因 schema 不符而當機,工程師須夜間搶修。架構師希望重新設計管線以吸收此類變動。下列何項設計最為合適?
(A) 採支援 Schema Evolution 的檔案格式(如 Avro、Parquet)搭配 Schema Registry,允許向前向後相容的欄位變動。
(B) 每次來源 schema 變更時由開發人員手動修改 pipeline 程式碼,重新部署後再恢復運作。
(C) 將所有欄位統一以 string 型別存放以避免 type mismatch,型別轉換留到下游分析階段處理。
(D) 每次 schema 變更前刪除所有歷史資料與下游儲存,重新從頭建立 pipeline 確保新舊一致。
深度導讀解析
正確答案:A
核心考點:Schema Evolution 資料管線
理論拆解:Avro、Parquet 等格式內建 schema 版本控管,搭配 Schema Registry 可驗證新舊 schema 相容性(加欄位、預設值處理),讓管線在 schema 變動下自動延續運作。這就像是為火車站設計了一套具備彈性的自動閘門,不論旅客行李的尺寸如何變更(欄位增減),閘門都能依照預先設定的相容規則自動放行,而不是只要有一件行李尺寸不對就導致整座車站癱瘓維修。
選項坑洞掃描:B 手動修程式碼是人工維運陷阱。C 全欄 string 失去型別優勢且下游仍會誤解析。D 刪除歷史資料嚴重違反資料治理與稽核。
破題反射字:Schema 變動 → Schema Evolution / Avro/Parquet → Schema Registry
第 3 題
某醫院建立肺結節 CT 影像分類模型,正負樣本 1:99(陽性病例稀少)。初版模型訓練準確率達 95%,但對陽性樣本 Recall 僅 15%,臨床醫師指出漏診率不可接受。下列何項組合策略最能改善陽性偵測能力?
(A) 持續延長訓練 Epoch 並降低學習率,讓模型有更多時間學會陽性樣本特徵。
(B) 結合 SMOTE 或類別加權合成少數類、改用 Focal Loss 強化難分樣本、以 Recall 與 F1 取代 Accuracy 為主指標。
(C) 鎖定整體 Accuracy 為 95% 作為上線門檻,以合計指標通過即可送臨床。
(D) 將所有陽性樣本直接複製 99 次使兩類樣本比達 1:1,再以原模型重新訓練一次。
深度導讀解析
正確答案:B
核心考點:類別不平衡影像分類
理論拆解:極度不平衡下 Accuracy 誤導,需以 SMOTE 或類別加權平衡樣本、Focal Loss 聚焦難分樣本,並以 Recall/F1 為評估主指標。這就像是在一萬名遊客中尋找一位極其罕見的通緝犯,安防系統不能因為「放過他也能維持 99% 的準確率」就選擇偷懶;透過 SMOTE 與 Focal Loss 等技術,就像是要求警衛必須盯緊那些形跡可疑的少數人,而不是只會點人頭。
選項坑洞掃描:A 延長訓練對不平衡本身無效。C 鎖定 Accuracy 等於忽略漏診風險。D 暴力複製少數類會造成嚴重過擬合。
破題反射字:不平衡影像 → SMOTE + Focal Loss / 漏診關鍵 → Recall
第 4 題
某農業科技公司用 500 張病害葉片照片訓練 CNN 辨識病害類型,訓練集準確率達 96%,但驗證集僅 62%,且模型對未見光照條件的新樣本預測不穩。團隊不願再花資源擴大人工標註。下列何項組合策略最為合適?
(A) 改用 KNN 演算法並增加參考樣本數,以多數決投票方式提升準確率。
(B) 捨棄 CNN 改採 XGBoost,把每張影像展開為像素特徵向量餵入梯度樹模型。
(C) 加深 CNN 網路至 50 層並增加濾鏡數,以更強表達能力擬合葉片特徵。
(D) 採資料擴增(旋轉、翻轉、色彩擾動、隨機裁切)再搭配 ImageNet 預訓練 backbone 做遷移學習。
深度導讀解析
正確答案:D
核心考點:資料擴增與遷移學習
理論拆解:500 張小樣本直接訓練 CNN 必過擬合。資料擴增在不增標註成本下模擬光照角度變動;遷移學習借 ImageNet 特徵提取層,讓小資料也能學會高層語意。這就像是一位學徒在臨摹大師的畫作,雖然手邊只有幾張樣張,但透過翻轉、調色等練習模擬不同視角,並借用大師處理光影的底子(預訓練權重),就能在極短時間內學會如何精準捕捉葉片病害的神韻。
選項坑洞掃描:A KNN 不適合高維影像的距離計算。B 展開像素餵 XGBoost 忽略空間結構。C 加深網路只讓過擬合更嚴重。
破題反射字:小樣本影像 → 擴增 + 遷移學習 / 過擬合 → Data Augmentation
第 5 題
某法律 AI 新創要為律師事務所建置 RAG 系統,知識庫含 500 萬篇法律判決,每次查詢須在一秒內從知識庫找出語意最相近的 50 篇送給 LLM 產生答覆。下列何項儲存與檢索架構最為合適?
(A) 將判決全文儲存於 MySQL 並以 LIKE 或 MATCH AGAINST 做全文比對檢索。
(B) 將判決儲存於 Elasticsearch 以 BM25 關鍵字排序取出相關度最高的 50 篇。
(C) 將判決 embedding 後儲存於向量資料庫(如 Pinecone、Weaviate、FAISS),以 HNSW 或 IVF 索引做近似最近鄰(ANN)搜尋。
(D) 將判決儲存於 PostgreSQL 主從架構,於常用關鍵詞欄位建立 B-Tree 索引加速查詢。
深度導讀解析
正確答案:C
核心考點:向量資料庫 ANN 檢索
理論拆解:RAG 的相似檢索基於語意向量距離而非關鍵字匹配。向量資料庫以 HNSW 或 IVF 索引在百萬級向量中做近似最近鄰搜尋,毫秒級回應 500 萬筆是其設計情境。這就像是一位具備讀心術的圖書管理員,他不是死板地對照書名關鍵字,而是能理解每一本書背後的靈魂(語意向量);當你描述一個抽象的感覺時,他能在幾百萬本藏書中瞬間幫你找出最有共鳴的那幾篇。
選項坑洞掃描:A LIKE 為字串比對無法做語意相似。B BM25 關鍵字排序對同義詞與語意變體效果有限。D B-Tree 索引用於精確或範圍查詢,不支援高維向量距離。
破題反射字:語意檢索 → 向量資料庫 / 百萬級相似搜尋 → HNSW/IVF
第 6 題
某企業導入 RAG 問答系統,知識庫為 2000 份技術文件,每份 10~30 頁。初版實作把整份文件直接 embedding 存庫,結果 LLM 回答常缺乏精確引用,檢索分數也低。下列何項 chunking 策略最為合適?
(A) 把每份文件切成固定 1000 字的 chunk,不考慮段落與章節邊界以求切分規則單純。
(B) 以語意單位(段落、章節、標題)切成 256~512 token 的 chunk,並設計 chunk 之間 overlap 保留邊界語意完整。
(C) 把每份文件切到單字層級,一個字生成一個向量存入向量庫以求最細粒度檢索。
(D) 維持整份文件為一個 chunk 不切分,embedding 時模型會自行壓縮成單一語意向量。
深度導讀解析
正確答案:B
核心考點:RAG 語意 chunking
理論拆解:語意邊界切分保留段落完整,256~512 token 對齊多數 embedding 模型的最佳上下文窗,overlap 防止關鍵句被切斷。這是 RAG 工程的業界標準。這就像是在幫厚重的法學書籍做重點摘要,我們不能隨便翻到第一百頁就強行切斷(固定字數),而必須順著章節與段落的脈絡進行切割,並在前後保留一點銜接的文字,確保模型在閱讀任何一個碎片時都能掌握完整的上下文。
選項坑洞掃描:A 固定字數易切斷語意使檢索失準。C 單字向量失去上下文語意。D 整份文件 embedding 資訊壓縮過度,檢索粒度粗糙。
破題反射字:RAG chunking → 語意邊界 + overlap / 邊界遺失 → 固定字數陷阱
第 7 題
某律師事務所要建置內部法律問答助理,需求:能引用最新實務判決與公司內部案例、不回答與法律無關問題、輸出須維持莊重專業語氣、且案例每週新增需即時反映。下列何項架構組合最為合適?
(A) 採 RAG 即時引入最新判決與內部案例(可每週更新索引)、以 Prompt Engineering 設定語氣、以 Guardrails 過濾偏題提問。
(B) 每週收集新判決與案例後重新 Fine-tune 整個語言模型,使新知識永久寫入模型權重。
(C) 將所有判決與案例直接塞入 system prompt,依賴 LLM 長上下文能力處理所有查詢。
(D) 僅以 Guardrails 規則引擎判斷每筆查詢是否合法,由 Guardrails 直接決定最終回答內容。
深度導讀解析
正確答案:A
核心考點:RAG + Prompt + Guardrails 組合
理論拆解:最新知識用 RAG、風格控制用 Prompt、合規過濾用 Guardrails,三者分層各司其職。此組合是業界導入企業 LLM 助理的標準架構。這就像是一間頂級律師事務所的服務流程,RAG 負責提供最新的判決法條(知識庫),Prompt 負責要求律師說話必須莊重(語氣控制),而 Guardrails 則像是一位在旁把關的合規官,隨時攔截任何不專業或偏離法規的閒聊。
選項坑洞掃描:B Fine-tuning 成本高且無法即時反映新案例。C 長上下文有 token 限制且無法涵蓋完整判決庫。D Guardrails 是過濾不是知識檢索。
破題反射字:最新知識 → RAG / 語氣風格 → Prompt / 合規過濾 → Guardrails
第 8 題
某醫學研究機構要將病歷統計彙整後釋出給學術界使用,希望採差分隱私(Differential Privacy)機制保護個別病患的敏感資訊。團隊在討論隱私預算參數 ε 的意義與選擇時出現爭議。下列何項敘述最為正確?
(A) ε 越大代表注入的雜訊越多、隱私保護越強,研究單位應選擇越大的 ε 以保護病患。
(B) ε 僅影響輸出數值的絕對精度,與是否能保護個資無直接關係,僅是統計穩定性參數。
(C) ε 越小代表雜訊越多、隱私保護越強但輸出精度下降,需依資料敏感度與研究用途權衡。
(D) ε 取負值時可達最強隱私保護,正值則僅提供最低限度保護,故應設定為負數。
深度導讀解析
正確答案:C
核心考點:差分隱私預算 ε
理論拆解:ε 為隱私預算,定義「加入或移除單筆資料對輸出分布的最大影響比」。ε 越小雜訊注入越多、隱私越強但精度越差,是典型隱私與效用的權衡。這就像是在調整監視器畫面的模糊程度,隱私預算 ε 越小就代表畫面越模糊(雜訊越多),雖然這會讓個案的身份被保護得密不透風,但研究員也就越難看清畫面中群眾行為的精確統計特徵。
選項坑洞掃描:A 方向完全相反。B ε 直接定義隱私保證強度而非只有精度。D ε 為非負值,負值無數學意義。
破題反射字:差分隱私 → ε 越小越強 / 隱私 vs 效用 → 權衡參數
第 9 題
某保險公司要釋出客戶資料給學術研究單位,已對姓名與身分證字號做去識別化處理,並以 k-匿名保證每筆資料的(年齡區間、郵遞區號、性別)組合至少出現 5 次。研究員後續發現:若某組合內 5 位客戶的「重大疾病」欄位都相同,仍可推斷到具體個案。下列何項機制最能補強此類推論式揭露?
(A) 將 k 從 5 提高到 50 即可完全解決,其他補強機制皆為多餘冗贅。
(B) k-匿名僅保證準識別欄位組合頻次,未約束敏感屬性多樣性,應併用 l-diversity 或 t-closeness 防止推論式揭露。
(C) 改以差分隱私完全取代 k-匿名,兩者功能重疊僅需擇一使用即可。
(D) 將所有欄位加密後釋出並共用金鑰予研究單位,研究需要時才解密取得原始資料。
深度導讀解析
正確答案:B
核心考點:l-diversity 補強 k-匿名
理論拆解:k-匿名只保證準識別組合出現 k 次,若敏感屬性(如疾病)在組內同質仍會揭露。l-diversity 要求每組敏感屬性至少 l 種、t-closeness 進一步要求分布近似全體,兩者層次補強。這就像是證人保護計畫的進階版,你不僅要躲進一群同樣穿西裝的五個人當中(k-匿名),還要確保這五個人的職業各不相同(屬性多樣性),免得外人一看這組人全是特定職業,進而猜測到你身上帶有的秘密標籤。
選項坑洞掃描:A 提高 k 不解敏感屬性同質問題。C 差分隱私與 k-匿名是不同層次機制,非替代關係。D 加密釋出讓研究無法使用資料。
破題反射字:敏感屬性同質 → l-diversity / 分布近似 → t-closeness
第 10 題
某跨國電商總部位於歐盟,欲將歐盟客戶購物歷史資料傳回台灣母公司的資料倉儲做 BI 分析。法遵長檢視 GDPR 第五章跨境傳輸要求時發現:台灣尚未取得歐盟「適足性決定」(Adequacy Decision)。下列何項作法最為合適?
(A) 只要一次取得客戶概括同意即可完成跨境傳輸,同意書簽署後無需再進行其他合規動作。
(B) 採 TLS 加密管線傳送資料即視為符合 GDPR 跨境傳輸要求,無需另行簽訂任何契約文件。
(C) 在接收端僅處理匿名化後的彙總統計數字,即可完全規避 GDPR 對跨境傳輸的所有規範。
(D) 採歐盟標準契約條款(SCC)或具約束力企業規則(BCR)作為合法傳輸機制,並依具體情境進行傳輸影響評估(TIA)。
深度導讀解析
正確答案:D
核心考點:GDPR 跨境傳輸合法機制
理論拆解:台灣無適足性決定的前提下,GDPR 要求以 SCC 或 BCR 等合法傳輸機制取代,並在 Schrems II 案後需配合 TIA 評估接收國實際保護水準。這就像是在跨國搬運高度機密的公文,既然目前兩國之間沒有自動通關的協議,我們就必須雙方簽署一份具備法律約束力的「特製保密契約」(SCC),並在動工前仔細評估對方的保全系統是否真的能夠抵禦風險。
選項坑洞掃描:A 單次同意不取代結構性合規義務。B 加密是技術保護不是法律合規機制。C 彙總匿名化仍需判定是否可重新識別,不能一概規避 GDPR。
破題反射字:無適足性 → SCC/BCR / Schrems II 後 → TIA



















