問題 1
------------------------------
題目: 在一個自動化客戶服務的AI專案中,若需要讓AI模型從大量的歷史對話紀錄中學習如何「分類」客戶問題,並給出「預設答案」,這種學習方式最符合下列哪一種機器學習範式?選項:
A) 監督式學習
B) 非監督式學習
C) 強化學習
D) 深度學習
答案: A) 監督式學習
解析: 監督式學習的特點是從帶有標籤的數據中學習,這裡的「分類」客戶問題和「預設答案」都屬於標籤數據,目標是預測一個已知輸出。
問題 2
------------------------------
題目: 某公司欲開發一個能辨識產品瑕疵的AI視覺檢測系統。在初期規劃階段,作為iPAS AI應用規劃師,您會優先建議採用哪種AI技術來處理「圖像辨識」這類任務,並考量到需要從大量圖片中自動提取複雜特徵?
選項:
A) 傳統機器學習
B) 自然語言處理
C) 深度學習
D) 強化學習
答案: C) 深度學習
解析: 深度學習(特別是卷積神經網絡CNNs)在圖像辨識領域表現卓越,能夠自動從原始像素中學習並提取多層次、複雜的特徵,這正是傳統機器學習模型難以企及的優勢。
問題 3
------------------------------
題目: 某金融機構考慮導入AI系統以提升反詐欺交易偵測效率。在評估初期階段,相較於在本地部署昂貴的GPU伺服器,選擇「雲端運算」作為AI基礎架構有何核心優勢,特別是考量到彈性與成本效益?
選項:
A) 提高模型準確度
B) 數據安全性絕對保證
C) 程式碼版本控制更佳
D) 按需擴展的計算資源與降低初期投資
答案: D) 按需擴展的計算資源與降低初期投資
解析: 雲端運算的核心優勢在於其高度彈性,能夠根據實際需求快速擴展或縮減計算資源,並將資本支出(Capex)轉化為營運支出(Opex),從而降低初期高昂的硬體投資。
問題 4
------------------------------
題目: 一個電商平台想透過分析用戶行為數據來預測購買意願。他們發現,數據中某群用戶的購物車平均金額遠高於其他用戶,且這群用戶的數量非常稀少。若不對這群數據進行特殊處理,直接訓練模型,最可能導致哪種數據陷阱,進而影響模型的預測準確性?
選項:
A) 資料洩漏 (Data Leakage)
B) 相關性不等於因果
C) 異常值對模型的過度影響
D) 數據清洗不徹底
答案: C) 異常值對模型的過度影響
解析: 購物車金額遠高於其他用戶且數量稀少的用戶屬於「異常值」。若未妥善處理,這些極端值可能會對模型訓練產生過度影響,使其偏離數據的整體分佈,降低模型在一般數據上的泛化能力和預測準確性。
問題 5
------------------------------
題目: 某研究團隊正在分析咖啡消費習慣與工作壓力的關係。他們發現,在特定城市,咖啡銷量與工作壓力呈現高度正相關。然而,iPAS AI應用規劃師小李提醒團隊,在未進一步分析前,不應直接下結論說「喝咖啡會導致工作壓力增加」。小李的提醒主要基於哪一種統計觀念?
選項:
A) 數據偏見 (Data Bias)
B) 相關性不等於因果關係
C) 異常值處理 (Outlier Treatment)
D) 資料洩漏 (Data Leakage)
答案: B) 相關性不等於因果關係
解析: 相關性僅表示兩個變數之間存在趨勢上的關聯,但不能證明一個變數的變化直接導致另一個變數的變化。可能有潛在的第三方因素(如城市生活節奏快)同時影響了咖啡銷量和工作壓力。
問題 6
------------------------------
題目: 在進行AI模型訓練前,iPAS AI應用規劃師會花大量時間進行「資料預處理」。下列哪項工作**不屬於**一般資料預處理的範疇,而是更偏向於模型訓練後的步驟或與數據本身質量無關?
選項:
A) 將文字資料轉為數值資料
B) 填充缺失值
C) 重新訓練模型以調整模型參數
D) 資料正規化 (Normalization)
答案: C) 重新訓練模型以調整模型參數
解析: 重新訓練模型以調整模型參數屬於模型優化和迭代的步驟,通常發生在模型評估之後。資料正規化、填充缺失值以及將文字資料轉為數值資料都是在數據輸入機器學習模型之前,對數據進行的預處理步驟,以確保數據質量和格式符合模型要求。
問題 7
------------------------------
題目: 某保險公司欲建立AI模型來預測客戶流失率。在收集數據時,不小心將「客戶在流失後才取消的訂單日期」納入訓練集。這種情況最可能導致何種問題,嚴重影響模型在實際應用時的效能?
選項:
A) 數據偏見 (Data Bias)
B) 過擬合 (Overfitting)
C) 資料洩漏 (Data Leakage)
D) 欠擬合 (Underfitting)
答案: C) 資料洩漏 (Data Leakage)
解析: 將「客戶流失後才取消的訂單日期」這種在訓練時不應該被模型知道的未來資訊納入訓練集,會導致模型在訓練時「偷看」到答案,使其在訓練集上表現極佳,但在實際部署遇到新數據時表現卻極差,這就是資料洩漏。
問題 8
------------------------------
題目: 一家零售商希望透過AI推薦系統,向顧客推薦他們可能感興趣的商品。若推薦系統是基於分析顧客過去的購買歷史和瀏覽行為,並將其與「已標記」的商品類別進行匹配,則該系統最可能採用哪種機器學習範式?
選項:
A) 監督式學習
B) 非監督式學習
C) 強化學習
D) 深度學習
答案: A) 監督式學習
解析: 系統分析顧客的行為數據,並與「已標記」的商品類別(即有已知目標或答案的數據)進行匹配,這明確指示了監督式學習範疇,因為模型是從有標籤的數據中學習預測輸出。
問題 9
------------------------------
題目: 在建立一個用於預測股價的AI模型時,iPAS AI應用規劃師小王發現模型在訓練數據上的預測誤差非常小,但在從未見過的市場數據上,預測結果卻非常不準確。這種現象最可能說明模型遇到了什麼問題?
選項:
A) 數據偏見 (Data Bias)
B) 過擬合 (Overfitting)
C) 欠擬合 (Underfitting)
D) 資料洩漏 (Data Leakage)
答案: B) 過擬合 (Overfitting)
解析: 模型在訓練數據上表現極好,但在新數據(測試數據)上表現差,這是典型的「過擬合」現象。這意味著模型過度學習了訓練數據中的雜訊和特定模式,而失去了泛化能力。
問題 10
------------------------------
題目: 為了有效防治機器學習模型的「過擬合」問題,iPAS AI應用規劃師可以採取多種策略。下列哪一種策略是**主要用於降低模型複雜度,使其不過度依賴訓練數據中的特定模式**?
選項:
A) 增加訓練數據量
B) 調整學習率 (Learning Rate)
C) 引入正規化 (Regularization)
D) 使用更複雜的模型架構
答案: C) 引入正規化 (Regularization)
解析: 正規化(如L1或L2正規化)通過在模型的損失函數中添加懲罰項來限制模型權重的大小,從而降低模型的複雜度,使其泛化能力更好,有效防治過擬合。
問題 11
------------------------------
題目: 假設你是一個AI應用規劃師,正在開發一個檢測稀有疾病的AI模型。由於該疾病非常罕見,訓練數據中「患病」的樣本數量極少。在評估模型性能時,下列哪種指標比單純的「準確度 (Accuracy)」更能有效地衡量模型對於檢測稀有疾病的表現,避免被大量「未患病」的樣本誤導?
選項:
A) 準確度 (Accuracy)
B) 均方誤差 (Mean Squared Error, MSE)
C) 召回率 (Recall)
D) 精確度 (Precision)
答案: C) 召回率 (Recall)
解析: 在類別不平衡的數據集中(如稀有疾病檢測),準確度會被數量佔優勢的類別所主導。召回率衡量的是所有實際患病者中有多少被模型正確檢測出來,這在檢測稀有疾病時至關重要,因為漏診(假陰性)的成本很高,需要確保模型能儘量找出所有正例。
問題 12
------------------------------
題目: 鑑別式AI和生成式AI在目標上存在本質區別。下列哪句話最能精準概括「生成式AI」的核心目標?
選項:
A) 預測離散型類別標籤
B) 學習數據的內在分佈並生成新數據
C) 預測連續數值型輸出
D) 尋找數據中的隱藏結構
答案: B) 學習數據的內在分佈並生成新數據
解析: 生成式AI的核心能力是學習訓練數據的底層分佈模式,然後利用這些學習到的模式創造出新的、與原始數據相似的數據,例如生成文本、圖像或音訊等,而非簡單的分類或預測。
問題 13
------------------------------
題目: 某公司希望開發一個智能客服系統,除了能回答常見問題,還能根據公司最新的產品手冊和知識庫提供精準的客製化回覆,避免生成錯誤資訊。在不對大型語言模型進行全面「微調」的情況下,下列哪種方法最能有效實現此目標,同時確保資訊的時效性和準確性?
選項:
A) 擴散模型 (Diffusion Models)
B) 提示工程 (Prompt Engineering)
C) 檢索增強生成 (Retrieval-Augmented Generation, RAG)
D) 僅依賴模型的預訓練知識
答案: C) 檢索增強生成 (Retrieval-Augmented Generation, RAG)
解析: RAG架構正是為了解決LLM可能存在「幻覺」或無法獲取最新私有知識的問題。它讓LLM在生成回答前,先從外部知識庫中檢索相關資訊,再結合這些資訊進行生成,從而提高答案的準確性和時效性,而無需耗費大量資源進行全面微調。
問題 14
------------------------------
題目: 在「提示工程」(Prompt Engineering) 的實踐中,iPAS AI應用規劃師在設計給大型語言模型(LLM) 的指令時,為何強調「給予清晰明確的指示,包含角色扮演、具體任務與輸出格式要求」比簡單提問更重要?
選項:
A) 減少模型訓練時間
B) 提高模型的計算效率
C) 有效引導模型生成更符合預期的輸出
D) 降低訓練數據的品質要求
答案: C) 有效引導模型生成更符合預期的輸出
解析: 清晰明確的提示能夠有效引導LLM產生更符合預期的輸出。提供角色扮演、具體任務和輸出格式要求,可以限制模型的輸出範圍,使其更聚焦、更精準,大幅提升生成內容的品質與相關性,而非僅僅是提高效率或降低數據要求。
問題 15
------------------------------
題目: 一位iPAS AI應用規劃師正在規劃一個將鑑別式AI與生成式AI結合的企業級應用。下列哪一個應用場景最能有效體現兩種AI模型的「整合應用」優勢?
選項:
A) 使用鑑別式AI進行客戶信用評分,再單獨使用生成式AI撰寫行銷文案。
B) 使用鑑別式AI識別可疑詐欺郵件,隨後由生成式AI自動草擬回覆建議或警示。
C) 使用生成式AI生成產品圖片,再由鑑別式AI判斷圖片美觀度。
D) 僅使用生成式AI處理所有自然語言任務,不涉及鑑別式AI。
答案: B) 使用鑑別式AI識別可疑詐欺郵件,隨後由生成式AI自動草擬回覆建議或警示。
解析: 此場景完美結合了兩種AI的優勢:鑑別式AI擅長分類(識別詐欺郵件),生成式AI擅長創造(自動草擬回覆)。鑑別式AI先篩選出可疑郵件,然後生成式AI再根據郵件內容自動生成警告或回覆,這是一個高效且具實際價值的協同工作模式。













