問題 1 (中級)
------------------------------
題目: 在金融詐欺偵測模型專案中,開發團隊需要評估某用戶在過去24小時內的交易行為是否存在異常。為了更有效地捕捉用戶行為的「波動性」,而非僅是平均值,下列哪一個統計量作為特徵工程的輸入,最能幫助模型判斷其交易行為的穩定性?選項:
A) 過去24小時內交易金額的平均值 (Mean)
B) 過去24小時內交易金額的中位數 (Median)
C) 過去24小時內交易金額的標準差 (Standard Deviation)
D) 過去24小時內交易筆數的總和 (Sum)
答案: C) 過去24小時內交易金額的標準差 (Standard Deviation)
解析: 1. 正確選項詳解:C) 標準差 (Standard Deviation) 是衡量數據集離散程度或波動性的指標。在特徵工程中,如果我們想捕捉用戶交易行為的「波動性」或「不穩定性」,標準差是一個非常有效的統計量。異常交易行為往往伴隨著交易金額或頻率的顯著波動,標準差能精準量化這種波動,幫助模型識別出潛在的詐欺。2. 錯誤選項分析:A) 平均值 (Mean) 提供了數據的集中趨勢,代表了一般情況下的交易金額,但無法反映金額變化的劇烈程度。B) 中位數 (Median) 也代表數據的集中趨勢,且對極端值不敏感,常用於有偏態分佈的數據,但同樣無法有效衡量波動性。D) 總和 (Sum) 僅表示交易量的累計,無法反映交易行為的模式或穩定性。雖然交易總額可能在某些情境下有意義,但它並非用來衡量波動性。3. 核心考點總結:本題旨在測驗考生對不同統計量的理解,以及它們在特徵工程中,如何根據具體業務需求(如捕捉波動性)選擇最合適的統計量來建立有效特徵的應用能力。
問題 2 (中級)
------------------------------
題目: 某電商公司開發了一個新的AI推薦系統,並進行A/B測試。在測試結束後,團隊觀察到新系統的轉換率比舊系統高了0.5%。為了判斷這個提升是否具有統計上的顯著意義,而不是隨機波動造成的結果,下列哪一步驟是他們在假設檢定中首先需要進行的?
選項:
A) 直接採納新系統,因為轉換率確實提升了0.5%
B) 設定虛無假設(H0)和對立假設(H1)
C) 計算新舊系統轉換率的點估計值
D) 進行特徵工程,為模型新增更多特徵
答案: B) 設定虛無假設(H0)和對立假設(H1)
解析: 1. 正確選項詳解:B) 在進行任何統計顯著性判斷之前,首先需要明確定義虛無假設 (H0) 和對立假設 (H1)。虛無假設通常聲明沒有效果或差異(例如,新舊系統無顯著差異),而對立假設則聲明存在效果或差異(例如,新系統優於舊系統)。這是假設檢定的邏輯起點。2. 錯誤選項分析:A) 直接採納提升0.5%的結果是輕率的,因為即使數據有所提升,也可能是隨機波動造成的,沒有經過統計顯著性驗證的結果,其可靠性存疑。C) 計算點估計值(如轉換率本身)是數據分析的一部分,但這是在設定好假設之後,用於計算檢定統計量和p值的前提,而非假設檢定的第一步。D) 特徵工程是在模型開發階段進行的,與評估已部署模型效果的假設檢定流程無直接關係。3. 核心考點總結:本題測驗考生對假設檢定流程的理解,特別是識別其起始步驟——設定虛無與對立假設的重要性。
問題 3 (中級)
------------------------------
題目: 在一個異常交易偵測系統中,模型根據交易紀錄判斷一筆交易是否為詐欺。已知某筆交易具有一系列"可疑特徵"。我們想計算在這些"可疑特徵"出現的條件下,這筆交易是"詐欺"的機率。下列哪一個機率概念最適合用來解決這個問題?
選項:
A) 邊際機率 (Marginal Probability)
B) 聯合機率 (Joint Probability)
C) 條件機率 (Conditional Probability)
D) 無條件機率 (Unconditional Probability)
答案: C) 條件機率 (Conditional Probability)
解析: 1. 正確選項詳解:C) 條件機率 (Conditional Probability) 表示在某事件(此處為“可疑特徵出現”)已經發生的條件下,另一事件(此處為“交易是詐欺”)發生的機率。這正是題目所描述的需求:計算 P(詐欺 | 可疑特徵)。2. 錯誤選項分析:A) 邊際機率是指單一事件發生的機率,不考慮其他事件是否發生,例如 P(詐欺) 或 P(可疑特徵)。B) 聯合機率是指兩個或多個事件同時發生的機率,例如 P(詐欺 且 可疑特徵)。D) 無條件機率與邊際機率同義,是指單一事件發生的機率,不考慮任何特定條件。3. 核心考點總結:本題旨在測驗考生對條件機率概念的理解,以及它在面對特定情境資訊時,如何進行機率推斷的應用。
問題 4 (中級)
------------------------------
題目: 某物流公司利用機器學習模型預測包裹延遲。模型開發過程中,發現包裹重量和配送距離這兩個特徵,單獨看似乎與延遲時間相關性不高,但當"重型包裹"與"長距離配送"同時發生時,延遲機率會顯著提高。為了捕捉這種"協同效應",資料科學家應該在特徵工程中考慮什麼?
選項:
A) 對包裹重量進行標準化處理
B) 創建包裹重量與配送距離的交互特徵 (Interaction Feature)
C) 移除配送距離較短的數據點
D) 對延遲時間進行離散化處理
答案: B) 創建包裹重量與配送距離的交互特徵 (Interaction Feature)
解析: 1. 正確選項詳解:B) 交互特徵 (Interaction Feature) 是指將兩個或多個現有特徵組合起來,以捕捉它們之間的聯合效應,這種效應是單獨特徵無法表達的。在題目的情境中,單獨的重量或距離可能不足以預測延遲,但兩者結合時的特定組合(例如:重量 * 距離 或 重量類別 * 距離類別)能顯著提高預測能力,這正是交互特徵的應用場景。2. 錯誤選項分析:A) 標準化處理是縮放特徵的常用方法,有助於模型的收斂,但它不會捕捉到兩個特徵之間的協同效應。C) 移除數據點可能會導致資訊損失,且無法解決捕捉交互作用的問題。D) 離散化處理是將連續型變數轉換為類別型變數,這可能簡化模型,但並非直接用來捕捉特徵間的協同作用,且延遲時間通常作為連續型目標變數。3. 核心考點總結:本題測驗考生對特徵工程中「交互特徵」概念的理解,以及如何利用它來捕捉不同特徵之間的複雜關係,以提升模型預測能力。
問題 5 (中級)
------------------------------
題目: 一位 AI 工程師正在為一個推薦系統優化其分類模型的閾值。他手上有模型的準確率(Precision)和召回率(Recall)。為了綜合考慮這兩個指標,特別是在誤報和漏報同樣重要的情況下,下列哪一個指標是最佳的選擇?
選項:
A) 準確率 (Precision)
B) 召回率 (Recall)
C) F1-Score
D) 準確度 (Accuracy)
答案: C) F1-Score
解析: 1. 正確選項詳解:C) F1-Score 是準確率 (Precision) 和召回率 (Recall) 的調和平均數。當模型的誤報(高 Precision 但低 Recall)和漏報(高 Recall 但低 Precision)成本都很重要,需要取得兩者平衡時,F1-Score 是最合適的評估指標。推薦系統在避免推薦用戶不喜歡的內容(誤報)和不錯過用戶可能喜歡的內容(漏報)之間通常需要平衡。2. 錯誤選項分析:A) 準確率 (Precision) 衡量的是所有被預測為正例中,實際為正例的比例,高準確率意味著誤報少。B) 召回率 (Recall) 衡量的是所有實際為正例中,被模型正確預測為正例的比例,高召回率意味著漏報少。D) 準確度 (Accuracy) 衡量的是所有預測中正確預測的比例,但在類別不平衡的數據集中,高準確度可能具有誤導性,例如一個99%的數據是負例的模型,即使所有都預測為負例,準確度也會很高,但召回率會極低。3. 核心考點總結:本題考查考生對機器學習模型評估指標的理解和應用,特別是在不同業務場景下,如何選擇最適合的指標來平衡模型的不同性能方面。
問題 6 (中級)
------------------------------
題目: 某新藥研發公司進行臨床試驗,旨在判斷新藥是否能有效降低患者的某項生理指標。研究人員設立了虛無假設 (H0: 新藥無效) 和對立假設 (H1: 新藥有效)。試驗結果顯示 P 值為 0.03。如果公司將顯著水準 (alpha) 設定為 0.05,基於此 P 值,他們應該做出什麼決策?
選項:
A) 接受虛無假設,認為新藥無效
B) 無法做出任何判斷,需要更多數據
C) 拒絕虛無假設,認為新藥有效
D) 將顯著水準調整為 0.01 再重新判斷
答案: C) 拒絕虛無假設,認為新藥有效
解析: 1. 正確選項詳解:C) 當 P 值 (0.03) 小於顯著水準 (alpha, 0.05) 時,表示在虛無假設為真的情況下觀察到如此極端的結果(或更極端的結果)的機率非常低。因此,我們有足夠的統計證據拒絕虛無假設,轉而支持對立假設,即認為新藥是有效的。2. 錯誤選項分析:A) P值小於顯著水準時,應該拒絕虛無假設,而非接受。B) 在給定P值和顯著水準的情況下,可以直接做出統計判斷,不需要更多數據來做出初步決策。D) 在做出決策前隨意調整顯著水準是不恰當的行為,會導致檢定結果的偏頗和不可信,顯著水準應在實驗前設定。3. 核心考點總結:本題考查考生對假設檢定決策規則的理解,即如何根據 P 值與顯著水準的比較來判斷是否拒絕虛無假設。
問題 7 (中級)
------------------------------
題目: 在進行機器學習模型訓練時,數據科學家發現訓練集中的某個數值型特徵存在大量極端值(Outliers),這些極端值可能會嚴重影響模型的穩健性。為了減少極端值對模型訓練的影響,下列哪一種數據處理方式是合適的?
選項:
A) 直接刪除所有包含極端值的數據點
B) 使用平均值 (Mean) 進行缺失值填補
C) 對該特徵進行分箱 (Binning) 處理
D) 採用基於中位數 (Median) 的統計量或轉換方法
答案: D) 採用基於中位數 (Median) 的統計量或轉換方法
解析: 1. 正確選項詳解:D) 中位數 (Median) 相比於平均值對極端值更不敏感。因此,在處理含有極端值的數據時,可以考慮使用中位數代替平均值進行特徵表示,例如使用中位數歸一化,或將極端值替換為分位數邊界值(Cap and Floor)。這有助於提高模型的穩健性。2. 錯誤選項分析:A) 直接刪除極端值可能會導致大量數據丟失,特別是當極端值普遍存在時,這會減少數據量並可能損失重要信息。B) 使用平均值進行缺失值填補在存在大量極端值時是不明智的,因為平均值會被極端值嚴重拉高或拉低,導致填補的值不具代表性。C) 對特徵進行分箱處理是將數值型特徵轉換為類別型特徵的一種方法,雖然可以一定程度上降低極端值的影響,但它並非直接處理極端值導致模型不穩定的主要方法,且可能損失信息。3. 核心考點總結:本題考查考生在特徵工程中對極端值處理的理解,以及如何選擇對極端值不敏感的統計方法來提升模型的穩健性。
問題 8 (中級)
------------------------------
題目: 某工廠的品管部門利用機器學習模型預測產品缺陷。模型的輸出是一個"產品有缺陷的機率"。為了根據這個機率來判斷產品是否真的有缺陷,並做出相應的報廢或返工決策,下列哪個概念是決策的關鍵?
選項:
A) 損失函數 (Loss Function)
B) 特徵重要性 (Feature Importance)
C) 決策閾值 (Decision Threshold)
D) 模型複雜度 (Model Complexity)
答案: C) 決策閾值 (Decision Threshold)
解析: 1. 正確選項詳解:C) 決策閾值 (Decision Threshold) 是用於將模型輸出的機率值(或得分)轉換為最終分類決策的關鍵。例如,如果模型預測一個產品有缺陷的機率是0.6,如果我們設定閾值為0.5,那麼這個產品就會被判斷為有缺陷。這個閾值的設定直接影響到模型的召回率和準確率,進而影響報廢或返工的決策成本和效益。2. 錯誤選項分析:A) 損失函數是用於訓練模型、衡量模型預測值與真實值之間差異的指標,與最終的分類決策無直接關係。B) 特徵重要性是指各個特徵對模型預測的貢獻程度,用於解釋模型或進行特徵選擇,但與如何根據模型輸出做出分類決策無關。D) 模型複雜度是指模型結構的複雜程度,影響模型的泛化能力和過擬合風險,但與如何將機率輸出轉化為決策無關。3. 核心考點總結:本題考查考生對分類模型中「決策閾值」概念的理解,以及它在實際應用中如何影響最終決策的制定。
問題 9 (中級)
------------------------------
題目: 貝氏定理在機器學習中扮演著關鍵角色,尤其是在需要根據新的證據來更新對事件發生機率的信念時。下列哪一個應用情境最能體現貝氏定理的這種特性?
選項:
A) 計算一個數據集中某個特徵的平均值
B) 使用線性迴歸模型預測連續型目標變數
C) 根據用戶的瀏覽歷史更新其對某產品的偏好機率
D) 對圖像進行像素級的灰度轉換
答案: C) 根據用戶的瀏覽歷史更新其對某產品的偏好機率
解析: 1. 正確選項詳解:C) 貝氏定理的核心是“證據更新”。在推薦系統中,用戶對某產品的初始偏好機率(先驗機率)會隨著他們新的瀏覽行為、點擊、購買等“新證據”的出現而更新,從而得到更精準的偏好機率(後驗機率)。這完美體現了貝氏定理通過新證據修正舊信念的特性。2. 錯誤選項分析:A) 計算平均值是描述性統計,與貝氏定理的推論邏輯無關。B) 線性迴歸是一種預測連續型變數的模型,它基於特徵與目標之間的線性關係,不直接涉及貝氏定理的機率更新過程。D) 圖像的灰度轉換是一種圖像處理技術,與機率推論無關。3. 核心考點總結:本題考查考生對貝氏定理核心精神——“證據更新”的理解,以及其在機器學習推論應用中的具體體現。
問題 10 (中級)
------------------------------
題目: 在機器學習中,當我們處理分類問題的目標變數時,根據其本質,我們可以將其分為離散型和連續型。下列哪一個目標變數的例子,最適合用"離散型機率分佈"來建模?
選項:
A) 預測房價(以萬元為單位)
B) 預測客戶的信用評分(從0到1000的整數)
C) 預測股票的每日收盤價(以元為單位)
D) 預測一家工廠每天生產的瑕疵品數量
答案: D) 預測一家工廠每天生產的瑕疵品數量
解析: 1. 正確選項詳解:D) 瑕疵品的數量是一個計數變數,只能取非負整數值(0, 1, 2, ...),例如 Poisson 分佈或負二項分佈等離散型機率分佈非常適合對這類事件進行建模。2. 錯誤選項分析:A) 房價通常是一個連續型變數,可以用常態分佈等連續型機率分佈建模。B) 信用評分雖然是整數,但其範圍較大,通常也傾向於用連續型分佈或視為連續型處理。C) 股票收盤價也是一個連續型變數,可以用連續型機率分佈建模。3. 核心考點總結:本題考查考生對離散型隨機變數和連續型隨機變數區別的理解,以及如何根據目標變數的性質選擇合適的機率分佈類型進行建模。
問題 11 (中級)
------------------------------
題目: 一位數據分析師在建立客戶流失預測模型時,發現模型在訓練集上的準確度高達98%,但在測試集上卻只有75%。這種情況最可能表明模型出現了什麼問題?
選項:
A) 欠擬合 (Underfitting)
B) 過擬合 (Overfitting)
C) 數據不平衡 (Data Imbalance)
D) 特徵選擇不當 (Improper Feature Selection)
答案: B) 過擬合 (Overfitting)
解析: 1. 正確選項詳解:B) 過擬合 (Overfitting) 是指模型在訓練數據上表現非常好,但由於過度學習訓練數據中的噪聲和特定模式,導致其泛化能力差,在未見過的測試數據上表現不佳。題目中描述的情況——訓練集高準確度而測試集低準確度——是過擬合的典型表現。2. 錯誤選項分析:A) 欠擬合 (Underfitting) 是指模型在訓練集和測試集上的表現都差,因為模型未能捕捉到數據的基本模式。C) 數據不平衡可能導致模型偏向多數類別,但其表現不一定呈現訓練集高測試集低的模式,而是可能導致某一類別的召回率特別低。D) 特徵選擇不當可能導致模型表現不佳,但它本身不直接解釋訓練集與測試集表現的巨大差異,除非是選擇了高度相關或不具代表性的特徵。3. 核心考點總結:本題考查考生對機器學習模型「過擬合」概念的理解及其典型表現,這是模型評估和優化中的重要知識點。
問題 12 (中級)
------------------------------
題目: 某研究團隊正在開發一個AI模型來辨識罕見疾病。在假設檢定中,他們最關心的是避免將患病的病人誤診為健康人(即漏診)。這種情況下,他們應該特別關注控制哪種類型的錯誤?
選項:
A) Type I 錯誤 (False Positive)
B) Type II 錯誤 (False Negative)
C) 數據採集錯誤 (Data Collection Error)
D) 模型部署錯誤 (Model Deployment Error)
答案: B) Type II 錯誤 (False Negative)
解析: 1. 正確選項詳解:B) Type II 錯誤,也稱為「偽陰性」或「漏報」,是指虛無假設為假時卻接受虛無假設。在罕見疾病的診斷中,如果虛無假設是「病人未患病」,那麼Type II 錯誤就代表將實際患病的病人誤診為未患病(漏診)。這種錯誤在醫療領域可能導致嚴重的後果(延誤治療),因此需要重點控制。2. 錯誤選項分析:A) Type I 錯誤,也稱為「偽陽性」或「誤報」,是指虛無假設為真時卻拒絕虛無假設。在疾病診斷中,這表示將健康的病人誤診為患病。雖然這會造成病患不必要的心理壓力或進一步檢查,但相較於漏診罕見疾病,其危害性通常較低。C) 數據採集錯誤和 D) 模型部署錯誤雖然都會影響模型性能,但它們不是假設檢定中直接關注的兩種統計錯誤類型。3. 核心考點總結:本題考查考生對假設檢定中 Type I 錯誤和 Type II 錯誤的理解,以及如何在不同實際應用情境中(特別是醫療診斷),根據錯誤成本權衡需要優先控制哪種錯誤。
問題 13 (中級)
------------------------------
題目: 在機器學習的特徵工程階段,如果一個數值型特徵的分佈呈現高度偏態(Skewness),即數據大部分集中在某一側,而尾部延伸很長。為了讓這個特徵更符合某些模型的輸入要求(例如線性模型可能假設輸入是常態分佈),下列哪種轉換方法通常是有效的?
選項:
A) 獨熱編碼 (One-Hot Encoding)
B) 標準化 (Standardization)
C) 對數轉換 (Log Transformation)
D) 填充缺失值 (Imputation)
答案: C) 對數轉換 (Log Transformation)
解析: 1. 正確選項詳解:C) 對數轉換 (Log Transformation) 是一種常用的數據轉換技術,尤其適用於處理右偏(正偏)的數值型特徵。通過取對數,可以壓縮數據的範圍,減少偏態,使其分佈更接近常態分佈,從而改善許多模型的性能,特別是那些對特徵分佈敏感的模型。2. 錯誤選項分析:A) 獨熱編碼是用於將類別型特徵轉換為數值型,不適用於處理數值型特徵的偏態問題。B) 標準化 (Standardization) 是將數據縮放到均值為0、標準差為1的範圍,它會改變數據的尺度,但不會根本性地改變數據分佈的形狀或減少偏態。D) 填充缺失值是處理數據缺失的技術,與處理數據偏態無關。3. 核心考點總結:本題考查考生在特徵工程中對數據轉換技術的理解,特別是如何使用對數轉換來處理數值型特徵的偏態,以優化模型性能。
問題 14 (中級)
------------------------------
題目: 一家能源公司利用AI模型預測電網負載。模型的輸出是下一個小時的電網負載量(連續數值)。為了評估這個預測模型的性能,下列哪一個評估指標最不適用?
選項:
A) 均方誤差 (Mean Squared Error, MSE)
B) 決定係數 (R-squared)
C) 平均絕對誤差 (Mean Absolute Error, MAE)
D) 準確率 (Accuracy)
答案: D) 準確率 (Accuracy)
解析: 1. 正確選項詳解:D) 準確率 (Accuracy) 主要用於分類問題,衡量模型正確預測的樣本比例。而電網負載預測是一個迴歸問題(預測連續數值),因此準確率不適用於評估此類模型的性能。2. 錯誤選項分析:A) 均方誤差 (MSE) 是迴歸模型最常用的評估指標之一,它衡量預測值與真實值之間差的平方的平均值。B) 決定係數 (R-squared) 用於衡量迴歸模型對目標變數變異的解釋程度,其值介於0到1之間,越接近1表示模型解釋能力越強。C) 平均絕對誤差 (MAE) 也是迴歸模型常用的指標,它衡量預測值與真實值之間絕對差的平均值。這三者都是評估迴歸模型的有效指標。3. 核心考點總結:本題考查考生對機器學習模型評估指標的辨識能力,特別是區分迴歸模型和分類模型各自適用的評估指標。
問題 15 (中級)
------------------------------
題目: 在機器學習模型推論中,如果我們想知道在觀察到某組特定特徵值 (Evidence) 的情況下,某個事件 (Hypothesis) 發生的機率,並且我們已經有了該事件的先驗機率以及證據在該事件發生下的機率,則最佳的推論工具是?
選項:
A) 中央極限定理 (Central Limit Theorem)
B) 大數法則 (Law of Large Numbers)
C) 貝氏定理 (Bayes' Theorem)
D) 變異數分析 (Analysis of Variance, ANOVA)
答案: C) 貝氏定理 (Bayes' Theorem)
解析: 1. 正確選項詳解:C) 貝氏定理 (Bayes' Theorem) 正是用於計算後驗機率的工具,它根據先驗機率和似然度(證據在假設下發生的機率)來更新對事件的信念。P(H|E) = [P(E|H) * P(H)] / P(E),其中 P(H) 是先驗機率,P(E|H) 是似然度。這完全符合題目描述的需求。2. 錯誤選項分析:A) 中央極限定理說明,當樣本量足夠大時,樣本均值的抽樣分佈會趨近於常態分佈,與推論特定事件的後驗機率無關。B) 大數法則說明,隨著實驗次數的增加,事件發生的頻率會趨近於其理論機率,也與推論後驗機率無直接關係。D) 變異數分析 (ANOVA) 是一種統計檢定方法,用於比較三個或更多組群的平均值是否存在統計上的顯著差異,與機率推論不同。3. 核心考點總結:本題考查考生對貝氏定理核心功能的理解,即如何在已有先驗資訊和新證據的基礎上,進行機率推論和信念更新。








