嗨 我是CCChen
預計參加2025/05/17 iPAS AI應用規劃師 中級 第一場考試
倒數剩下11天, 開始加強學習了.我是報考科目一+科目二
分享以下學習資料, 每天多準備30題練習,積少成多.
本文主要針對科目一二三 第二個主題進行加強
科目一: 人工智慧技術應用與規劃 **中「AI相關技術應用」主題
科目二: 大數據處理分析與應用 **中 「機率統計基礎」 主題
科目三: 機器學習技術與應用 **中「機器學習基礎數學」 主題
針對 iPAS AI應用規劃師中級檢定《科目一:人工智慧技術應用與規劃》中「AI相關技術應用」主題所設計的 30 題選擇題練習,涵蓋基礎、進階與專業難度,聚焦於關鍵技術詞彙:BERT、CLIP、One-hot Encoding、word2vec、YOLO、MLOps、API、CI/CD、ASR、TTS、Faster R-CNN。
📘 一、基礎難度題(共 10 題)
- 下列哪一種技術可用於將文字轉換為向量空間中可處理的數值表示?
1234 ① CI/CD ② word2vec ③ ASR ④ YOLO
✅ 答案:2
📌 word2vec 是用於詞嵌入的模型,可將文字轉為向量。 - 在自然語言處理中,哪個技術用於將每個詞以唯一索引的方式表示?
1234 ① BERT ② YOLO ③ One-hot Encoding ④ TTS
✅ 答案:3
📌 One-hot Encoding 是最簡單的詞向量方法。 - 哪一種屬於影像物件偵測模型?
1234 ① BERT ② Faster R-CNN ③ TTS ④ MLOps
✅ 答案:2
📌 Faster R-CNN 是區域提議網路的物件偵測模型。 - 以下哪一個是屬於語音辨識(Speech Recognition)的應用?
1234 ① TTS ② ASR ③ API ④ CLIP
✅ 答案:2
📌 ASR(Automatic Speech Recognition)負責語音轉文字。 - 哪一項技術是用於將圖片與文字進行語義對齊?
1234 ① CLIP ② BERT ③ YOLO ④ word2vec
✅ 答案:1
📌 CLIP 是 OpenAI 提出的跨模態學習模型。 - 在機器學習系統中,CI/CD 的主要目的是?
1234 ① 改善語音辨識 ② 提高模型精準度 ③ 自動化部署與測試 ④ 建立物件偵測模型 ✅ 答案:3
📌 CI/CD(持續整合/持續部署)提升工程效率。 - 哪個技術是語音合成(Speech Synthesis)系統的代表?
1234 ① TTS ② ASR ③ CLIP ④ API
✅ 答案:1
📌 TTS(Text to Speech)將文字轉換為語音。 - 以下哪一項是應用程式之間交換資料的介面?
1234 ① BERT ② API ③ YOLO ④ Faster R-CNN
✅ 答案:2
📌 API(應用程式介面)使不同系統能溝通。 - 哪一種詞向量技術可以保留語意關係?
1234 ① One-hot Encoding ② CLIP ③ word2vec ④ YOLO
✅ 答案:3
📌 word2vec 能夠捕捉語意相似性與上下文資訊。 - YOLO 模型主要應用在哪一個領域?
1234 ① 語音識別 ② 物件偵測 ③ 自然語言處理 ④ 機器翻譯 ✅ 答案:2
📌 YOLO(You Only Look Once)是即時物件偵測模型。
📘 二、進階難度題(共 10 題)
- BERT 模型與傳統 RNN 最大的不同在於?
1234 ① BERT 是單向編碼器 ② BERT 不處理語言 ③ BERT 使用 Transformer 架構 ④ BERT 僅用於影像 ✅ 答案:3
📌 BERT 使用雙向 Transformer 編碼器結構。 - CLIP 模型能同時處理哪兩種數據?
1234 ① 圖片與聲音 ② 文字與數值 ③ 圖片與文字 ④ 影片與圖片 ✅ 答案:3
📌 CLIP 結合視覺與語言,達成跨模態理解。 - 哪一項屬於 MLOps 架構中的重要元素?
1234 ① 模型自動測試 ② 圖片訓練 ③ 文本轉語音 ④ 圖像分類 ✅ 答案:1
📌 MLOps 重視模型的持續整合與測試。 - YOLO 與 Faster R-CNN 的主要差異在於?
1234 ① YOLO 速度較慢 ② Faster R-CNN 是單階段模型 ③ YOLO 是單階段模型 ④ Faster R-CNN 不用 CNN ✅ 答案:3
📌 YOLO 為單階段即時偵測,Faster R-CNN 為兩階段模型。 - ASR 系統開發常見的挑戰不包括?
1234 ① 背景噪音干擾 ② 語音轉文字準確度 ③ API 呼叫失敗 ④ 多語種辨識 ✅ 答案:3
📌 API 雖重要但不屬於 ASR 本身開發挑戰。 - word2vec 的 Skip-gram 模型主要學習什麼?
1234 ① 利用上下文預測中心詞 ② 利用中心詞預測上下文詞 ③ 編碼整段文字 ④ 預測下一段對話 ✅ 答案:2
📌 Skip-gram 是以中心詞預測上下文。 - MLOps 中的「持續訓練(CT)」目的為何?
1234 ① 減少GPU使用 ② 避免版本控制 ③ 動態調整模型以應對新數據 ④ 改善資料品質 ✅ 答案:3
📌 CT 是為了讓模型持續更新並適應變化資料。 - 哪個技術可將 CLIP 模型應用於文本導引的影像搜尋?
1234 ① 向量相似度比對 ② TTS 儲存 ③ CI/CD 自動化 ④ Faster R-CNN 預測 ✅ 答案:1
📌 CLIP 將圖文編碼為共同空間向量,再做相似度查詢。 - 在 CI/CD 架構中,哪一階段對模型回歸測試最關鍵?
1234 ① 開發階段 ② 整合測試階段 ③ 部署後維護 ④ API 設計階段 ✅ 答案:2
📌 回歸測試多在整合測試階段執行,防止新版本出錯。 - TTS 技術常使用哪些模型進行聲音合成?
1234 ① CNN ② YOLO ③ Tacotron ④ One-hot
✅ 答案:3
📌 Tacotron 是常用的 TTS 模型之一,進行自然語音生成。
📘 三、專業難度題(共 10 題)
- BERT 預訓練的主要任務包含哪兩項?
1234 ① NER 與 QA ② MLM 與 NSP ③ OCR 與分類 ④ 轉錄與語音合成 ✅ 答案:2
📌 MLM(Masked Language Model)與 NSP(Next Sentence Prediction)為預訓練任務。 - CLIP 中視覺與文字資訊如何對齊?
1234 ① 結合預測語音輸出 ② 單向遞歸網路 ③ 使用共同嵌入空間進行對比學習 ④ 預測影像的光影 ✅ 答案:3
📌 CLIP 使用對比損失學習圖文共同語意空間。 - Faster R-CNN 使用的 RPN 是為了?
1234 ① 合成語音語調 ② 提供候選區域進行分類 ③ 編碼句子語法結構 ④ 預測句子順序 ✅ 答案:2
📌 Region Proposal Network 負責產生潛在物件區域。 - MLOps 管線設計時需特別注意哪些安全風險?
1234 ① 模型資訊外洩與版本污染 ② 語音資料清洗過慢 ③ 文本轉語音過短 ④ CLIP 訓練時間過長 ✅ 答案:1
📌 MLOps 中模型元資料、參數與版本皆為潛在風險。 - BERT 模型的輸入向量中包含哪些特徵?
1234 ① 純圖像資料 ② 位置編碼與詞向量 ③ 語音音高資訊 ④ 一維索引 ✅ 答案:2
📌 BERT 結合詞嵌入與位置編碼處理語句。 - CLIP 訓練過程中使用哪種學習技術來最大化語意相似度?
1234 ① 自監督式學習 ② 強化學習 ③ 對比學習 ④ 聚類學習 ✅ 答案:3
📌 對比學習是 CLIP 關鍵訓練技巧。 - 在部署 YOLOv5 模型時,CI/CD 可如何提升效率?
1234 ① 人工手動標註 ② 模型訓練簡化 ③ 自動模型部署與監控 ④ 儲存更多樣本 ✅ 答案:3
📌 CI/CD 整合模型訓練、測試、部署與更新流程。 - ASR 系統若使用 Transformer 架構,常見的挑戰是?
1234 ① 模型無法編碼圖像 ② 訓練需要大量語音對應文本 ③ 不支援英語辨識 ④ 僅能產生靜音 ✅ 答案:2
📌 ASR 使用大型模型時需高品質語音-文本配對資料。 - TTS 系統中提升聲音自然度的技術包括?
1234 ① 增加 YOLO 標註 ② 使用 GAN 結構產生聲波 ③ 使用 One-hot 編碼圖像 ④ 增加語速 ✅ 答案:2
📌 GAN 可生成更自然的聲波波形,如 WaveGAN、MelGAN。 - 在多模態應用中使用 CLIP 的一大優勢是?
1234 ① 可用於即時語音翻譯 ② 同時產生與理解圖文語意 ③ 處理大量非結構數據 ④ 產生 TTS 音檔 ✅ 答案:2
📌 CLIP 擅長理解與關聯圖像與文字語意。
依據 **iPAS AI應用規劃師中級檢定測驗《科目二:L22 大數據處理分析與應用》**中「機率統計基礎」主題設計的 30 題練習題,涵蓋:
- 基礎難度(10 題):掌握基本機率與統計觀念
- 進階難度(10 題):涉及分布、估計、假設檢定
- 專業難度(10 題):實務應用、統計推論、資料分析整合
關鍵字涵蓋:平均數、中位數、變異數、標準差、常態分配、二項分配、機率、抽樣、假設檢定、P值、顯著水準、母體與樣本、t檢定、Z檢定、信賴區間、中央極限定理、卡方檢定、相關係數、變異數分析(ANOVA)、迴歸分析等
📘 一、基礎難度(共 10 題)
- 平均數是下列哪一種統計量?
1234 ① 集中趨勢 ② 離散程度 ③ 假設檢定 ④ 機率分布 ✅ 答案:1 📌 平均數屬於集中趨勢的度量指標。 - 以下哪一個統計量最能反映數據的分散程度?
1234 ① 眾數 ② 標準差 ③ 中位數 ④ 平均數 ✅ 答案:2 📌 標準差反映數據偏離平均值的程度。 - 常態分配的形狀是什麼?
1234 ① 鐘形對稱 ② 左斜長尾 ③ 右斜長尾 ④ 均勻分布 ✅ 答案:1 📌 常態分配是對稱的鐘形曲線。 - 在一組資料中,中位數的定義是?
1234 ① 最常出現的值 ② 最大值 ③ 最小值 ④ 排序後位於中間的位置值 ✅ 答案:4 📌 中位數是排序後中間位置的數值。 - 機率的取值範圍為?
1234 ① -1 至 1 ② 0 至 ∞ ③ 0 至 1 ④ 任意實數 ✅ 答案:3 📌 機率值永遠介於 0 與 1 之間。 - 以下哪一個敘述為「母體」的定義?
1234 ① 所有研究樣本 ② 所有調查數據的總集合 ③ 一組隨機樣本 ④ 測量誤差 ✅ 答案:2 📌 母體是我們希望研究或推論的整個對象集合。 - 樣本變異數的計算公式為何?
1234 ① 平均數平方 ② 所有數值之和除以樣本數 ③ 離均差平方和除以 n−1 ④ 標準差的平方 ✅ 答案:3 📌 樣本變異數公式為 ∑(x−x̄)² / (n−1) - 在統計上,當樣本數增加時,樣本平均數的分布會?
1234 ① 趨近母體平均數 ② 趨近母體標準差 ③ 增加偏態 ④ 完全不變 ✅ 答案:1 📌 樣本平均會逐漸收斂於母體平均數(依中央極限定理)。 - 機率密度函數是用於?
1234 ① 離散變數 ② 類別資料 ③ 連續變數 ④ 名義變數 ✅ 答案:3 📌 連續型機率需使用機率密度函數描述。 - 眾數是指?
1234 ① 出現次數最多的值 ② 平均值 ③ 最大值與最小值間距 ④ 標準差最大值 ✅ 答案:1 📌 眾數是資料中出現頻率最高的值。
📘 二、進階難度(共 10 題)
- 何者不是常態分配的特性?
1234 ① 對稱鐘形 ② 平均=中位數=眾數 ③ 可能出現負機率 ④ 左右尾部趨近於 0 ✅ 答案:3 📌 機率不得為負數。 - 當母體標準差已知且樣本數大於30時,進行平均數的假設檢定應使用?
1234 ① 卡方檢定 ② t檢定 ③ Z檢定 ④ 迴歸分析 ✅ 答案:3 📌 Z檢定用於大樣本且母體變異數已知時。 - 進行母體比例的單尾檢定時,P值代表什麼?
1234 ① 顯著水準 ② 拒絕虛無假設的機率 ③ 在虛無假設成立下,觀察到現象的機率 ④ 錯誤率 ✅ 答案:3 📌 P值越小,代表在 H0 下越難出現觀察結果。 - 當樣本數太小且母體標準差未知時,應使用哪種檢定?
1234 ① t檢定 ② Z檢定 ③ ANOVA ④ 卡方檢定 ✅ 答案:1 📌 t檢定適用於小樣本與未知變異數情況。 - 哪一項統計檢定可用來檢查兩變數是否有關聯?
1234 ① Z檢定 ② 卡方檢定 ③ T檢定 ④ 平均數檢定 ✅ 答案:2 📌 卡方適用於列聯表,判斷變數獨立性。 - 在進行雙樣本平均數之比較時,若樣本變異數不等,應使用?
1234 ① 常態檢定 ② 配對 t 檢定 ③ Welch’s t 檢定 ④ Z檢定 ✅ 答案:3 📌 Welch t 檢定處理變異數不等的情況。 - 中央極限定理指出?
1234 ① 所有變數都呈常態分配 ② 樣本數大時,樣本平均近似常態 ③ 母體一定常態 ④ 所有統計量皆服從 Z 分配 ✅ 答案:2 📌 大樣本下平均值分布近似常態。 - 信賴區間為 [45, 55] 代表?
1234 ① 母體平均數為 45 ② 有 95% 機會落在 45-55 之間 ③ 95% 信心水準下,母體平均可能落在此區間 ④ 樣本平均落在 45~55 ✅ 答案:3 📌 信賴區間是對母體參數的推估範圍。 - 標準化分數 Z 的公式為?
1234 ① x̄−x ② x̄/n ③ (x−μ)/σ ④ (x̄−μ)/n ✅ 答案:3 📌 Z = (樣本值−平均數)/標準差。 - 哪一個統計方法可判定多組樣本平均是否有差異?
1234 ① t檢定 ② ANOVA ③ Z檢定 ④ 卡方檢定 ✅ 答案:2 📌 ANOVA(變異數分析)適用於多組平均比較。
📘 三、專業難度(共 10 題)
- 使用單因子 ANOVA 檢定時,其基本假設不包括?
1234 ① 各組母體平均數相同 ② 樣本獨立 ③ 各組變異數相等 ④ 資料為時間序列 ✅ 答案:4 📌 ANOVA 假設資料獨立非時間序列。 - 若使用 Pearson 相關係數 r = 0.95,表示?
1234 ① 幾乎沒有關聯 ② 強烈負相關 ③ 幾乎線性正相關 ④ 無法解釋 ✅ 答案:3 📌 r 趨近於 1 表示強正相關。 - 在進行假設檢定時,Type I Error 指的是?
1234 ① 接受虛無假設時錯誤 ② 拒絕虛無假設時錯誤 ③ 模型過度擬合 ④ 樣本選擇偏誤 ✅ 答案:2 📌 第一型錯誤是錯誤地拒絕虛無假設。 - 資料呈現高度偏態(skewness)時,最佳的集中趨勢量數為?
1234 ① 平均數 ② 眾數 ③ 中位數 ④ 標準差 ✅ 答案:3 📌 中位數受極端值影響較小。 - 標準差與變異數關係為?
1234 ① 標準差為變異數平方 ② 標準差為變異數開根號 ③ 無關 ④ 二者總為正比 ✅ 答案:2 📌 標準差 = √變異數 - 哪一統計方法可衡量 X 對 Y 的線性解釋能力?
1234 ① 回歸分析 ② 卡方檢定 ③ 信賴區間估計 ④ T 檢定 ✅ 答案:1 📌 線性迴歸用來衡量變數之間的線性關係。 - 樣本越大時,信賴區間的寬度會?
1234 ① 增加 ② 減少 ③ 不變 ④ 等於標準差 ✅ 答案:2 📌 樣本數越大,估計越準確,信賴區間縮窄。 - 在分析預測錯誤時,MSE 是什麼?
1234 ① 平均平方誤差 ② 最小樣本誤差 ③ 預測標準差 ④ 標準化平均值 ✅ 答案:1 📌 MSE = 平方誤差平均值,用於模型準確度。 - 資料異常值會最顯著影響哪個統計量?
1234 ① 中位數 ② 眾數 ③ 平均數 ④ 分組數 ✅ 答案:3 📌 平均數受極端值干擾最大。 - 在預測中使用回歸模型,其殘差的理想特性是?
1234 ① 呈現系統性 ② 隨機分布、期望值為 0 ③ 顯著偏差 ④ 高度相關 ✅ 答案:2 📌 良好模型的殘差應隨機分布、無偏。
根據 **iPAS AI應用規劃師中級檢定測驗《科目三:L23 機器學習技術與應用》**中「機器學習基礎數學」主題所設計的 30 題選擇題,依照難度分為:
- 基礎難度(10 題):定義與基本性質
- 進階難度(10 題):機率、矩陣、線性代數、導數與偏導數
- 專業難度(10 題):損失函數、梯度下降、特徵空間與高階數學應用
📘 一、基礎難度(10 題)
- 在機器學習中,特徵向量常用哪種數學結構表示?
1234 ① 樹狀圖 ② 整數集合 ③ 向量 ④ 隨機變數 ✅ 答案:3 📌 特徵常以向量形式輸入模型。 - 下列哪一項為標準的向量內積公式?
1234 ① ∑x/y ② ∑(xi × yi) ③ ∑(xi + yi) ④ ∑(xi − yi) ✅ 答案:2 📌 向量內積是同位置元素乘積總和。 - 線性方程組 Ax = b 中,A 為?
1234 ① 向量 ② 樣本資料 ③ 矩陣 ④ 常數 ✅ 答案:3 📌 A 是係數矩陣。 - 在機器學習中,損失函數(Loss Function)主要用來?
1234 ① 儲存資料 ② 記錄模型權重 ③ 衡量預測與真實差異 ④ 計算特徵數量 ✅ 答案:3 📌 損失函數衡量模型預測誤差。 - 一個機率密度函數的總機率為?
1234 ① 無限大 ② 1 ③ 0 ④ 小於 0 ✅ 答案:2 📌 連續機率分布下積分總和等於1。 - 偏導數 ∂L/∂w 是什麼意思?
1234 ① 計算 L 隨所有變數變化 ② 計算 L 對 w 的變化率 ③ 計算函數總和 ④ 計算平均數 ✅ 答案:2 📌 偏導表示函數對單一變數的變化率。 - 下列哪個是線性代數中矩陣的轉置表示方式?
1234 ① A×A ② A’ ③ A⁻¹ ④ A^T ✅ 答案:4 📌 轉置矩陣記作 A^T。 - 在梯度下降法中,學習率(learning rate)影響?
1234 ① 模型類型 ② 訓練樣本數 ③ 更新參數的幅度 ④ 計算複雜度 ✅ 答案:3 📌 學習率決定每次參數更新的大小。 - 當梯度為 0 時,代表?
1234 ① 正在上升 ② 正在下降 ③ 達到極值點 ④ 機率為 0 ✅ 答案:3 📌 梯度為0代表函數在該點平坦,可能是極值。 - 資料標準化常見方式為?
1234 ① 轉成向量 ② 取平方 ③ Z-score 正規化 ④ 轉成矩陣 ✅ 答案:3 📌 Z-score 常用來標準化資料為零均值與單位方差。
📘 二、進階難度(10 題)
- 若矩陣 A 為 n × m,向量 x 為 m × 1,則 Ax 的維度為?
1234 ① m × m ② n × 1 ③ 1 × n ④ m × 1 ✅ 答案:2 📌 矩陣乘法遵守「外形原則」。 - 特徵值分解主要用在哪些任務?
1234 ① 資料合併 ② 降維與主成分分析(PCA) ③ 文字轉換 ④ 條件判斷 ✅ 答案:2 📌 特徵值分解是 PCA 核心步驟。 - Sigmoid 函數的輸出範圍是?
1234 ① 0 到 1 ② -1 到 1 ③ 0 到 ∞ ④ -∞ 到 ∞ ✅ 答案:1 📌 Sigmoid 常用於機率模型,其輸出限制在 0~1。 - Softmax 函數通常用於?
1234 ① 線性迴歸 ② 類別機率預測(多類別) ③ 損失函數優化 ④ 訓練資料排序 ✅ 答案:2 📌 Softmax 會將多個數轉為機率分布。 - 餘弦相似度在向量計算中代表什麼?
1234 ① 點距 ② 資料總量 ③ 向量夾角的餘弦值 ④ 向量和的平均 ✅ 答案:3 📌 餘弦相似度評估兩向量方向相似度。 - L2 正則化主要目的是?
1234 ① 提升維度 ② 減少過擬合 ③ 增加特徵數 ④ 減少學習率 ✅ 答案:2 📌 L2會懲罰過大的權重,降低過擬合。 - 一階導數等於零、二階導數大於零,表示?
1234 ① 局部極小值 ② 局部極大值 ③ 鞍點 ④ 不變點 ✅ 答案:1 📌 這是數學中最小值的充要條件。 - 哪個函數的導數是自身乘以(1 − 自身)?
1234 ① ReLU ② Sigmoid ③ tanh ④ Softmax ✅ 答案:2 📌 Sigmoid 導數是 σ(x)(1−σ(x))。 - 在梯度下降過程中,若學習率過大,可能會?
1234 ① 模型準確提升 ② 收斂更快 ③ 發散無法收斂 ④ 無影響 ✅ 答案:3 📌 學習率過大會錯過最佳點,甚至不收斂。 - 在使用隨機梯度下降(SGD)時,每次參數更新使用?
1234 ① 全部資料 ② 一筆或小批資料 ③ 測試資料 ④ 矩陣轉置 ✅ 答案:2 📌 SGD 每次只用部分樣本來近似總梯度。
📘 三、專業難度(10 題)
- 在多維空間中,決策邊界是什麼數學物件?
1234 ① 向量 ② 超平面 ③ 函數點集 ④ 矩陣 ✅ 答案:2 📌 超平面是支持向量機等分類器的決策邊界。 - Log Loss 函數在邏輯回歸中用途為?
1234 ① 計算平均值 ② 衡量預測與實際的交叉熵 ③ 準確率 ④ 過擬合度 ✅ 答案:2 📌 Log Loss 又稱交叉熵損失函數。 - 在反向傳播中使用鏈式法則是為了?
1234 ① 計算正向傳遞速度 ② 更新學習率 ③ 分層計算誤差梯度 ④ 建立超參數 ✅ 答案:3 📌 鏈式法則能分層傳遞誤差與導數。 - PCA 的第一主成分為?
1234 ① 資料中最少變異方向 ② 最大方差方向 ③ 隨機向量 ④ 特徵數最少方向 ✅ 答案:2 📌 第一主成分是方差最大方向。 - Hessian 矩陣描述?
1234 ① 一階導數組成的向量 ② 二階偏導數構成的矩陣 ③ 誤差平方和 ④ 特徵值集合 ✅ 答案:2 📌 Hessian 為二階導數矩陣,用於凸性分析與優化。 - 何者可解釋 SVM 的 Margin 最大化問題?
1234 ① 求出所有資料的平均 ② 訓練損失最小化 ③ 找出距離分類邊界最遠的超平面 ④ 特徵降維 ✅ 答案:3 📌 支持向量機最大化分類邊界間距。 - 什麼是 Jacobian 矩陣?
1234 ① 一個矩陣的轉置 ② 所有偏導數構成的矩陣 ③ 標準差矩陣 ④ 二元變數的比例 ✅ 答案:2 📌 Jacobian 是向量函數的一階導數集合。 - 在機器學習中,Cross Entropy 損失主要用途為?
1234 ① 儲存模型資訊 ② 控制變異數 ③ 衡量預測機率與實際標籤之間的距離 ④ 擬合程度評估 ✅ 答案:3 📌 交叉熵損失用於分類問題模型誤差評估。 - 假設輸出為非線性函數,則需使用哪種方法優化?
1234 ① 線性迴歸 ② 二階封閉解 ③ 梯度下降類方法 ④ 無母數方法 ✅ 答案:3 📌 非線性函數無封閉解,需靠數值優化法。 - 在高維特徵空間中,模型易產生何種問題?
1234 ① 過擬合(Overfitting) ② 欠擬合(Underfitting) ③ 收斂過快 ④ 無需正規化 ✅ 答案:1 📌 高維度增加模型自由度,易過擬合。
我是CCChen 一起努力準備"iPAS AI應用規劃師 中級"