[電腦視覺2]模擬考題

更新 發佈閱讀 11 分鐘

建議先看完影片在做題目,效果加倍https://youtu.be/yOfUsG1OJzo

問題 1 (中級)

------------------------------

題目: 在卷積神經網路 (CNN) 中,Max Pooling 層如何處理反向傳播的梯度?

選項:

A) 將梯度均勻分配給所有參與池化的輸入單元。

B) 將梯度傳遞給在正向傳播中貢獻最大值的輸入單元。

C) 在反向傳播時,Max Pooling 層會被跳過,不進行梯度計算。

D) 將梯度分配給所有輸入單元,並根據其值大小加權。


答案: B) 將梯度傳遞給在正向傳播中貢獻最大值的輸入單元。

解析: Max Pooling 在正向傳播中只會選擇區域內的最大值。因此,在反向傳播時,梯度只會回傳給在該區域中產生最大值的那個神經元,其他非最大值的位置梯度為零。這有助於梯度傳播的穩定性。


問題 2 (中級)

------------------------------

題目: 考慮一個輸入影像尺寸為 64x64,使用一個卷積層 (kernel size = 3x3, stride = 1, padding = 'same') 後,再接一個 Max Pooling 層 (pool size = 2x2, stride = 2)。請問最終的輸出特徵圖尺寸為何?

選項:

A) 64x64

B) 32x32

C) 31x31

D) 16x16


答案: B) 32x32

解析: 首先,卷積層使用 'same' padding 且 stride=1,所以輸出尺寸與輸入尺寸相同,仍為 64x64。接著,Max Pooling 層使用 pool size = 2x2 且 stride = 2,其輸出尺寸計算公式為 (Input_size - Pool_size) / Stride + 1。因此,(64 - 2) / 2 + 1 = 31 + 1 = 32。所以輸出尺寸為 32x32。


問題 3 (中級)

------------------------------

題目: 在物件偵測中,為何 mAP (mean Average Precision) 通常比單純的 Accuracy 更能全面評估模型效能?

選項:

A) Accuracy只關注分類正確性,mAP則考慮了模型訓練的速度。

B) mAP考量了邊界框的精確度 (透過IoU) 和不同召回率下的精確率,而Accuracy僅判斷圖片中是否有目標。

C) Accuracy適用於所有影像任務,mAP僅適用於單一物件的偵測。

D) mAP可以直接計算模型的參數數量,Accuracy不能。


答案: B) mAP考量了邊界框的精確度 (透過IoU) 和不同召回率下的精確率,而Accuracy僅判斷圖片中是否有目標。

解析: mAP是一種綜合性指標,它不僅考慮了物件的分類正確性,還通過IoU來衡量預測邊界框的準確度,並進一步計算不同召回率閾值下的精確率,最後對所有類別取平均。這使得mAP能更全面地反映物件偵測模型在定位和分類上的表現。單純的Accuracy則無法捕捉定位的精確度問題,且在物件偵測任務中,通常會有多個物件,或背景遠大於物件,Accuracy會失真。


問題 4 (中級)

------------------------------

題目: 以下哪種CNN架構,主要透過引入「殘差區塊 (Residual Block)」來解決深度神經網路中的梯度消失問題,從而實現了極深的網路訓練?

選項:

A) LeNet-5

B) VGGNet

C) ResNet

D) AlexNet


答案: C) ResNet

解析: ResNet (Residual Network) 的核心創新是引入了殘差區塊,允許訊息跳過某些層直接傳遞到更深層次,有效解決了深度網路訓練時梯度消失和網路退化問題,使得模型可以達到數百層的深度。


問題 5 (中級)

------------------------------

題目: 一位AI應用規劃師在規劃智慧工廠的瑕疵檢測系統時,發現瑕疵樣本數量極少。若直接使用準確度 (Accuracy) 作為模型評估指標,可能會有什麼問題?

選項:

A) 準確度指標計算複雜,不適合即時監控。

B) 即使模型將所有產品都判斷為「無瑕疵」,準確度也可能很高,但模型會漏掉大量真瑕疵。

C) 準確度無法提供模型的執行速度資訊。

D) 準確度容易受到網路傳輸延遲的影響。


答案: B) 即使模型將所有產品都判斷為「無瑕疵」,準確度也可能很高,但模型會漏掉大量真瑕疵。

解析: 當類別分佈不平衡時(如瑕疵樣本極少),模型即使將所有樣本都判斷為數量佔優勢的「無瑕疵」類別,也能達到很高的準確度。然而,這會導致對關鍵的「瑕疵」類別的召回率(Recall)極低,意味著大量瑕疵被漏檢,這在瑕疵檢測場景是不可接受的。因此,在類別不平衡情況下,精確率、召回率、F1-分數或混淆矩陣是更合適的評估指標。


問題 6 (中級)

------------------------------

題目: IoU (Intersection over Union) 數值通常介於0到1之間,當IoU為0.5時,表示什麼?

選項:

A) 預測框與真實框沒有任何重疊。

B) 預測框與真實框完全重疊。

C) 預測框與真實框的交集面積是聯集面積的一半。

D) 模型預測的準確度為50%。


答案: C) 預測框與真實框的交集面積是聯集面積的一半。

解析: IoU是交集面積除以聯集面積。當IoU為0.5時,表示預測框與真實框的交集面積正好是它們聯集面積的一半。這是常用的一個閾值,用來判斷一個預測框是否足夠「好」或「正確」。


問題 7 (中級)

------------------------------

題目: 比較 YOLO (You Only Look Once) 和 Faster R-CNN,下列哪一項關於它們的描述是正確的?

選項:

A) YOLO 是兩階段偵測器,Faster R-CNN 是單階段偵測器。

B) Faster R-CNN 通常比 YOLO 速度更快,但精度較低。

C) YOLO 直接在單次前向傳播中完成邊界框預測和分類,而 Faster R-CNN 則需要區域提案網路。

D) 兩者在實例分割任務上表現相當。


答案: C) YOLO 直接在單次前向傳播中完成邊界框預測和分類,而 Faster R-CNN 則需要區域提案網路。

解析: YOLO是典型的單階段偵測器,強調速度;Faster R-CNN是兩階段偵測器,通過RPN生成區域提案,通常精度較高但速度較慢。因此選項C正確。選項A和B顛倒了兩者的特性,選項D兩者都不是專為實例分割設計的,Mask R-CNN才是。


問題 8 (中級)

------------------------------

題目: 在處理影像資料時,哪些CNN層具有降低維度、減少計算量、並提高模型對輸入影像平移不變性 (Translation Invariance) 的功能?

選項:

A) 卷積層 (Convolutional Layer)

B) 激活函數層 (Activation Function Layer)

C) 池化層 (Pooling Layer)

D) 全連接層 (Fully Connected Layer)


答案: C) 池化層 (Pooling Layer)

解析: 池化層(特別是Max Pooling)通過在局部區域內選擇最大值或計算平均值來進行下採樣,這不僅降低了特徵圖的維度,減少了後續層的計算量,也使得模型對輸入圖像中物體位置的輕微移動具有一定的魯棒性,即平移不變性。


問題 9 (中級)

------------------------------

題目: 一位醫學影像分析師希望利用AI模型精確找出腦部MRI影像中的腫瘤區域,並區分不同病患的腫瘤個體。他應該選擇哪種影像分割技術?

選項:

A) 物件偵測 (Object Detection)

B) 語義分割 (Semantic Segmentation)

C) 實例分割 (Instance Segmentation)

D) 影像分類 (Image Classification)


答案: C) 實例分割 (Instance Segmentation)

解析: 影像分類只能判斷影像中是否有腫瘤。語義分割能識別所有腫瘤的像素區域,但不會區分不同病患或不同個體的腫瘤。實例分割則能在像素級別上區分並標識出每個獨立的腫瘤實例,這對於需要精確量化和追蹤不同病患腫瘤的醫學應用至關重要。物件偵測僅能用邊界框框出腫瘤,不夠精確。


問題 10 (中級)

------------------------------

題目: 在物件偵測模型中,當Precision-Recall曲線下的面積 (AP) 越大,這代表什麼?

選項:

A) 模型的訓練速度越快。

B) 模型在不同召回率水平下都能保持較高的精確率,綜合性能越好。

C) 模型所需的計算資源越多。

D) 模型的過擬合問題越嚴重。


答案: B) 模型在不同召回率水平下都能保持較高的精確率,綜合性能越好。

解析: AP (Average Precision) 是Precision-Recall曲線下的面積,它綜合反映了模型在不同召回率閾值下的精確率表現。AP值越大,表示模型在召回更多真實目標的同時,其預測的精確率也能維持在較高水平,因此代表模型的綜合性能越好。

留言
avatar-img
留言分享你的想法!
avatar-img
iPAS AI 自學路
25會員
70內容數
我是一位正在追求職涯升級的 40 歲非本科系上班族。我會將自己摸索出的高效白話筆記與聽覺學習法無私分享,助你:克服術語障礙、利用零碎時間學習、系統化整理考點。 也歡迎到我的頻道逛逛https://www.youtube.com/@ipasstudybuddy
iPAS AI 自學路的其他內容
2025/10/16
建議先看完影片在做題目,效果加倍https://youtu.be/wgPvMB4anV8
2025/10/16
建議先看完影片在做題目,效果加倍https://youtu.be/wgPvMB4anV8
2025/10/16
建議先看完影片在做題目,效果加倍https://youtu.be/FP8g2kFMTOo
2025/10/16
建議先看完影片在做題目,效果加倍https://youtu.be/FP8g2kFMTOo
2025/10/16
建議先看完影片再考,成效更好https://youtu.be/LeaacbEw6Fc
2025/10/16
建議先看完影片再考,成效更好https://youtu.be/LeaacbEw6Fc
看更多
你可能也想看
Thumbnail
作者分享自己曾在蝦皮購買的好物,與介紹蝦皮雙12購物節的優惠活動,以及自己打算入手的商品,也詳細說明如何透過「蝦皮分潤計畫」創造額外的被動收入,鼓勵讀者一同參與。
Thumbnail
作者分享自己曾在蝦皮購買的好物,與介紹蝦皮雙12購物節的優惠活動,以及自己打算入手的商品,也詳細說明如何透過「蝦皮分潤計畫」創造額外的被動收入,鼓勵讀者一同參與。
Thumbnail
交換禮物總是讓人又愛又怕?Ruby整理蝦皮500元內必買清單,從養生茶包、心靈牌卡到可愛環保杯、公益零錢包,送禮自用兩相宜。同時分享「蝦皮分潤計畫」教學,購買好物的同時還能賺零用錢,雙12購物攻略一次看!
Thumbnail
交換禮物總是讓人又愛又怕?Ruby整理蝦皮500元內必買清單,從養生茶包、心靈牌卡到可愛環保杯、公益零錢包,送禮自用兩相宜。同時分享「蝦皮分潤計畫」教學,購買好物的同時還能賺零用錢,雙12購物攻略一次看!
Thumbnail
冬天到了,又到了我最愛窩在家網購的季節!從原本對網拍沒興趣,到現在成為蝦皮的忠實用戶,這個轉變連我自己都覺得有趣。這次趁著蝦皮雙12活動,想跟大家分享我最近入手的冬季養生好物——艾灸罐,還有其他實用的生活小物。文末也會介紹蝦皮分潤計畫,讓常網購的你,也能把購物經驗變成額外收入!
Thumbnail
冬天到了,又到了我最愛窩在家網購的季節!從原本對網拍沒興趣,到現在成為蝦皮的忠實用戶,這個轉變連我自己都覺得有趣。這次趁著蝦皮雙12活動,想跟大家分享我最近入手的冬季養生好物——艾灸罐,還有其他實用的生活小物。文末也會介紹蝦皮分潤計畫,讓常網購的你,也能把購物經驗變成額外收入!
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
前言 讀了許多理論,是時候實際動手做做看了,以下是我的模型訓練初體驗,有點糟就是了XD。 正文 def conv(filters, kernel_size, strides=1): return Conv2D(filters, kernel_size,
Thumbnail
前言 讀了許多理論,是時候實際動手做做看了,以下是我的模型訓練初體驗,有點糟就是了XD。 正文 def conv(filters, kernel_size, strides=1): return Conv2D(filters, kernel_size,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 接著來談 Transformer 架構中的 Feedforward Network (FFN): 其為全連接的神經網路架構 回顧 AI說書 - 從0開始 - 64
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 接著來談 Transformer 架構中的 Feedforward Network (FFN): 其為全連接的神經網路架構 回顧 AI說書 - 從0開始 - 64
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 講完 Transformer 之 Encoder 架構中的 Embedding 與 Positional Encoding 部分,現在進入 Multi-Head Att
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 講完 Transformer 之 Encoder 架構中的 Embedding 與 Positional Encoding 部分,現在進入 Multi-Head Att
Thumbnail
高中數學主題練習—分點計算
Thumbnail
高中數學主題練習—分點計算
Thumbnail
高中數學主題練習—根式化簡
Thumbnail
高中數學主題練習—根式化簡
Thumbnail
高中數學主題練習—根式化簡
Thumbnail
高中數學主題練習—根式化簡
Thumbnail
Leetcode 精選75題 題目與題解 熱門考點 目錄 (持續更新中) 建議從左側目錄 或者 按Ctrl+F輸入關鍵字進行搜尋
Thumbnail
Leetcode 精選75題 題目與題解 熱門考點 目錄 (持續更新中) 建議從左側目錄 或者 按Ctrl+F輸入關鍵字進行搜尋
Thumbnail
高中數學主題練習—平面向量內積計算 解答:
Thumbnail
高中數學主題練習—平面向量內積計算 解答:
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News