資料增強 (Data Augmentation)

更新 發佈閱讀 5 分鐘

資料增強 (Data Augmentation) 是一種在機器學習和深度學習中常用的提高模型泛化能力和魯棒性的技術。它的核心思想是通過對現有的訓練數據進行隨機的、合理的變換,生成更多樣化的訓練樣本。這樣做的目的是讓模型在訓練過程中接觸到更多不同的數據變異情況,從而減少過擬合的風險,並提升模型在未見過的新數據上的表現。

為什麼需要資料增強?

  • 擴充有限的數據集: 在很多實際應用中,獲取大量的標註數據非常困難且昂貴。資料增強可以有效地擴充有限的訓練數據集,增加模型的訓練樣本數量。
  • 提高模型的泛化能力: 通過引入各種數據變異,模型可以學會識別物體或模式在不同條件下的表現,從而減少對特定訓練數據的過度依賴,提高在真實世界數據上的泛化能力。
  • 增強模型的魯棒性: 資料增強可以幫助模型對輸入數據中的微小變化(例如:光照、角度、尺度變化)更加魯棒。
  • 減少過擬合: 過擬合是指模型在訓練數據上表現非常好,但在測試數據或新數據上的表現很差。資料增強可以有效地幫助模型學習更具代表性的特徵,從而降低過擬合的風險。

常見的資料增強技術(以圖像數據為例,因為之前的討論都集中在電腦視覺):

  • 幾何變換 (Geometric Transformations):
    • 翻轉 (Flipping): 水平翻轉、垂直翻轉。
    • 旋轉 (Rotation): 將圖像按一定角度(例如:±10度、±30度)旋轉。
    • 縮放 (Scaling): 放大或縮小圖像。
    • 裁剪 (Cropping): 從圖像中隨機裁剪出一部分區域,並將其調整到原始尺寸。
    • 平移 (Translation): 在圖像平面上沿水平或垂直方向移動圖像。
    • 透視變換 (Perspective Transformation): 改變圖像的視角。
  • 色彩空間變換 (Color Space Transformations):
    • 亮度調整 (Brightness Adjustment): 增加或減少圖像的亮度。
    • 對比度調整 (Contrast Adjustment): 調整圖像中不同區域之間的對比度。
    • 飽和度調整 (Saturation Adjustment): 調整圖像的色彩飽和度。
    • 色調調整 (Hue Adjustment): 改變圖像的整體顏色色調。
    • 通道混合 (Channel Shuffling): 隨機交換圖像的不同顏色通道(例如:RGB)。
  • 核方法 (Kernel Methods) / 濾波器 (Filters):
    • 模糊 (Blurring): 應用高斯模糊或其他模糊濾鏡。
    • 銳化 (Sharpening): 增強圖像的邊緣和細節。
  • 隨機雜訊 (Random Noise):
    • 高斯雜訊 (Gaussian Noise): 向圖像像素添加服從高斯分佈的隨機雜訊。
    • 椒鹽雜訊 (Salt and Pepper Noise): 隨機將一些像素設置為白色或黑色。
  • 混合 (Mixing):
    • Mixup: 將兩張隨機選擇的訓練圖像按一定比例混合,同時也混合它們的標籤。
    • CutMix: 從訓練圖像中隨機裁剪一個區域,並用另一張訓練圖像的相同區域替換,標籤也按裁剪區域的比例進行混合。
  • 生成對抗網路 (GAN) 的應用:
    • 有時會使用訓練好的 GAN 模型來生成更多逼真的訓練樣本。

注意事項:

  • 保持標籤一致性: 在進行資料增強時,需要確保圖像的標籤與變換後的圖像仍然對應。例如,如果水平翻轉了一張包含貓的圖像,其標籤仍然應該是「貓」。
  • 增強的合理性: 進行的增強應該是合理的,即變換後的圖像仍然屬於真實數據的分布範圍內。例如,對於手寫數字識別,將數字旋轉 180 度可能不再是同一個數字了。
  • 增強的強度: 資料增強的強度需要仔細調整,過度的增強可能會引入與真實數據不符的樣本,反而降低模型性能。
  • 測試集不進行增強: 資料增強通常只應用於訓練集,以擴充訓練數據並提高模型的泛化能力。測試集應該保持原始狀態,以評估模型在真實未見過數據上的性能。

總之,資料增強是一種強大且常用的技術,可以有效地提高深度學習模型的性能,尤其是在數據量有限的情況下。通過創造更多樣化的訓練數據,模型可以學習到更穩健的特徵,並在實際應用中表現得更好。

留言
avatar-img
留言分享你的想法!
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
31會員
536內容數
現職 : 富邦建設資訊副理 證照:經濟部 iPAS AI應用規劃師 初級+中級(數據分析) AWS Certified AI Practitioner (AIF-C01) 其他:富邦美術館志工
2025/05/27
模型壓縮與加速是為了讓已經訓練好的深度學習模型在資源受限的環境中(例如:手機、嵌入式設備、邊緣計算設備)能夠更高效地運行而採取的一系列技術和方法。這些技術旨在減小模型的大小、降低計算複雜度,並加快模型的推理速度,同時盡可能地保持模型的準確性。 為什麼需要模型壓縮與加速? 資源限制: 許多應用場景
2025/05/27
模型壓縮與加速是為了讓已經訓練好的深度學習模型在資源受限的環境中(例如:手機、嵌入式設備、邊緣計算設備)能夠更高效地運行而採取的一系列技術和方法。這些技術旨在減小模型的大小、降低計算複雜度,並加快模型的推理速度,同時盡可能地保持模型的準確性。 為什麼需要模型壓縮與加速? 資源限制: 許多應用場景
2025/05/27
圖像分割模型是一種電腦視覺模型,旨在將圖像中的每個像素分配到一個特定的類別或區域。與物件偵測模型(識別物體並用邊界框標示)不同,圖像分割模型提供的是像素級別的精細化理解,能夠精確地劃分出圖像中每個物體的輪廓和範圍。 圖像分割的目標是為圖像中的每個像素都貼上一個標籤,表明該像素屬於哪個類別。這使得我
2025/05/27
圖像分割模型是一種電腦視覺模型,旨在將圖像中的每個像素分配到一個特定的類別或區域。與物件偵測模型(識別物體並用邊界框標示)不同,圖像分割模型提供的是像素級別的精細化理解,能夠精確地劃分出圖像中每個物體的輪廓和範圍。 圖像分割的目標是為圖像中的每個像素都貼上一個標籤,表明該像素屬於哪個類別。這使得我
2025/05/27
物件偵測模型是一種電腦視覺模型,旨在識別圖像或影片中特定物體的位置並將其標示出來。與圖像分類模型(只判斷圖像中是否存在某類物體)不同,物件偵測模型能夠輸出圖像中每個被偵測到的物體的邊界框 (Bounding Box) 和該物體屬於哪個類別的資訊。 以下是關於物件偵測模型的幾個關鍵方面: 主要目標
2025/05/27
物件偵測模型是一種電腦視覺模型,旨在識別圖像或影片中特定物體的位置並將其標示出來。與圖像分類模型(只判斷圖像中是否存在某類物體)不同,物件偵測模型能夠輸出圖像中每個被偵測到的物體的邊界框 (Bounding Box) 和該物體屬於哪個類別的資訊。 以下是關於物件偵測模型的幾個關鍵方面: 主要目標
看更多
你可能也想看
Thumbnail
有些購物,是衝動;但也有一些,是陪了我一年、默默在生活角落發光的小確幸。
Thumbnail
有些購物,是衝動;但也有一些,是陪了我一年、默默在生活角落發光的小確幸。
Thumbnail
現在蝦皮雙12活動開跑,不但全站 $99 起免運,而且品牌熱銷6折起, 而不用說還有刷卡回饋12%起,以及滿千現折 $200。
Thumbnail
現在蝦皮雙12活動開跑,不但全站 $99 起免運,而且品牌熱銷6折起, 而不用說還有刷卡回饋12%起,以及滿千現折 $200。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 127 中提及: Transformer 的關鍵參數為: 原始 Transformer 模型中,左圖的 N = 6 原始 Tran
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 127 中提及: Transformer 的關鍵參數為: 原始 Transformer 模型中,左圖的 N = 6 原始 Tran
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 77 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 77 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 76 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 76 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 75 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 75 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News