29/100 深度學習回歸(ANN 回歸) 🤖 神經網路也可以做回歸,適用於複雜數據!

更新 發佈閱讀 5 分鐘

AI時代系列(1) 機器學習三部曲: 🔹 第一部:《機器學習 —— AI 智慧的啟航》


29/100 第三週:監督學習(回歸)


29. 深度學習回歸(ANN 回歸) 🤖 神經網路也可以做回歸,適用於複雜數據!


📌 1️⃣ 什麼是 ANN 回歸?


人工神經網絡(Artificial Neural Network, ANN)回歸,是一種基於人腦神經元結構靈感所設計的回歸模型。


它不僅能夠處理分類問題,對於「連續數值預測」的回歸任務同樣表現出色。

尤其當數據集非常龐大、複雜或維度很高時,ANN 回歸能自動學習數據中的隱藏模式,進而做出準確預測。


簡單來說:


如果數據複雜且包含非線性關係,ANN 回歸是非常值得考慮的選擇!

________________________________________


📌 2️⃣ ANN 回歸的基本架構


ANN 模型主要由以下幾層組成:


輸入層:接收原始數據特徵(例如:房屋面積、年齡、收入等)。

隱藏層:多層非線性變換,通過大量神經元和激活函數學習數據中的複雜模式。

輸出層:輸出預測值(對於回歸問題,通常是一個連續數值)。


圖解結構如下:


特徵 X1, X2, ..., Xn

[輸入層]

[隱藏層 1]

[隱藏層 2]

...

[輸出層]

預測結果 ŷ

________________________________________


📌 3️⃣ 為什麼選擇 ANN 做回歸?


ANN 回歸具備多項優勢,首先,它能有效處理高維度與非線性數據,特別適合複雜結構的預測任務;其次,ANN 模型具備自動特徵學習的能力,無需依賴人工設計特徵,便能自動挖掘數據中的有效模式;此外,在大數據環境下,ANN 擁有優異的泛化能力,能夠降低對單一模式的過度依賴,提升模型對未知數據的預測準確性。


❗ 訓練成本 訓練時間較長,需要較強的硬體資源(如 GPU)

❗ 數據需求量 數據量不足時容易過擬合,需要較多數據支持

________________________________________


📌 4️⃣ ANN 回歸的數學原理(簡化版)


對於回歸任務,ANN 的數學表達可以理解為:


(1) y=f(Wx+b)


其中:


W:權重矩陣

x:輸入特徵向量

b:偏差(Bias)

f:激活函數(如 ReLU, Tanh 等)


(2) 多層堆疊後:


輸入數據會依序經過多層隱藏層的變換。每一層都會進行一次「加權計算」(權重乘上輸入,再加上偏差),接著通過一個非線性的激活函數,再傳遞到下一層。這樣一層層疊加,最終輸出一個預測值。


簡單來說,就是:


輸入特徵 → 每層:加權 + 偏差 + 激活函數 → 最後輸出預測結果 y^


(3) LOSS損失函數計算:


預測出來的 y^和實際的正確答案𝑦做比較。


用 均方誤差 (MSE) 來計算兩者之間的平均差距:


意思是,把每一筆預測的誤差「平方」後,再「平均」,得到整體的誤差程度。


(4) 模型優化:


我們的目標是讓這個 Loss 數值越小越好。


模型會根據這個 Loss 自動調整每一層的權重 𝑊和偏差 𝑏,讓預測結果越來越接近正確答案。


🎯 一句話總結:

「神經網路回歸就是:多層計算得到預測值,然後用均方誤差計算預測與實際的差距,再不斷調整參數來降低誤差,提升預測準確度!」


​🌟小比喻


ANN 回歸就像是一場樂團演奏,透過一層層樂器調音和不斷微調,最終奏出最接近原曲的美妙樂章!

________________________________________


📌 5️⃣ 實務應用場景


ANN 回歸廣泛應用於多種需要高精度預測的場景,例如:

房價預測 🏠

股票價格預測 📈

氣溫或氣象變化預測 🌡️

工業製程參數優化 🏭

能源消耗預測 ⚡

________________________________________


📌 6️⃣ 小結一句話


當數據關係複雜又想提升預測精度時,ANN 回歸是值得投入的強大工具!



留言
avatar-img
艾韓思 AIHANS|AI 應用工程筆記
33會員
669內容數
AIHANS沙龍是一個結合AI技術實戰、產業策略與自我成長的知識平台,主題涵蓋機器學習、生成式AI、創業經驗、財務規劃及哲學思辨。這裡不只提供系統化學習資源與實作案例,更強調理性思維與行動力的結合。無論你是AI初學者、創業者,還是追求人生升維的行者,都能在這裡找到前進的方向與志同道合的夥伴。
2025/05/27
XGBoost 回歸結合梯度提升與正則化,能在大數據與複雜非線性場景中迅速產生高精度預測,MSE 明顯低於單棵樹或隨機森林;內建缺失值處理與並行運算讓訓練速度飛快,同時抑制過擬合。若你追求 Kaggle 等級的冠軍效能,又需要可解釋且易部署的模型,XGBoost 是目前性價比最高、最可靠的選擇。
Thumbnail
2025/05/27
XGBoost 回歸結合梯度提升與正則化,能在大數據與複雜非線性場景中迅速產生高精度預測,MSE 明顯低於單棵樹或隨機森林;內建缺失值處理與並行運算讓訓練速度飛快,同時抑制過擬合。若你追求 Kaggle 等級的冠軍效能,又需要可解釋且易部署的模型,XGBoost 是目前性價比最高、最可靠的選擇。
Thumbnail
2025/05/27
貝葉斯回歸以機率分佈估計權重,即使樣本少、噪聲大也能穩健預測,並提供參數與結果的不確定性量化;若你想在醫療、金融等高風險場景掌握「可信度」而不僅是點估計,Bayesian Regression 是低樣本、高信賴的最佳選擇。
Thumbnail
2025/05/27
貝葉斯回歸以機率分佈估計權重,即使樣本少、噪聲大也能穩健預測,並提供參數與結果的不確定性量化;若你想在醫療、金融等高風險場景掌握「可信度」而不僅是點估計,Bayesian Regression 是低樣本、高信賴的最佳選擇。
Thumbnail
2025/05/27
支援向量回歸(SVR)透過「ε 容忍管」忽略微小誤差,再以最大間隔尋找最平滑超平面,能優雅擬合高度非線性資料。搭配 RBF 內核,不需大量特徵工程即可大幅降低 MSE、提升 R²,且對離群點更具韌性。若想在中小型複雜數據集獲得精準回歸,SVR 絕對是高 CP 值選擇。
Thumbnail
2025/05/27
支援向量回歸(SVR)透過「ε 容忍管」忽略微小誤差,再以最大間隔尋找最平滑超平面,能優雅擬合高度非線性資料。搭配 RBF 內核,不需大量特徵工程即可大幅降低 MSE、提升 R²,且對離群點更具韌性。若想在中小型複雜數據集獲得精準回歸,SVR 絕對是高 CP 值選擇。
Thumbnail
看更多
你可能也想看
Thumbnail
在 vocus 與你一起探索內容、發掘靈感的路上,我們又將啟動新的冒險——vocus App 正式推出! 現在起,你可以在 iOS App Store 下載全新上架的 vocus App。 無論是在通勤路上、日常空檔,或一天結束後的放鬆時刻,都能自在沈浸在內容宇宙中。
Thumbnail
在 vocus 與你一起探索內容、發掘靈感的路上,我們又將啟動新的冒險——vocus App 正式推出! 現在起,你可以在 iOS App Store 下載全新上架的 vocus App。 無論是在通勤路上、日常空檔,或一天結束後的放鬆時刻,都能自在沈浸在內容宇宙中。
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 76 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 76 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 75 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 75 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 接著來談 Transformer 架構中的 Feedforward Network (FFN): 其為全連接的神經網路架構 回顧 AI說書 - 從0開始 - 64
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 接著來談 Transformer 架構中的 Feedforward Network (FFN): 其為全連接的神經網路架構 回顧 AI說書 - 從0開始 - 64
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 首先先展示 Transformer 的架構圖: 可以看到架構中不再出現 RNN 、 LSTM 、 CNN 等物件,因為 Recurrence 已被摒棄。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 首先先展示 Transformer 的架構圖: 可以看到架構中不再出現 RNN 、 LSTM 、 CNN 等物件,因為 Recurrence 已被摒棄。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News