29/100 深度學習回歸(ANN 回歸) 🤖 神經網路也可以做回歸,適用於複雜數據!

更新於 發佈於 閱讀時間約 5 分鐘

AI時代系列(1) 機器學習三部曲: 🔹 第一部:《機器學習 —— AI 智慧的啟航》


29/100 第三週:監督學習(回歸)


29. 深度學習回歸(ANN 回歸) 🤖 神經網路也可以做回歸,適用於複雜數據!


📌 1️⃣ 什麼是 ANN 回歸?


人工神經網絡(Artificial Neural Network, ANN)回歸,是一種基於人腦神經元結構靈感所設計的回歸模型。


它不僅能夠處理分類問題,對於「連續數值預測」的回歸任務同樣表現出色。

尤其當數據集非常龐大、複雜或維度很高時,ANN 回歸能自動學習數據中的隱藏模式,進而做出準確預測。


簡單來說:


如果數據複雜且包含非線性關係,ANN 回歸是非常值得考慮的選擇!

________________________________________


📌 2️⃣ ANN 回歸的基本架構


ANN 模型主要由以下幾層組成:


輸入層:接收原始數據特徵(例如:房屋面積、年齡、收入等)。

隱藏層:多層非線性變換,通過大量神經元和激活函數學習數據中的複雜模式。

輸出層:輸出預測值(對於回歸問題,通常是一個連續數值)。


圖解結構如下:


特徵 X1, X2, ..., Xn

[輸入層]

[隱藏層 1]

[隱藏層 2]

...

[輸出層]

預測結果 ŷ

________________________________________


📌 3️⃣ 為什麼選擇 ANN 做回歸?


ANN 回歸具備多項優勢,首先,它能有效處理高維度與非線性數據,特別適合複雜結構的預測任務;其次,ANN 模型具備自動特徵學習的能力,無需依賴人工設計特徵,便能自動挖掘數據中的有效模式;此外,在大數據環境下,ANN 擁有優異的泛化能力,能夠降低對單一模式的過度依賴,提升模型對未知數據的預測準確性。


❗ 訓練成本 訓練時間較長,需要較強的硬體資源(如 GPU)

❗ 數據需求量 數據量不足時容易過擬合,需要較多數據支持

________________________________________


📌 4️⃣ ANN 回歸的數學原理(簡化版)


對於回歸任務,ANN 的數學表達可以理解為:


(1) y=f(Wx+b)


其中:


W:權重矩陣

x:輸入特徵向量

b:偏差(Bias)

f:激活函數(如 ReLU, Tanh 等)


(2) 多層堆疊後:


輸入數據會依序經過多層隱藏層的變換。每一層都會進行一次「加權計算」(權重乘上輸入,再加上偏差),接著通過一個非線性的激活函數,再傳遞到下一層。這樣一層層疊加,最終輸出一個預測值。


簡單來說,就是:


輸入特徵 → 每層:加權 + 偏差 + 激活函數 → 最後輸出預測結果 y^


(3) LOSS損失函數計算:


預測出來的 y^和實際的正確答案𝑦做比較。


用 均方誤差 (MSE) 來計算兩者之間的平均差距:


意思是,把每一筆預測的誤差「平方」後,再「平均」,得到整體的誤差程度。


(4) 模型優化:


我們的目標是讓這個 Loss 數值越小越好。


模型會根據這個 Loss 自動調整每一層的權重 𝑊和偏差 𝑏,讓預測結果越來越接近正確答案。


🎯 一句話總結:

「神經網路回歸就是:多層計算得到預測值,然後用均方誤差計算預測與實際的差距,再不斷調整參數來降低誤差,提升預測準確度!」


​🌟小比喻


ANN 回歸就像是一場樂團演奏,透過一層層樂器調音和不斷微調,最終奏出最接近原曲的美妙樂章!

________________________________________


📌 5️⃣ 實務應用場景


ANN 回歸廣泛應用於多種需要高精度預測的場景,例如:

房價預測 🏠

股票價格預測 📈

氣溫或氣象變化預測 🌡️

工業製程參數優化 🏭

能源消耗預測 ⚡

________________________________________


📌 6️⃣ 小結一句話


當數據關係複雜又想提升預測精度時,ANN 回歸是值得投入的強大工具!



留言
avatar-img
留言分享你的想法!
avatar-img
Hansen W的沙龍
3會員
106內容數
AIHANS沙龍是一個結合AI技術實戰、產業策略與自我成長的知識平台,主題涵蓋機器學習、生成式AI、創業經驗、財務規劃及哲學思辨。這裡不只提供系統化學習資源與實作案例,更強調理性思維與行動力的結合。無論你是AI初學者、創業者,還是追求人生升維的行者,都能在這裡找到前進的方向與志同道合的夥伴。
Hansen W的沙龍的其他內容
2025/05/27
XGBoost 回歸結合梯度提升與正則化,能在大數據與複雜非線性場景中迅速產生高精度預測,MSE 明顯低於單棵樹或隨機森林;內建缺失值處理與並行運算讓訓練速度飛快,同時抑制過擬合。若你追求 Kaggle 等級的冠軍效能,又需要可解釋且易部署的模型,XGBoost 是目前性價比最高、最可靠的選擇。
Thumbnail
2025/05/27
XGBoost 回歸結合梯度提升與正則化,能在大數據與複雜非線性場景中迅速產生高精度預測,MSE 明顯低於單棵樹或隨機森林;內建缺失值處理與並行運算讓訓練速度飛快,同時抑制過擬合。若你追求 Kaggle 等級的冠軍效能,又需要可解釋且易部署的模型,XGBoost 是目前性價比最高、最可靠的選擇。
Thumbnail
2025/05/27
貝葉斯回歸以機率分佈估計權重,即使樣本少、噪聲大也能穩健預測,並提供參數與結果的不確定性量化;若你想在醫療、金融等高風險場景掌握「可信度」而不僅是點估計,Bayesian Regression 是低樣本、高信賴的最佳選擇。
Thumbnail
2025/05/27
貝葉斯回歸以機率分佈估計權重,即使樣本少、噪聲大也能穩健預測,並提供參數與結果的不確定性量化;若你想在醫療、金融等高風險場景掌握「可信度」而不僅是點估計,Bayesian Regression 是低樣本、高信賴的最佳選擇。
Thumbnail
2025/05/27
支援向量回歸(SVR)透過「ε 容忍管」忽略微小誤差,再以最大間隔尋找最平滑超平面,能優雅擬合高度非線性資料。搭配 RBF 內核,不需大量特徵工程即可大幅降低 MSE、提升 R²,且對離群點更具韌性。若想在中小型複雜數據集獲得精準回歸,SVR 絕對是高 CP 值選擇。
Thumbnail
2025/05/27
支援向量回歸(SVR)透過「ε 容忍管」忽略微小誤差,再以最大間隔尋找最平滑超平面,能優雅擬合高度非線性資料。搭配 RBF 內核,不需大量特徵工程即可大幅降低 MSE、提升 R²,且對離群點更具韌性。若想在中小型複雜數據集獲得精準回歸,SVR 絕對是高 CP 值選擇。
Thumbnail
看更多
你可能也想看
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
全球科技產業的焦點,AKA 全村的希望 NVIDIA,於五月底正式發布了他們在今年 2025 第一季的財報 (輝達內部財務年度為 2026 Q1,實際日曆期間為今年二到四月),交出了打敗了市場預期的成績單。然而,在銷售持續高速成長的同時,川普政府加大對於中國的晶片管制......
Thumbnail
全球科技產業的焦點,AKA 全村的希望 NVIDIA,於五月底正式發布了他們在今年 2025 第一季的財報 (輝達內部財務年度為 2026 Q1,實際日曆期間為今年二到四月),交出了打敗了市場預期的成績單。然而,在銷售持續高速成長的同時,川普政府加大對於中國的晶片管制......
Thumbnail
重點摘要: 6 月繼續維持基準利率不變,強調維持高利率主因為關稅 點陣圖表現略為鷹派,收斂 2026、2027 年降息預期 SEP 連續 2 季下修 GDP、上修通膨預測值 --- 1.繼續維持利率不變,強調需要維持高利率是因為關稅: 聯準會 (Fed) 召開 6 月利率會議
Thumbnail
重點摘要: 6 月繼續維持基準利率不變,強調維持高利率主因為關稅 點陣圖表現略為鷹派,收斂 2026、2027 年降息預期 SEP 連續 2 季下修 GDP、上修通膨預測值 --- 1.繼續維持利率不變,強調需要維持高利率是因為關稅: 聯準會 (Fed) 召開 6 月利率會議
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 76 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 76 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 75 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 75 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 接著來談 Transformer 架構中的 Feedforward Network (FFN): 其為全連接的神經網路架構 回顧 AI說書 - 從0開始 - 64
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 接著來談 Transformer 架構中的 Feedforward Network (FFN): 其為全連接的神經網路架構 回顧 AI說書 - 從0開始 - 64
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News