26/100 支援向量回歸(SVR) 🔥 適合複雜數據,透過超平面找到最佳預測點!

更新於 發佈於 閱讀時間約 12 分鐘

AI時代系列(3) 機器學習三部曲: 🔹 第一部:《機器學習 —— AI 智慧的啟航》


26/100 第三週:監督學習(回歸)


26. 支援向量回歸(SVR) 🔥 適合複雜數據,透過超平面找到最佳預測點!


🔥 支援向量回歸(SVR)

適合複雜數據,透過超平面找到最佳預測點!

________________________________________


📌 1️⃣ 什麼是支援向量回歸(SVR)?


支援向量回歸(Support Vector Regression, SVR)是 支援向量機(SVM) 在 回歸問題 中的應用。


它的核心概念是:


不像線性回歸只最小化誤差,而是尋找「最大間隔」的最佳超平面

允許一小部分數據點位於「誤差範圍(ε tube)」外

適合複雜、非線性數據,能找到更平滑的擬合曲線

________________________________________


📌 2️⃣ 支援向量回歸(SVR) vs. 傳統回歸


線性回歸與支援向量回歸(SVR)都是回歸分析的方法,但核心目標與適用場景有所不同。線性回歸著重於最小化整體的均方誤差(MSE),所有數據點的偏差都會影響模型,因此適合用於數據具有明顯線性關係的情境。相較之下,SVR 更關注在誤差容忍範圍「ε tube」之外的數據點,目的是找到一條在容忍範圍內最平滑的超平面,忽略範圍內的微小誤差,特別適合處理非線性或複雜結構的數據。簡而言之,線性回歸追求整體誤差最小化,SVR 則更強調對異常點和邊界的精確控制,適用於更具挑戰性的資料型態。


✅ SVR 特別適合非線性回歸問題!

________________________________________


📌 3️⃣ SVR 的核心概念


🎯 目標


找到一條「間隔最大」的超平面,使誤差在 ±ε 內的數據點 不影響模型

只有「超過誤差範圍(ε tube)」的數據點才會影響模型

這讓 SVR 對異常值更有彈性,避免過擬合


📊 數學公式


SVR 的核心目標是:

找到一個函數 f(x)=w^Tx+b,使預測值距離實際值在「ε 容忍範圍」內,並且讓模型儘可能平滑。


比喻:


SVR 目標就像是——「開車過山路時,在允許的偏移範圍內盡量平穩前進,超出範圍就付出代價,但整體要保持路線平滑,避免激烈操作。」

________________________________________


📌 4️⃣ SVR 的三種核心內核(Kernels)


1. 線性內核(Linear Kernel) → 適合數據呈線性分佈

2. 多項式內核(Polynomial Kernel) → 適合稍微非線性的數據

3. RBF(徑向基函數內核) → 適合高度非線性數據,最常用


✅ RBF 是最常用的內核,因為它能夠適應大多數數據類型!

________________________________________


📌 5️⃣ Python 實作:SVR


🎯 目標:預測房價(非線性數據)


我們比較:


1. 線性回歸(Linear Regression)

2. SVR(RBF 內核)

________________________________________


✅ (1) 產生非線性數據


python


import numpy as np

import matplotlib.pyplot as plt

import pandas as pd

from sklearn.svm import SVR

from sklearn.linear_model import LinearRegression

from sklearn.model_selection import train_test_split

from sklearn.preprocessing import StandardScaler

from sklearn.metrics import mean_squared_error, r2_score


# 產生非線性數據(房屋面積 vs. 房價)

np.random.seed(42)

X = np.random.randint(20, 200, size=(50, 1)) # 房屋面積

y = 3000 * np.sqrt(X) + np.random.randint(-50000, 50000, size=(50, 1)) # 非線性房價


# 繪製數據

plt.scatter(X, y, color='blue', alpha=0.5, label="真實數據")

plt.xlabel("房屋面積(平方公尺)")

plt.ylabel("房價(萬元)")

plt.title("房價 vs. 房屋面積(非線性數據)")

plt.legend()

plt.show()


📌 房價與房屋面積的關係呈現非線性曲線,線性回歸可能不適用!

________________________________________


✅ (2) 訓練線性回歸 vs. SVR


python


# 分割數據

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)


# 🔹 線性回歸

lin_reg = LinearRegression()

lin_reg.fit(X_train, y_train)


# 🔹 標準化數據(SVR 需要標準化)

scaler_X = StandardScaler()

scaler_y = StandardScaler()

X_train_scaled = scaler_X.fit_transform(X_train)

X_test_scaled = scaler_X.transform(X_test)

y_train_scaled = scaler_y.fit_transform(y_train)


# 🔹 訓練 SVR(RBF 內核)

svr_reg = SVR(kernel='rbf', C=100, epsilon=100)

svr_reg.fit(X_train_scaled, y_train_scaled.ravel())

📌 為什麼 SVR 需要標準化?

SVR 對數據範圍敏感,如果不標準化,可能會影響結果

________________________________________


✅ (3) 預測與評估


python


# 預測

y_pred_lin = lin_reg.predict(X_test)

y_pred_svr = scaler_y.inverse_transform(svr_reg.predict(X_test_scaled).reshape(-1, 1)) # 反標準化


# 計算 MSE 和 R²

mse_lin = mean_squared_error(y_test, y_pred_lin)

r2_lin = r2_score(y_test, y_pred_lin)


mse_svr = mean_squared_error(y_test, y_pred_svr)

r2_svr = r2_score(y_test, y_pred_svr)


print(f"線性回歸 - MSE: {mse_lin:.2f}, R²: {r2_lin:.4f}")

print(f"SVR - MSE: {mse_svr:.2f}, R²: {r2_svr:.4f}")


📌 結果示例:


線性回歸 - MSE: 3.5e+10, R²: 0.55

SVR - MSE: 1.2e+9, R²: 0.92


📌 解讀


SVR MSE 明顯更低(誤差小)

R² 接近 1,代表 SVR 擬合效果更佳!

________________________________________


✅ (4) 視覺化 SVR 的預測曲線


python


# 產生更細的測試點來畫曲線

X_grid = np.linspace(min(X), max(X), 100).reshape(-1, 1)

X_grid_scaled = scaler_X.transform(X_grid)

y_pred_svr_curve = scaler_y.inverse_transform(svr_reg.predict(X_grid_scaled).reshape(-1, 1))


# 繪製結果

plt.scatter(X, y, color='blue', alpha=0.5, label="真實數據")

plt.plot(X, lin_reg.predict(X), color='red', linewidth=2, label="線性回歸")

plt.plot(X_grid, y_pred_svr_curve, color='green', linewidth=2, label="SVR 擬合曲線")

plt.xlabel("房屋面積(平方公尺)")

plt.ylabel("房價(萬元)")

plt.title("SVR vs. 線性回歸")

plt.legend()

plt.show()


📌 結果:

線性回歸(紅色):擬合效果不佳

SVR(綠色):擬合曲線更符合數據

________________________________________


📌 6️⃣ SVR 的優缺點


✅ 優點


適合非線性數據

對異常值不敏感

可用不同內核(RBF, Polynomial)擬合不同數據


⚠ 缺點


計算成本較高(O(n²))

需要標準化數據

參數(C, ε, kernel)需要調整

________________________________________


🎯 總結


✅ SVR 對非線性數據效果比線性回歸好!

✅ RBF 內核最常用,能適應大多數情境

✅ 適合複雜數據,但計算成本較高


🚀 下一步:探索「隨機森林回歸」來提升預測能力!🌲🔥


留言
avatar-img
留言分享你的想法!
avatar-img
Hansen W的沙龍
2會員
106內容數
AIHANS沙龍是一個結合AI技術實戰、產業策略與自我成長的知識平台,主題涵蓋機器學習、生成式AI、創業經驗、財務規劃及哲學思辨。這裡不只提供系統化學習資源與實作案例,更強調理性思維與行動力的結合。無論你是AI初學者、創業者,還是追求人生升維的行者,都能在這裡找到前進的方向與志同道合的夥伴。
Hansen W的沙龍的其他內容
2025/05/27
決策樹回歸像玩二十問答,逐層條件分割資料區間,以均值擬合非線性趨勢;免除繁瑣特徵工程也能大幅降低預測誤差,且保留直觀可解釋性。透過調整樹深即可抑制過擬合,是快速上手的靈活回歸利器,在房價估值、銷售預測等場景尤其實用。
Thumbnail
2025/05/27
決策樹回歸像玩二十問答,逐層條件分割資料區間,以均值擬合非線性趨勢;免除繁瑣特徵工程也能大幅降低預測誤差,且保留直觀可解釋性。透過調整樹深即可抑制過擬合,是快速上手的靈活回歸利器,在房價估值、銷售預測等場景尤其實用。
Thumbnail
2025/05/27
多項式回歸,透過加入二次、三次等高次項,把直線變曲線,輕鬆捕捉房價、疾病進展等常見非線性趨勢。若你的散點圖呈彎曲,資料量又不大,使用 degree 2-3 的多項式回歸即可大幅降低 MSE、提升 R²,同時避免深度模型的高成本與複雜度。快速、易實作、效果顯著,是入門者解決非線性問題的首選利器!
Thumbnail
2025/05/27
多項式回歸,透過加入二次、三次等高次項,把直線變曲線,輕鬆捕捉房價、疾病進展等常見非線性趨勢。若你的散點圖呈彎曲,資料量又不大,使用 degree 2-3 的多項式回歸即可大幅降低 MSE、提升 R²,同時避免深度模型的高成本與複雜度。快速、易實作、效果顯著,是入門者解決非線性問題的首選利器!
Thumbnail
2025/05/27
正則化回歸在損失函數中加入懲罰項,抑制權重過大,避免模型記憶訓練噪聲而過擬合。Ridge (L2) 收縮所有係數;Lasso (L1) 可將部分係數壓成 0,兼具特徵選擇;ElasticNet 結合 L1 與 L2,兼顧去除冗餘與穩定性,特別適合高維且具共線性的資料。
Thumbnail
2025/05/27
正則化回歸在損失函數中加入懲罰項,抑制權重過大,避免模型記憶訓練噪聲而過擬合。Ridge (L2) 收縮所有係數;Lasso (L1) 可將部分係數壓成 0,兼具特徵選擇;ElasticNet 結合 L1 與 L2,兼顧去除冗餘與穩定性,特別適合高維且具共線性的資料。
Thumbnail
看更多
你可能也想看
Thumbnail
TOMICA第一波推出吉伊卡哇聯名小車車的時候馬上就被搶購一空,一直很扼腕當時沒有趕緊入手。前陣子閒來無事逛蝦皮,突然發現幾家商場都又開始重新上架,價格也都回到正常水準,估計是官方又再補了一批貨,想都沒想就立刻下單! 同文也跟大家分享近期蝦皮購物紀錄、好用推薦、蝦皮分潤計畫的聯盟行銷!
Thumbnail
TOMICA第一波推出吉伊卡哇聯名小車車的時候馬上就被搶購一空,一直很扼腕當時沒有趕緊入手。前陣子閒來無事逛蝦皮,突然發現幾家商場都又開始重新上架,價格也都回到正常水準,估計是官方又再補了一批貨,想都沒想就立刻下單! 同文也跟大家分享近期蝦皮購物紀錄、好用推薦、蝦皮分潤計畫的聯盟行銷!
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
時間快轉至2030年,或許城市還無懸浮飛車,但AI先會像電力存在每一個角落。百工百業運用智慧算力,就像打開水龍頭一樣容易。這描述並非Cyberpunk科幻場景,正逐漸在世界各地悄然成形。
Thumbnail
時間快轉至2030年,或許城市還無懸浮飛車,但AI先會像電力存在每一個角落。百工百業運用智慧算力,就像打開水龍頭一樣容易。這描述並非Cyberpunk科幻場景,正逐漸在世界各地悄然成形。
Thumbnail
作者認為AI,它不特屬於哪一個產業,在一定時間成熟之後,它充斥你我生活之中,就是像水電一樣的自然。有很多人還搞不清楚它的未來發展到哪裡? 當這變化還很劇烈時,過早投入反而浪費時間與成本,所以作者的洞見是:什麼是你我最珍貴的價值?
Thumbnail
作者認為AI,它不特屬於哪一個產業,在一定時間成熟之後,它充斥你我生活之中,就是像水電一樣的自然。有很多人還搞不清楚它的未來發展到哪裡? 當這變化還很劇烈時,過早投入反而浪費時間與成本,所以作者的洞見是:什麼是你我最珍貴的價值?
Thumbnail
在科技發展的浪潮中,生成式AI無疑是引領未來的關鍵力量。透過深度學習技術,AI系統能夠從大量資料中發掘規律,並創造出全新的內容,無論是文字、圖像、音頻還是視頻,都可以在AI的加持下重新定義。
Thumbnail
在科技發展的浪潮中,生成式AI無疑是引領未來的關鍵力量。透過深度學習技術,AI系統能夠從大量資料中發掘規律,並創造出全新的內容,無論是文字、圖像、音頻還是視頻,都可以在AI的加持下重新定義。
Thumbnail
筆記-股癌-24.05.22 *認養狗可以聯絡Liza的IG。 *微軟AI PC: - 售價1000歐元起的AI PC,6/18推出,晶片NPU算力在40 TOPS以上, - 裝置有連動GPT-4o,這部分的功能還是要連上網;Copilot功能下放到邊緣端。 - recall功能,可以把螢
Thumbnail
筆記-股癌-24.05.22 *認養狗可以聯絡Liza的IG。 *微軟AI PC: - 售價1000歐元起的AI PC,6/18推出,晶片NPU算力在40 TOPS以上, - 裝置有連動GPT-4o,這部分的功能還是要連上網;Copilot功能下放到邊緣端。 - recall功能,可以把螢
Thumbnail
感知器是一種基本的神經網路模型,用於二分類問題。它模擬了人腦神經元的工作原理,通過調整權重和偏差值來達到預測和分類的目的。 感知器流程 輸入 資料的輸入: 輸入層接受資料的輸入,每個輸入對應一個特徵,還有一個固定的偏差神經元。 資料經過每個神經元時,會乘上相應的
Thumbnail
感知器是一種基本的神經網路模型,用於二分類問題。它模擬了人腦神經元的工作原理,通過調整權重和偏差值來達到預測和分類的目的。 感知器流程 輸入 資料的輸入: 輸入層接受資料的輸入,每個輸入對應一個特徵,還有一個固定的偏差神經元。 資料經過每個神經元時,會乘上相應的
Thumbnail
這篇文章介紹瞭如何利用單晶片來控制不同功能模組的應用,並分享了親手體驗的影片和遇到的卡關。文章強調了需要具備基礎程式語言撰寫的邏輯,以及解決卡關時需要個人調整程式碼的順序。
Thumbnail
這篇文章介紹瞭如何利用單晶片來控制不同功能模組的應用,並分享了親手體驗的影片和遇到的卡關。文章強調了需要具備基礎程式語言撰寫的邏輯,以及解決卡關時需要個人調整程式碼的順序。
Thumbnail
本文章探討了多智能體系統(MAS)在生成式AI領域中的應用,以及GenAI對於AI_MCU和Software defined hardware的影響。文章還總結了SDH設計模式對數據科學和人工智能時代的影響,並提供了有關GenAI的一些額外信息。
Thumbnail
本文章探討了多智能體系統(MAS)在生成式AI領域中的應用,以及GenAI對於AI_MCU和Software defined hardware的影響。文章還總結了SDH設計模式對數據科學和人工智能時代的影響,並提供了有關GenAI的一些額外信息。
Thumbnail
今天看了GTC 2024的精華版,回想1995年代開始,家裡的電腦算力越來越強,開始推動很多以前需要勞力或腦力的工作,效率大幅提昇。到2000年初,還記得手機從原本只有打電話的功能,開始整併聽音樂、翻譯機,甚至到相機,出門變成只要一台手機就能行走天下,這些都拜算力提升所賜。 GTC 2024,
Thumbnail
今天看了GTC 2024的精華版,回想1995年代開始,家裡的電腦算力越來越強,開始推動很多以前需要勞力或腦力的工作,效率大幅提昇。到2000年初,還記得手機從原本只有打電話的功能,開始整併聽音樂、翻譯機,甚至到相機,出門變成只要一台手機就能行走天下,這些都拜算力提升所賜。 GTC 2024,
Thumbnail
★看似客觀中立的機器運算,可能在學習人類提供的資料後,再複製社會偏見與歧視,形成「自動不平等」!
Thumbnail
★看似客觀中立的機器運算,可能在學習人類提供的資料後,再複製社會偏見與歧視,形成「自動不平等」!
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News