一杯咖啡的時間搞懂AI的SVM:支援向量機是什麼?

更新於 發佈於 閱讀時間約 1 分鐘

你是不是也常聽到 AI 裡面有一個名詞叫「SVM」?全名是支援向量機(Support Vector Machine),聽起來很猛,但其實它的邏輯白話到不行,我們就用一杯咖啡跟奶茶的時間,來聊聊什麼是SVM吧!

raw-image

【我是咖啡店老闆,有兩種客人】

▶文青型客人
點黑咖啡,一個人坐窗邊、默默打字,不說話

▶聊天型客人
點奶茶,三五好友坐沙發,大聲聊天笑不停

心中OS:

「是不是可以用一條『線』把他們分開?」

沒錯,這條線就是 SVM 的概念:

分隔線:咖啡左邊、奶茶右邊,文青站這邊、聊天組站那邊。

【但好玩的來了!】

有一位客人點了黑咖啡,但他跟朋友聊得超開心,音量堪比 KTV,那這位仁兄到底是文青還是聊天咖?

【SVM 就是在面對這種情況時,幫你做出「最穩的分隔線」】

它不會只是看「你喝什麼」,它還會加上更多特徵來觀察:

☄你坐哪裡?

☄幾個人一起來?

☄你講話大不大聲?

☄有沒有帶筆電?

這些資訊都會幫助AI把人「升維」後再分類,找出一條讓兩種客人都盡量不靠太近的線。

【回到喝黑咖啡但很吵的那位】

SVM 會根據這條線,把他「歸」到其中一邊。可能是文青組,但他是站在最邊邊那個文青的位置。

他就像是在分隔線上的「邊界人物」,

在 SVM 裡會叫做:支援向量(Support Vector)

也就是說:

他不是 AI 最有信心分對的那個人,而是最有可能「下一次分類錯」的那個邊界人。

【那這樣還算穩定或準嗎?】

答案是:

整體來說是穩的;對個案來說,還是有風險。

所以這也是 AI 世界裡永遠在問的問題:

「我們是不是對這筆資料分類,有信心?」

「這條線畫得對不對?會不會有人剛好站錯 邊?」

【總結一句話】

SVM 可以畫出一條最穩的分類線,

但那些靠近線的人,永遠是最不穩定的變數。

就像咖啡店裡那位喝黑咖但笑超大聲的客人,也許他是文青,也許不是。

但他站在哪一邊,都代表分類的信心與風險。


📖 財會背景|內部稽核師(CIA)/ERP軟體應用師 上班靠邏輯,下班靠靈感。 寫吃的、寫日常,也寫世界的眉角。 ✨
留言
avatar-img
留言分享你的想法!
這篇文章以輕鬆對話的方式,說明人工智慧AI的起源,從1956年的Dartmouth夏季研究計畫到2024年的ChatGPT和AutoGen,帶領讀者瞭解AI的發展歷程,並探討AI的未來發展方向。
這篇文章以寶可夢角色比喻說明AutoGen與ChatGPT的差異,AutoGen如同寶可夢團隊分工合作,而ChatGPT則像單打獨鬥的皮卡丘。AutoGen透過多個AI代理人協同工作,能更有效率地完成複雜任務,ChatGPT則適合快速、直接的任務。
這篇文章以淺顯易懂的方式說明卷積神經網路(CNN)如何讓AI辨識圖片,並用一張小狗圖片為例,逐步拆解CNN的四個關鍵步驟:卷積層、池化層、全連接層和輸出結果,輔以生活化的比喻,例如畫畫、縮圖和考試,讓讀者輕鬆理解CNN運作原理。
含 AI 應用內容
#AI#ChatGPT#科技
這篇文章以輕鬆對話的方式,說明人工智慧AI的起源,從1956年的Dartmouth夏季研究計畫到2024年的ChatGPT和AutoGen,帶領讀者瞭解AI的發展歷程,並探討AI的未來發展方向。
這篇文章以寶可夢角色比喻說明AutoGen與ChatGPT的差異,AutoGen如同寶可夢團隊分工合作,而ChatGPT則像單打獨鬥的皮卡丘。AutoGen透過多個AI代理人協同工作,能更有效率地完成複雜任務,ChatGPT則適合快速、直接的任務。
這篇文章以淺顯易懂的方式說明卷積神經網路(CNN)如何讓AI辨識圖片,並用一張小狗圖片為例,逐步拆解CNN的四個關鍵步驟:卷積層、池化層、全連接層和輸出結果,輔以生活化的比喻,例如畫畫、縮圖和考試,讓讀者輕鬆理解CNN運作原理。
含 AI 應用內容
#AI#ChatGPT#科技
本篇參與的主題活動
你有沒有發現,人生中總有幾種人讓你忍不住多看幾眼? 不是因為他們長得特別帥、家裡特別有錢,而是他們總能在混亂中找到方向、別人都沒看到的地方發現機會 甚至,你還來不及反應,他們已經在前面三步了。 這種人,你可能以為是「天才」。 但其實,他們只是「開啟了某幾種特別的能力」。 而這些能力,
從根本上說,我們之所以是我們,是因為在某個無法控制的瞬間,另一個真實存在的人回應、拒絕或重新定義了我們。AI 只會永恆地迎合我們的期望,卻無法真正突破我們的自我界限。 如果我們完全隔絕於傷害與干擾之外,我們是否同時也喪失了成為真正「人」的可能性?
Elon Musk於Tesla全體員工大會上,分享了Tesla的未來藍圖,涵蓋電動車、自動駕駛、可持續能源、人形機器人Optimus等,最終願景為實現物質無虞的未來。演講重點提及Tesla的生產成就、工廠擴展、電池技術、自動駕駛技術及AI發展,以及Optimus人形機器人的生產計劃和市場潛力。
我寫小說,也畫畫,剛好方格子正在進行討論 AI 的話題,就來聊一下我自己怎麼運用 AI 的吧。 首先,我並不喜歡直接用 AI 生成的東西取代人工創作,如果可以的話,我會儘可能自己手工創作,因為我使用 AI 的技能並不好,只會跟 ChatGPT 聊天而已。我的經驗是,他創作出來的內容,其實不容易符合
本文探討AI筆記工具的優缺點、選擇建議及未來趨勢,比較NotebookLM、OneNote+Copilot、Notion AI、Obsidian+GPT插件和Palantir Foundry等工具,並強調安全注意事項及個人需求評估的重要性。
你有沒有發現,人生中總有幾種人讓你忍不住多看幾眼? 不是因為他們長得特別帥、家裡特別有錢,而是他們總能在混亂中找到方向、別人都沒看到的地方發現機會 甚至,你還來不及反應,他們已經在前面三步了。 這種人,你可能以為是「天才」。 但其實,他們只是「開啟了某幾種特別的能力」。 而這些能力,
從根本上說,我們之所以是我們,是因為在某個無法控制的瞬間,另一個真實存在的人回應、拒絕或重新定義了我們。AI 只會永恆地迎合我們的期望,卻無法真正突破我們的自我界限。 如果我們完全隔絕於傷害與干擾之外,我們是否同時也喪失了成為真正「人」的可能性?
Elon Musk於Tesla全體員工大會上,分享了Tesla的未來藍圖,涵蓋電動車、自動駕駛、可持續能源、人形機器人Optimus等,最終願景為實現物質無虞的未來。演講重點提及Tesla的生產成就、工廠擴展、電池技術、自動駕駛技術及AI發展,以及Optimus人形機器人的生產計劃和市場潛力。
我寫小說,也畫畫,剛好方格子正在進行討論 AI 的話題,就來聊一下我自己怎麼運用 AI 的吧。 首先,我並不喜歡直接用 AI 生成的東西取代人工創作,如果可以的話,我會儘可能自己手工創作,因為我使用 AI 的技能並不好,只會跟 ChatGPT 聊天而已。我的經驗是,他創作出來的內容,其實不容易符合
本文探討AI筆記工具的優缺點、選擇建議及未來趨勢,比較NotebookLM、OneNote+Copilot、Notion AI、Obsidian+GPT插件和Palantir Foundry等工具,並強調安全注意事項及個人需求評估的重要性。
你可能也想看
Google News 追蹤
Thumbnail
靈感用盡、鍵盤不再響,盯著喜歡、分享、留言的數字,心跳跟著小鈴鐺七上八下⋯⋯vocus 2025 年 4 月限定新商品,要為創作者打氣! 🚨「創作者打氣包」 最懂創作者的vocus,為創作者打造 ✨ 打氣包,包什麼?!四件道具挺創作者 一、【打氣復活卷】 專屬你的打氣小語,成功登記免費
Thumbnail
全新 vocus 挑戰活動「方格人氣王」來啦~四大挑戰任你選,留言 / 愛心 / 瀏覽數大 PK,還有新手專屬挑戰!無論你是 vocus 上活躍創作者或剛加入的新手,都有機會被更多人看見,獲得站上版位曝光&豐富獎勵!🏆
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Vaswani 等人 2017 年解決了設計 Transformer 時最困難的 NLP 問題之一,對於我們人機智慧設計師來說,機器翻譯的人類基準似乎遙不可及,然而,這
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 下游任務是一個 Fine-Tuned 的 Transformer 任務,它從預先訓練的 Transformer 模型繼承模型和參數,故,下游任務是運行微調任務的預訓練模
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 20中,闡述GPT模型的Supervised and Unsupervised觀點,接著一樣引述書籍:Transformers f
Thumbnail
在AI時代中,GPT技術正在改變我們的生活。然而,SLM(小型語言模型)也開始受到關注,具有更高的效率、更低的資源消耗和更快的響應速度。這篇文章將討論LLM和SLM的比較、SLM的應用場景以及未來的發展趨勢。
Thumbnail
靈感用盡、鍵盤不再響,盯著喜歡、分享、留言的數字,心跳跟著小鈴鐺七上八下⋯⋯vocus 2025 年 4 月限定新商品,要為創作者打氣! 🚨「創作者打氣包」 最懂創作者的vocus,為創作者打造 ✨ 打氣包,包什麼?!四件道具挺創作者 一、【打氣復活卷】 專屬你的打氣小語,成功登記免費
Thumbnail
全新 vocus 挑戰活動「方格人氣王」來啦~四大挑戰任你選,留言 / 愛心 / 瀏覽數大 PK,還有新手專屬挑戰!無論你是 vocus 上活躍創作者或剛加入的新手,都有機會被更多人看見,獲得站上版位曝光&豐富獎勵!🏆
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Vaswani 等人 2017 年解決了設計 Transformer 時最困難的 NLP 問題之一,對於我們人機智慧設計師來說,機器翻譯的人類基準似乎遙不可及,然而,這
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 下游任務是一個 Fine-Tuned 的 Transformer 任務,它從預先訓練的 Transformer 模型繼承模型和參數,故,下游任務是運行微調任務的預訓練模
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 20中,闡述GPT模型的Supervised and Unsupervised觀點,接著一樣引述書籍:Transformers f
Thumbnail
在AI時代中,GPT技術正在改變我們的生活。然而,SLM(小型語言模型)也開始受到關注,具有更高的效率、更低的資源消耗和更快的響應速度。這篇文章將討論LLM和SLM的比較、SLM的應用場景以及未來的發展趨勢。