Day2:非監督式學習

更新 發佈閱讀 5 分鐘

今天的「人工智慧 +1」自學要學的是「不是監督式教學」:非監督式學習 (Unsupervised Learning)

1. 「非監督式學習 (Unsupervised Learning)」

▹核心概念:
▪︎ 提供大量未標記的數據讓模型透過數學演算法,發現隱藏的結構、模式和關係,自行找出數據中的內在模式。
▪︎ 模型的角色是高效的「相似性計算器」和「歸類器」。

▹潛在挑戰:非監督式學習的結果往往無法「直接驗證正確性」。


2. 與監督式學習(Supervised Learning)的異同

▹相同:
都是在訓練「歸納 (Induction)」的能力。歸納能力正是機器學習的核心本質。無論是監督式或非監督式學習,其最終目標都是讓模型學習從「部分」歸納出適用「所有數據」的普遍模式或規則。
▪︎ 監督式學習:學習「歸納」有標籤數據中的模式。
▪︎ 非監督式學習: 學習「歸納」無標籤數據中的內在結構和潛在模式。

▹相異:
▪︎ 監督式學習:
(a)定義:讓模型學習「已定義」的規則,訓練自己按照規則對數據進行分類 (Classification)。
(b)資料:有標籤
(c)學習目標:學習「輸入-輸出」的映射關係
(d)訓練結果:可驗證正確性
▪︎ 非監督式學習:
(a)定義:讓模型自行在數據中尋找並定義規則(i.e.歸納的邏輯),然後再對數據進行分群 (Clustering)。
(b)資料:無標籤
(c)學習目標:尋找數據中的隱藏模式或結構
(d)訓練結果:無法直接驗證正確性


3. 常見應用

A.分群 (Clustering)
▹說明:
尋找數據點之間的共同特徵,根據數據點之間的相似性,將它們歸類到不同的「群組」中。沒有事先定義好的分類規則,也沒有事先定義好的類別(所以是「群」),由演算法自行找出、自行決定。
▹使用演算法:
▪︎ K-Means:迭代地尋找群組的中心點,並將數據點分配給最近的中心點**,其優化目標是最小化數據點到其所屬群組中心點的距離,而非最小化誤差。
(**註:中心點的數量即「群」的數量,會預先設定好。)
▪︎ 階層式分群 (Hierarchical Clustering):以巢狀式或樹狀結構進行分群。有兩種做法:
(1)凝聚式 (Agglomerative):每個數據點都自成一群,然後逐步將最相似的群組合併,直到所有數據點都屬於一個群組。
(2)分裂式 (Divisive): 從一個包含所有數據點的大群組開始,然後逐步將群組分裂為越來越小的子群組。
▹應用案例:
生物物種分類樹(階層式分群);根據消費者購買行為/瀏覽習慣分群以進行精準行銷(K-Means)。

B.降維 (Dimensionality Reduction)
▹說明:數據龐雜,會夾帶許多特徵可能是多餘或不相關的數據。降維技術能減少數據的特徵數量,同時盡可能保留最重要的資訊。這有助於簡化模型、減少計算時間並提高準確性。
▹使用演算法:
▪︎ 主成分分析 PCA(Principal Component Analysis):藉由數學轉換,將高維度的數據以低維度結構檢視(維度指「數據所擁有的特徵數量」),找出其中最重要的特徵維度,也就是能夠保留最大數據資訊量(i.e.最多數據變異量)的新特徵維度。
▪︎ t-SNE (t-distributed Stochastic Neighbor Embedding):主要用於視覺化,將高維度數據降到 2D 或 3D,以視覺化數據的結構和分佈。
▹應用案例:
從圖片中找出最能代表其內容的數個像素特徵(PCA);從一段音檔中提取主要頻率特徵(PCA);探索性數據分析/EDA (Exploratory Data Analysis),將大量的圖像或文本數據視覺化以找尋潛在模式(t-SNE)。

C.關聯規則學習 (Association Rule Learning)
▹說明:在數據集中,找出不同項目之間的關聯性。
▹使用演算法:
▪︎ Apriori 演算法:找出數據集中經常一起出現的項目組合,並計算其支持度(Support)和置信度(Confidence)。
▹應用案例:
「啤酒與尿布」案例。透過分析顧客的購買數據,發現購買尿布的顧客也經常購買啤酒,這是一種無標籤數據中發現的隱藏模式。

D.生成式模型 (Generative Models)
▹說明:學習數據的底層「分佈」,並能夠生成出與原始數據相似的新數據。這是非常重要的應用。
▹應用案例:
訓練模型學習所有狗的圖片,然後再生成新的、不存在的狗的圖片。
(**註:生成式模型使用演算法很多,擬不在此提出。)

演算法&非監督式學習彙整

演算法&非監督式學習彙整


留言
avatar-img
不是雞湯,但是又如何
4會員
468內容數
不是雞湯,但 是又如何 不是雞湯,但是 又如何
2025/08/17
今天的人工智慧 1+1 自學:監督式學習 (Supervised Learning) 與文本分類 (Text Classification) 「1」 - 技術核心層: 機器學習/ML (Machine Learning) 3類型之一(監督式學習/非監督式學習/強化學習)——「監督式學習 (Supe
2025/08/17
今天的人工智慧 1+1 自學:監督式學習 (Supervised Learning) 與文本分類 (Text Classification) 「1」 - 技術核心層: 機器學習/ML (Machine Learning) 3類型之一(監督式學習/非監督式學習/強化學習)——「監督式學習 (Supe
2025/08/16
今天與Gemini review 我在 Prompt Engineering 的學習,我其實感覺可以嘗試更全面的返回人工智慧領域學習,站在已有的 Prompting 學習基礎上。於是有了今天 Day 0 的從頭學習。 加油!我可以的:) - 「人工智慧 1+1」學習旅程 Day 0 人工
2025/08/16
今天與Gemini review 我在 Prompt Engineering 的學習,我其實感覺可以嘗試更全面的返回人工智慧領域學習,站在已有的 Prompting 學習基礎上。於是有了今天 Day 0 的從頭學習。 加油!我可以的:) - 「人工智慧 1+1」學習旅程 Day 0 人工
2025/07/18
# random,隨機。先學四種款基本方法。 # (1)取隨機的整數 .randint() import random # 先設置導入random模組 print(random.randint(1, 10)) # 使用.randint(1, 10),隨機印出1-10之間的整數 #
2025/07/18
# random,隨機。先學四種款基本方法。 # (1)取隨機的整數 .randint() import random # 先設置導入random模組 print(random.randint(1, 10)) # 使用.randint(1, 10),隨機印出1-10之間的整數 #
看更多
你可能也想看
Thumbnail
賽勒布倫尼科夫以流亡處境回望蘇聯電影導演帕拉贊諾夫的舞台作品,以十段寓言式殘篇,重新拼貼記憶、暴力與美學,並將審查、政治犯、戰爭陰影與「形式即政治」的劇場傳統推到台前。本文聚焦於《傳奇:帕拉贊諾夫的十段殘篇》的舞台美術、音樂與多重扮演策略,嘗試解析極權底下不可言說之事,將如何成為可被觀看的公共發聲。
Thumbnail
賽勒布倫尼科夫以流亡處境回望蘇聯電影導演帕拉贊諾夫的舞台作品,以十段寓言式殘篇,重新拼貼記憶、暴力與美學,並將審查、政治犯、戰爭陰影與「形式即政治」的劇場傳統推到台前。本文聚焦於《傳奇:帕拉贊諾夫的十段殘篇》的舞台美術、音樂與多重扮演策略,嘗試解析極權底下不可言說之事,將如何成為可被觀看的公共發聲。
Thumbnail
柏林劇團在 2026 北藝嚴選,再次帶來由布萊希特改編的經典劇目《三便士歌劇》(The Threepenny Opera),導演巴里・柯斯基以舞台結構與舞台調度,重新向「疏離」進行提問。本文將從觀眾慾望作為戲劇內核,藉由沉浸與疏離的辯證,解析此作如何再次照見觀眾自身的位置。
Thumbnail
柏林劇團在 2026 北藝嚴選,再次帶來由布萊希特改編的經典劇目《三便士歌劇》(The Threepenny Opera),導演巴里・柯斯基以舞台結構與舞台調度,重新向「疏離」進行提問。本文將從觀眾慾望作為戲劇內核,藉由沉浸與疏離的辯證,解析此作如何再次照見觀眾自身的位置。
Thumbnail
本文深入解析臺灣劇團「晃晃跨幅町」對易卜生經典劇作《海妲.蓋柏樂》的詮釋,從劇本歷史、聲響與舞臺設計,到演員的主體創作方法,探討此版本如何讓經典劇作在當代劇場語境下煥發新生,滿足現代觀眾的觀看慾望。
Thumbnail
本文深入解析臺灣劇團「晃晃跨幅町」對易卜生經典劇作《海妲.蓋柏樂》的詮釋,從劇本歷史、聲響與舞臺設計,到演員的主體創作方法,探討此版本如何讓經典劇作在當代劇場語境下煥發新生,滿足現代觀眾的觀看慾望。
Thumbnail
《轉轉生》為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,融合舞蹈、音樂、時尚和視覺藝術,透過身體、服裝與群舞結構,回應殖民歷史、城市經驗與祖靈記憶的交錯。本文將從服裝設計、身體語彙與「輪迴」的「誕生—死亡—重生」結構出發,分析《轉轉生》如何以當代目光,形塑去殖民視角的奈及利亞歷史。
Thumbnail
《轉轉生》為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,融合舞蹈、音樂、時尚和視覺藝術,透過身體、服裝與群舞結構,回應殖民歷史、城市經驗與祖靈記憶的交錯。本文將從服裝設計、身體語彙與「輪迴」的「誕生—死亡—重生」結構出發,分析《轉轉生》如何以當代目光,形塑去殖民視角的奈及利亞歷史。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
在開始學習計畫前的三個問題 為什麼學? 該學什麼? 如何去學? 為什麼學的主要歸類 本質性的學習 為了學習而去學習 不確定將來如何使用 功能性的學習 學習這個技能或主題可以幫助自己達成目標 該學什麼? 概念 若某些事物需要被理解而非只是記憶,就屬於概念 ex: 學習人工智能
Thumbnail
在開始學習計畫前的三個問題 為什麼學? 該學什麼? 如何去學? 為什麼學的主要歸類 本質性的學習 為了學習而去學習 不確定將來如何使用 功能性的學習 學習這個技能或主題可以幫助自己達成目標 該學什麼? 概念 若某些事物需要被理解而非只是記憶,就屬於概念 ex: 學習人工智能
Thumbnail
自動化思考(Automatic Thinking)是心理學中的一個概念,它指的是人們在日常生活中進行的快速、無意識和自動的「思路-反應」捷徑。
Thumbnail
自動化思考(Automatic Thinking)是心理學中的一個概念,它指的是人們在日常生活中進行的快速、無意識和自動的「思路-反應」捷徑。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
本文介紹自我監督學習的概念和訓練方式,以BERT和GPT為例,深入探討Masking Input及Fine-Tune的實際操作和可應用性。
Thumbnail
本文介紹自我監督學習的概念和訓練方式,以BERT和GPT為例,深入探討Masking Input及Fine-Tune的實際操作和可應用性。
Thumbnail
在機器學習領域中,監督學習、無監督學習和強化學習是三種核心方法,它們在解決不同類型的問題時發揮著重要作用。
Thumbnail
在機器學習領域中,監督學習、無監督學習和強化學習是三種核心方法,它們在解決不同類型的問題時發揮著重要作用。
Thumbnail
由於不是這方面的專業,所以一切靠爬文嘗試,我的學習之路不見得正確,就記錄一下自我學習的過程。若有高手見文願指點一二,實屬我之榮幸。
Thumbnail
由於不是這方面的專業,所以一切靠爬文嘗試,我的學習之路不見得正確,就記錄一下自我學習的過程。若有高手見文願指點一二,實屬我之榮幸。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News