Day1:監督式學習+文本分類

更新 發佈閱讀 5 分鐘

今天的人工智慧 1+1 自學:監督式學習 (Supervised Learning) 與文本分類 (Text Classification)

「1」 - 技術核心層
機器學習/ML (Machine Learning) 3類型之一(監督式學習/非監督式學習/強化學習)——「監督式學習 (Supervised Learning)」

「1」 - 感知互動層
自然語言處理/NLP (Natural Language Processing)的一項基礎且重要應用——「文本分類 (Text Classification)」

*「監督式學習」+「文本分類」的組合是 NLP 領域中最經典且最直觀的應用案例。

1. 監督式學習 (⇢ 機器學習/ML ⇢ 技術核心層)

▶︎ 說明:監督式學習是機器學習中最常見的類型。
▶︎ 訓練方式:
提供大量的「輸入-標籤」配對數據,訓練模型從中學習(i.e.歸納並記憶)「(輸入與輸出之間)映射關係」或「底層邏輯」。讓模型透過這些範例進行訓練,直至可獨立判斷,並為「未見過的」輸入數據,分配正確的標籤。

▶︎ 監督式訓練過程:
(1)資料準備: 準備一個大型的「已標註」資料集**(重要標註)
(2)前向傳播 (Forward Pass): 模型接收一個輸入資料點,並根據模型已具備之內部邏輯做出預測。
(3)計算誤差 (Loss Calculation): 軟體會將模型的預測,與資料集中的正確答案(標籤)進行對比,並計算出兩者之間的誤差 (Loss)。這個步驟正是「監督式學習」的「監督/ Supervise」的實質意涵。
(4)反向傳播 (Backward Pass):模型會使用「梯度下降」演算法(i.e.找到誤差最小化的方向以不斷微調模型參數)找出誤差值,並將誤差值回傳,同時計算出應該如何調整其內部參數,以期在下一次做出更精確的預測。這是學習最關鍵的環節。
(5)參數更新 (Parameter Update):模型根據計算出來的調整建議,更新其內部參數。
(6)反覆循環:透過(2)-(5)的步驟,模型會對整個「訓練集」**(重要標註) 中的所有數據點,反覆執行直到誤差降到足夠低為止。

**重要標註說明:關於「資料集」/「訓練集」
說明:
一個標準的機器學習流程,會在訓練開始前將整個「資料集」按一定比例(ex 80/10/10 或 70/15/15)劃分為三個獨立的部分:
▪︎ 訓練集 (Training Set):用於模型的實際學習。
▪︎ 驗證集 (Validation Set):用於在訓練過程中調整模型參數,同時也讓開發者可用以評估模型是否發生「過度擬合 (Overfitting)」。
▪︎ 測試集 (Test Set):是「未見過的」的數據,是在訓練結束後,用來在測試驗收成果時,對模型表現提供最終且客觀的衡量標準。從訓練開始到結束,也就是在(2)-(6)的訓練過程,模型都不會在任何階段接觸到數據集。
測試不屬於訓練的一環。不同於在訓練過程後期,開發者以驗證集檢視評估模型的訓練狀態,視需求做進一步的調校修正,測試是在訓練完整結束後進行。


2. 文本分類 (⇢ 自然語言處理/NLP ⇢ 感知互動層)

▶︎ 說明:
文本分類是將文字內容歸類(i.e.歸納)到預設類別的任務。藉由監督式學習,能讓模型獲得完成這種任務的能力。
已實現應用場景如:
▪︎ 電子郵件/垃圾郵件過濾:將郵件分為「垃圾郵件」或「非垃圾郵件」。
▪︎ 目標受眾情緒分析:將客戶評論分為「正面」、「負面」或「中性」。
▪︎ 網站內容屬性分類:將文章分為「體育」、「財經」、「娛樂」等類別。

▶︎ 於 AI的感知互動層應用:透過提示工程 Prompt Engineering 在 LLM 實現文本分類。
(a) 概念說明
因為 LLM可以只憑Prompt 本身的「上下文資訊」來學習和適應 Prompt 所下達的新的指令,所以,應用Prompt Engineering 中的「少樣本學習 (Few-shot Learning)」,即可實現文本分類,意即:不需重新訓練整個模型,只要提供少量範例,即可指導模型完成任務(i.e.實現文本分類)。
(b) 運作流程
(1)在 Prompt模板中提供 LLM 少數「輸入-標籤」範例
(2)讓 LLM 立即從中學習模式
(3)提供一個未標記的輸入,要求 LLM 進行分類
(4) LLM 完成分類任務後生成內容反饋

留言
avatar-img
留言分享你的想法!
avatar-img
不是雞湯,但是又如何
3會員
298內容數
不是雞湯,但 是又如何 不是雞湯,但是 又如何
2025/08/16
今天與Gemini review 我在 Prompt Engineering 的學習,我其實感覺可以嘗試更全面的返回人工智慧領域學習,站在已有的 Prompting 學習基礎上。於是有了今天 Day 0 的從頭學習。 加油!我可以的:) - 「人工智慧 1+1」學習旅程 Day 0 人工
2025/08/16
今天與Gemini review 我在 Prompt Engineering 的學習,我其實感覺可以嘗試更全面的返回人工智慧領域學習,站在已有的 Prompting 學習基礎上。於是有了今天 Day 0 的從頭學習。 加油!我可以的:) - 「人工智慧 1+1」學習旅程 Day 0 人工
2025/07/18
# random,隨機。先學四種款基本方法。 # (1)取隨機的整數 .randint() import random # 先設置導入random模組 print(random.randint(1, 10)) # 使用.randint(1, 10),隨機印出1-10之間的整數 #
2025/07/18
# random,隨機。先學四種款基本方法。 # (1)取隨機的整數 .randint() import random # 先設置導入random模組 print(random.randint(1, 10)) # 使用.randint(1, 10),隨機印出1-10之間的整數 #
2025/07/16
Dictionary,字典,由key value組成,鍵值對 # 符號使用大括號 {} # 每個項目都是一個「鍵值對 (Key-Value Pair)」,是字典最基本的單位 # 用冒號「:」連接鍵和值,不同的鍵值對之間用逗號「,」分隔 # 特性1:鍵唯一(Unique Keys),鍵必須是獨一個,不
2025/07/16
Dictionary,字典,由key value組成,鍵值對 # 符號使用大括號 {} # 每個項目都是一個「鍵值對 (Key-Value Pair)」,是字典最基本的單位 # 用冒號「:」連接鍵和值,不同的鍵值對之間用逗號「,」分隔 # 特性1:鍵唯一(Unique Keys),鍵必須是獨一個,不
看更多
你可能也想看
Thumbnail
透過蝦皮分潤計畫,輕鬆賺取零用金!本文分享5-6月實測心得,包含數據流程、實際收入、平臺優點及注意事項,並推薦高分潤商品,教你如何運用空閒時間創造被動收入。
Thumbnail
透過蝦皮分潤計畫,輕鬆賺取零用金!本文分享5-6月實測心得,包含數據流程、實際收入、平臺優點及注意事項,並推薦高分潤商品,教你如何運用空閒時間創造被動收入。
Thumbnail
單身的人有些會養寵物,而我養植物。畢竟寵物離世會傷心,植物沒養好再接再厲就好了~(笑)
Thumbnail
單身的人有些會養寵物,而我養植物。畢竟寵物離世會傷心,植物沒養好再接再厲就好了~(笑)
Thumbnail
不知你有沒有過這種經驗?衛生紙只剩最後一包、洗衣精倒不出來,或電池突然沒電。這次一次補貨,從電池、衛生紙到洗衣精,還順便分享使用心得。更棒的是,搭配蝦皮分潤計畫,愛用品不僅自己用得安心,分享給朋友還能賺回饋。立即使用推薦碼 X5Q344E,輕鬆上手,隨時隨地賺取分潤!
Thumbnail
不知你有沒有過這種經驗?衛生紙只剩最後一包、洗衣精倒不出來,或電池突然沒電。這次一次補貨,從電池、衛生紙到洗衣精,還順便分享使用心得。更棒的是,搭配蝦皮分潤計畫,愛用品不僅自己用得安心,分享給朋友還能賺回饋。立即使用推薦碼 X5Q344E,輕鬆上手,隨時隨地賺取分潤!
Thumbnail
身為一個典型的社畜,上班時間被會議、進度、KPI 塞得滿滿,下班後只想要找一個能夠安靜喘口氣的小角落。對我來說,畫畫就是那個屬於自己的小樹洞。無論是胡亂塗鴉,還是慢慢描繪喜歡的插畫人物,那個專注在筆觸和色彩的過程,就像在幫心靈按摩一樣,讓緊繃的神經慢慢鬆開。
Thumbnail
身為一個典型的社畜,上班時間被會議、進度、KPI 塞得滿滿,下班後只想要找一個能夠安靜喘口氣的小角落。對我來說,畫畫就是那個屬於自己的小樹洞。無論是胡亂塗鴉,還是慢慢描繪喜歡的插畫人物,那個專注在筆觸和色彩的過程,就像在幫心靈按摩一樣,讓緊繃的神經慢慢鬆開。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 52 中,我們已經解析完 Attention 機制如何運作的,以下延伸至 Multi-Head Attention: Head 1
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 52 中,我們已經解析完 Attention 機制如何運作的,以下延伸至 Multi-Head Attention: Head 1
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News