🤖 AI 怎麼理解你的話?從 Token 和 Tokenizer 說起
🧠 說明:
- Token 是模型理解語言的最小單位,是 AI 模型用來理解人類語言的「拼圖碎片」。
- 「Tokenizer」則是那個「拆拼圖的人」,它負責將完整的句子切割成 AI 能夠逐片分析的 Token。
👀簡單來說:
- Token = 拼圖碎片 (字、詞或字元)
- Tokenizer = 拆拼圖的人 (按規則切割)
AI 模型就像在玩拼圖,必須先將句子拆解成這些碎片,才能嘗試拼湊出原本的意義。單獨的碎片很難理解全貌,重要的是它們如何排列組合,形成最終的圖像。
🦊🐥 小劇場:
有人滿懷期待地向狐狸少(AI)告白時,在他耳中卻變成了這樣:
我(Token1) 喜(Token2) 歡(Token3) 你(Token4)
狐狸少盯著這些被拆碎的字,困惑地說:
「她的每個字我都聽見了……但我真的不確定要怎麼把這些碎片組成她想說的『我喜歡你』。」🥲

小雞望著那張被剪成碎片的情書,歪著頭說:
「一句話如果被拆得太碎,原來想傳達的感覺就不見了耶。」
狐狸少撐著臉頰嘆氣: 「看來,拼湊愛的任務……可能要靠 Transformers(注意力機制) 幫忙了。」
✨ 下回預告:
下一篇,Transformers 即將登場,讓散落一地的 Token 有機會被拼回完整的戀愛宣言!
📎 備註:
本文中狐狸少、小雞等角色,皆為個人化設定,不代表任何 AI 官方立場。