當人工智慧學會玩「植物接龍」:為什麼要用 LLM 製作植物生態好幫手?

更新 發佈閱讀 6 分鐘

如果你聽過 ChatGPT、Gemini 或 Claude,大概知道「大型語言模型」(LLM)是近年 AI 的主角。

它們靠著讀取大量文字,從中學會人類語言的規律。然後,他們運用這種規律來跟人類「交談」,甚至讓有些人以為AI是好朋友!


但最近有研究團隊把這套方法運用在自然界──

不是去「讀」語句,而是去「讀」植物。


在今年(2025) ,《Nature Plants》刊登了一篇研究〈Learning the syntax of plant assemblages〉。


研究團隊訓練了一個名為 Pl@ntBERT 的模型,讓它從超過140 萬筆歐洲植被資料中,學會不同植物之間的「共現語法」。


簡單來說,他們讓 AI 玩一種特別的接龍遊戲──不是接文字,而是接植物。


什麼是「植物接龍」?


研究團隊把每一個樣區的植物紀錄資料(記錄某地有哪些植物)視為一句「植物句子」:

如夏櫟(Quercus robur), 常春藤(Hedera helix), 大花銀蓮花(Anemone nemorosa


他們讓AI閱讀所有這些樣區中出現的植物名稱,於是AI從中學會了哪幾種植物的名稱最常一起出現(如上),就能「學會」從一個植物清單預測最可能出現的下一個植物是什麼。


接著,他們會在這串名單中隨機遮掉一種植物,再請 AI 猜猜那個空格裡應該是誰。

這其實就像語言模型的「填空練習」──

它學會哪些植物常一起出現、哪些少見、誰是關鍵角色。


另外,他們還讓AI 練習:只看植物名單,就要判斷這是哪一種棲地。這就像丟給ChatGPT一個句子,要他猜出這個句子是從哪一本書出來的。


結果 Pl@ntBERT 的表現超出預期──

它辨識歐洲 227 種棲地的準確率高達 92%,甚至比專家製作的分類系統還穩定。


它到底「懂」了什麼?


當然,Pl@ntBERT 並不真的懂植物,就像 ChatGPT 也不懂句子的意義,它只是學會「誰跟誰常連在一起」。

AI 並不知道「夏櫟」為什麼常和「常春藤」共生,

但它能偵測到這種模式──

而這些模式,正是過去生態學家們花數十年才能觀察到的結構。


所以 Pl@ntBERT 的價值,不在「理解」,而在於忠實反映資料中潛藏的關聯,

讓我們能看見被忽略的植物群落「語法」。


那麼,AI 為什麼能夠成為生態學的好幫手?


首先,人類觀察自然時常帶著預設立場。例如:

「這裡濕,所以應該有蕨類。」

但 AI 沒有這種偏見。它只是從共現資料,從中找出規律。

也就是說,AI能夠去除人類的直覺偏誤,這讓研究者能以更中性的方式探索自然。


其次,野外調查常有遺漏──可能是稀有植物沒被記錄到、或因為形態類似而被誤判。

但是,AI 可以根據其他植物的組合推測出可能的遺漏。

就像它在玩植物接龍時,自動補上缺的那一張牌。


更好的是,透過AI的LPLM(大型植物「語言」模型)的協助,每個樣區的植物資料都可被快速分類,節省了人工判讀與專家比對的時間。

對保育工作、紅皮書更新、氣候變遷監測都有實際幫助。


最後,AI 還能找到人類不易察覺的關係,例如某兩種植物從未同場出現,但都與同一個第三種植物共現。

找到這種「隱性語法」,能幫助研究者開發新的生態假說。


那麼,AI能幫我們「預測自然」嗎?


這是最有哲學意味的問題。

雖然Pl@ntBERT 不能理解生態因果,但它能預測結構的變化。拿掉A,會造成BCDE發生什麼樣的變化?如果要讓F重新回來,要先讓哪些植物出現?


由於生態系統的複雜性,過去在嘗試復育的時候,往往會功敗垂成;現在有了植物AI,在未來,研究者希望用它來模擬:


氣候變遷後植物群落如何重組;

外來種入侵對原生植物會發生何種影響;

森林復育後最可能回來的物種有哪些。


這些都不是「AI 取代人類」,

而是 AI 提供一面鏡子,幫我們看見人類未曾觀察到的規律。

它是一個沒有理論偏見的輔助觀察者。


不過,就像ChatGPT、Gemini等LLM,使用植物AI也要小心新的偏誤:


雖然AI 不會迷信理論,但因為它是透過我們蒐集的資料學習,而資料本身也有偏誤──

所以它也不真正「中立」。


資料的偏誤是什麼?例如,多人採樣的樣區資料就會多、比較不容易採樣的季節/地區少人觀察,提供的資料就少。這樣,Pl@ntBERT就會以為,資料較少的季節/地區的這些「植物句子」不夠「自然」。


打個比方說,現在LLM學到的中文資料,絕大部分是從中國來的;於是就會看到ChatGPT、Gemini、Claude動不動就給我們來個「至關重要」、「基因組」,讓臺灣的我們看了渾身不舒服。


所以 Pl@ntBERT 呈現的「自然語法」,其實仍是人類觀察過的自然投影。

要真正理解自然,仍需要人類的批判思考與實地觀察。


人類用語言描述自然,也用語言誤解自然。

Pl@ntBERT 的出現,讓我們第一次能讓「機器」去讀自然的語法。

它不會說話,卻能幫我們讀出植物之間的細微對話。


AI 不會懂植物,但它能提醒我們:

自然界確實在「說話」,只是我們不容易傾聽。


參考文獻與延伸閱讀:

LeBlanc, C. et al. (2025). Learning the syntax of plant assemblages. Nature Plants.https://doi.org/10.1038/s41477-025-02105-7

植物語法與生態網絡分析的比較研究(2024, Ecology Letters)

BirdNET:AI 分析鳥鳴聲辨識物種的開放資料計畫


留言
avatar-img
留言分享你的想法!
avatar-img
老葉報報
296會員
1.0K內容數
主要介紹關於植物的新資訊,但是也會介紹一些其他的。 版主在大學教植物生理學,也教過生物化學。 如有推薦書籍需求,請e-mail:susanyeh816@gmail.com
老葉報報的其他內容
2025/10/22
在植物生理學裡,我們常把植物分成「C3型」與「C4型」兩種。 水稻、大豆、小麥屬於C3植物,而玉米、甘蔗等屬於 C4植物。 但是,C3如何演化成C4? 雖然之前曾經介紹過C2植物,但是C2植物並不是從C3到C4的唯一解答喔!
Thumbnail
2025/10/22
在植物生理學裡,我們常把植物分成「C3型」與「C4型」兩種。 水稻、大豆、小麥屬於C3植物,而玉米、甘蔗等屬於 C4植物。 但是,C3如何演化成C4? 雖然之前曾經介紹過C2植物,但是C2植物並不是從C3到C4的唯一解答喔!
Thumbnail
2025/10/21
在新石器時代的歐洲,湖邊聚落的居民會製作一種黑色、黏稠又防水的物質──白樺樹皮焦油(birch bark tar)。 他們用它來黏矛頭、修陶罐、補木器,最近考古學家在這些焦油塊上找到古人類的 DNA 與口腔菌,意味著史上最早的「人造材料」之一,也可能是「口香糖」。
Thumbnail
2025/10/21
在新石器時代的歐洲,湖邊聚落的居民會製作一種黑色、黏稠又防水的物質──白樺樹皮焦油(birch bark tar)。 他們用它來黏矛頭、修陶罐、補木器,最近考古學家在這些焦油塊上找到古人類的 DNA 與口腔菌,意味著史上最早的「人造材料」之一,也可能是「口香糖」。
Thumbnail
2025/10/20
雖然臺灣得膀胱癌的人不算特別多,但是膀胱癌還是屬於泌尿系統主要的惡性腫瘤之一,與攝護腺癌、腎臟癌並列。 而且,與全世界的發現一樣,臺灣男性得膀胱癌的機率高於女性,而吸煙又是膀胱癌的風險因子之一。 最近的研究找到了為什麼男性膀胱癌的機率高於女性~而吸煙又是如何影響!
Thumbnail
2025/10/20
雖然臺灣得膀胱癌的人不算特別多,但是膀胱癌還是屬於泌尿系統主要的惡性腫瘤之一,與攝護腺癌、腎臟癌並列。 而且,與全世界的發現一樣,臺灣男性得膀胱癌的機率高於女性,而吸煙又是膀胱癌的風險因子之一。 最近的研究找到了為什麼男性膀胱癌的機率高於女性~而吸煙又是如何影響!
Thumbnail
看更多
你可能也想看
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 25示範了ChatGPT程式的能力,同時在AI說書 - 從0開始 - 26靠ChatGPT產生Decision Tree程式,現在我們來
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 25示範了ChatGPT程式的能力,同時在AI說書 - 從0開始 - 26靠ChatGPT產生Decision Tree程式,現在我們來
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
這篇文章討論了自然語言處理技術的發展歷程,從語言模型的引入到深度學習的應用。作者觀察到現今GPT在產出中文國學內容時的深度不足,並提出了自然語言處理領域的倫理使用和版權問題,以及對大眾的影響。最後,作者探討了個人在自然語言領域的發展可能性。
Thumbnail
這篇文章討論了自然語言處理技術的發展歷程,從語言模型的引入到深度學習的應用。作者觀察到現今GPT在產出中文國學內容時的深度不足,並提出了自然語言處理領域的倫理使用和版權問題,以及對大眾的影響。最後,作者探討了個人在自然語言領域的發展可能性。
Thumbnail
語言模型與文字表示以不同的方式來分析自然語言的詞語分佈及語意關係。本文章簡要介紹了語言模型、Word2vec、FastText、GloVe和Transformer等技術,並提供了實際的應用參考點,幫助讀者深入理解自然語言處理的技術。
Thumbnail
語言模型與文字表示以不同的方式來分析自然語言的詞語分佈及語意關係。本文章簡要介紹了語言模型、Word2vec、FastText、GloVe和Transformer等技術,並提供了實際的應用參考點,幫助讀者深入理解自然語言處理的技術。
Thumbnail
這陣子使用AI模型,還有參考國內外一些喜歡玩語言模型的同好發文,一個很有趣的結論就是,有時候把大型語言模型(尤其ChatGPT)當作一個人來溝通,會得到比較好的結果,這的確是非常反直覺的,也就是說很多時候ChatGPT耍懶不肯工作的時候,你用加油打氣,或是情緒勒索的方法,確實是可以得到比較好的結果。
Thumbnail
這陣子使用AI模型,還有參考國內外一些喜歡玩語言模型的同好發文,一個很有趣的結論就是,有時候把大型語言模型(尤其ChatGPT)當作一個人來溝通,會得到比較好的結果,這的確是非常反直覺的,也就是說很多時候ChatGPT耍懶不肯工作的時候,你用加油打氣,或是情緒勒索的方法,確實是可以得到比較好的結果。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News