昨天晚上,某食農粉專貼了「日本研究團隊做了玉米與小麥的混種」的文章,我看了大驚失色,火速找出論文、看完,確定不是他說的,而是「cybrid」(細胞質雜種),然後回了他的文。
簡單說,這位讀者拿了我的貼文與該食農粉專的貼文去問AI哪一個對。
當然,AI(GPT-5)說我說對了,但是我卻很想問那位讀者:在這樣的狀況下,
既然你無法判斷誰對,那麼不管AI說誰對,你還是無法判斷不是嗎?
其實這很像以前的「奇摩知識家」。我之前玩了一段時間的「奇摩知識家」,發現很多上去問問題的人,其實並不具有判斷答案是否正確的能力。
於是,在提供答案的人超過一人的時候,他們就會舉辦「投票」,讓其他的讀者來幫他判別哪一個答案對。或者,他會選擇那個自稱自己是專家的人提供的答案(所以,就看誰比較敢--敢自稱自己是專家)。
因此,後來我在帶學生的時候,我都會警告他們不可以使用奇摩知識家當作參考文獻。
可以說:
「奇摩知識家」是 Web2 的群眾版 AI(工人智慧);而現在的AI,是Web3 的自動化知識家。
當然,AI還是比奇摩知識家要好一點。好在哪裡呢?好在你可以丟論文給他,他會幫你讀,告訴你這篇論文說了什麼。
不過,如果他說錯,而你很不幸的沒有能力判別,這時候你就會吸收到不正確的知識。
所以,在科學閱讀中,如果我們自己有足夠的專業能力,這時AI可以當作放大鏡,幫我們把細節看得更清楚。
例如在這篇關於「Zeawheat」 的論文裡,AI 可以幫我們把「electrofusion」的技術步驟翻譯成白話,或把「cybrid」的意義整理好,告訴我們為什麼「Zeawheat」不是玉米與小麥的混種。
但是,放大鏡只能幫助我們看清楚,不是「真理檢驗器」,無法告訴我們「這東西是真是假」。
也就是說,AI 適合用來「輔助理解」,但我們要自己確認資料來源。
在特定狀況下,AI也可以當作輔助輪,讓初學者不至於跌倒。
例如,當我們第一次學習 C3/C4 光合作用時,AI 可以給一個入門解釋,還可以幫我們比較兩者之間的差異,讓我們得到更清楚的概念。
但是,我們還是應該要去查課本、查論文。而且,如果永遠依賴輔助輪,就不會學會自己騎車(查資料)。
以入門來說,AI 適合用來「降低學習門檻」,但閱讀者也要自己培養獨立判斷的能力。
但是,AI也有可能變成假老師!因為AI會有「幻覺」。它會給你一個「看似有道理」的答案,而且口氣還很專業(一本正經說幹話)。
以「Zeawheat」這件事來說,如果 AI 把「Zeawheat」說成是「玉米×小麥混種」,外行人可能完全信以為真(事實上那個粉專上就有一堆人相信)。
這樣的狀況是非常危險的。因為「假老師」最大的問題不是「完全錯」,而是「對一半,錯一半」或「九分真,一分假」,讓我們以為自己懂了,卻不知道整個都建立在錯誤的基礎上。
這就是為什麼科學素養的建立很重要,因為只有具備基本專業的人,才能辨認出 AI 何時在「胡說八道」。
總而言之,AI 在科學閱讀中可以很有幫助,也可以成為完全的誤導者。關鍵在於使用者:
使用者有基礎 → AI 是放大鏡,幫使用者更快看懂。
使用者剛入門 → AI 是輔助輪,幫使用者穩住方向。
使用者完全沒有判斷能力 → AI 可能變成假老師,帶使用者走歪路。
因此,最重要的不是「AI 會不會騙人」,而是「使用者是否具備分辨 AI 的能力」。
在資訊過剩的時代,真正稀缺的是判斷力。沒有判斷力的人,就只能依賴「群眾票選」或「專家光環」,卻無法保證自己得到的是真知識。
所以,誰說用AI就不用讀書了?用AI更要多讀書!不讀書,當AI開始胡說的時候,就無法判別了!
「AI 不是幫你省掉讀書的時間,而是幫你把讀書的成果放大。」
「你讀得越多,AI 對你越有用;你讀得越少,AI 越容易騙你。」

圖片作者:ChatGPT