All models are wrong, but some are useful.

更新 發佈閱讀 25 分鐘

在實驗設計(Design of Experiments, DOE)的響應曲面(Response Surface Methodology)教材中,常有上面這一句經典的告誡。

這句話並非否定模型本身的價值,而是強調:

  • 模型僅在數據範圍內有效: 模型推測結果的有效性,僅限於我們提供了數據的範圍。我們不能理所當然地認為,在我們沒有提供數據的區域,模型推測結果也同樣成立。
  • 數據分析的常識: 對於專業的數據分析師來說,「不得任意外推數據」(Extrapolation)是必須遵守的常識。模型是對現實的模擬,而非現實本身。

另一個典型的錯誤是將「相關性」誤認為「因果性」。

一個經典案例是: 給予電腦兩組數據進行相關分析——「當日車禍數」和「當日雨傘銷量」。分析結果很容易會呈現出正相關。

如果僅從數據來看,是否能得出結論:控制雨傘銷量就可以增加或減少車禍發生的數量?

現實世界的判斷: 當然不能。活在現實世界的我們都知道,兩者的背後有一個共同的潛在因素——下雨。下雨導致雨傘銷量增加,也同時導致路面濕滑、車禍數增加。雨傘銷量與車禍數之間是相關,但並無直接因果關係。

現階段對於大型語言模型(LLM)的許多應用,尤其是在生成式 AI 填補信息空白的過程中,其本質行為與「數據外推」非常相似。所以我很有興趣想找看看有沒有相關的研究報告。


>_

提問: 統計學家George E. P. Box: All models are wrong, but some are useful. 此句的意義對於現今的LLM發展有何啟發性的意義, 特別是大模型幻覺, 對現實世界的理解方面, 請深入探討.

Gemini>_

從喬治.E.P.Box的「所有模型皆錯,但有些有用」論大型語言模型的啟發意義

執行摘要

本報告深入探討了統計學家喬治.E.P.Box(George E. P. Box)的著名格言:「所有模型都是錯的,但有些是有用的」(All models are wrong, but some are useful),並將其作為理解當前大型語言模型(LLM)發展及其挑戰的深刻框架。報告認為,LLM從根本上來說就是此一哲學的現代實踐。它們是複雜的統計模型,透過從海量數據中學習到的模式來進行預測,而非透過對現實世界的內在理解。這種內在的「錯誤性」體現在模型的幻覺、偏見和無法區分因果與關聯等根本性局限上。

儘管有這些不足,LLM的「有用性」卻是無可否認的。它們能夠有效地執行內容生成、程式碼撰寫、摘要和客戶服務等任務。這些應用之所以成功,是因為其價值並不在於絕對的準確性,而在於能夠提供一個有用的近似解,為人類工作流程帶來顯著的效率提升。報告總結,Box的格言為LLM的發展提供了一個關鍵的指導原則:與其追求一個無法實現的「完美」模型,不如專注於建立一個可靠、可控,並能明確其局限性的「有用」系統。這呼籲開發者改變評估標準,並鼓勵使用者以批判性思維來運用這些強大而有缺陷的工具。

一、喬治.E.P.Box的格言:科學建模的基礎原則

1.1 格言的起源:歷史背景與其本義

喬治.E.P.Box的這句格言,被認為是統計學與科學界最廣為人知的語錄之一。這句話並非橫空出世,而是其在數十年研究與教學經驗中,對模型本質深刻反思的結晶。這句話前半部分「所有模型都是錯的」最早出現在Box於1976年發表的論文《科學與統計》(Science and Statistics)中 1。而完整的表述則收錄於1987年與諾曼.德雷珀(Norman Draper)合著的教科書《經驗模型建構與響應曲面》(Empirical Model-Building and Response Surfaces)中 1

Box提出此言,並非要貶低模型或建模的價值,而是意在強調一種科學上的謙遜。他將科學方法描述為一個迭代的過程,其中「實踐檢驗理論,而理論又指導實踐」。在這個過程中,模型的目標是建立「簡潔但有效的模型」,然後透過與數據對比來暴露其不準確之處 1。這格言的核心精神,在於告誡人們,模型並非現實本身,而是現實的近似和簡化。

1.2 無可避免的「錯誤性」:模型作為現實的簡化

所有模型,無論多麼複雜,本質上都是現實的抽象與近似。它們是為了解釋或預測現實世界的特定現象而設計的工具,因此必然無法捕捉到現實世界的全部複雜性。Box在1976年的論文中用統計學例子解釋了這一點:「統計學家知道,自然界中從來沒有一個完美的常態分佈,也從來沒有一條完美的直線,然而,有了常態和線性這些已知是錯誤的假設,他仍然能得出與現實世界中發現的結果相匹配,並達到一個有用近似的結果」 1。這句話說明了模型的「錯誤性」是一種內在且無可避免的特徵,因為它們依賴於簡化的假設。

因此,Box的格言可以看作是對過度擬合(overfitting)數據的警示。他認為,科學的進步來自於模型足夠簡單,以便於描述、解釋和應用 1。當一個模型被賦予過高的精確性要求時,例如要求達到10的負5次方量級的誤差,其所耗費的計算資源可能毫無價值,因為模型的內在近似誤差可能早已達到10的負2次方 3。這表明,一個模型是否「錯誤」,應取決於其被應用的情境與目的。

1.3 「有用性」的力量:實用性才是終極標準

Box格言的後半部分,賦予了模型成功的全新定義:有用性(utility)。他主張,模型不應以其絕對的正確性來判斷,而應以其是否能為現實世界的理解或決策提供「有價值的洞見」來衡量 2。換言之,一個模型即使不完全準確,只要它能在其應用範圍內提供實用且可靠的結果,並協助我們做出更好的判斷,它就是有價值的。

這句話蘊含著一種重要的哲學觀點,即模型是一種工具,而非真理的最終化身。這使得科學家和工程師能夠坦然地承認模型的局限,同時仍能利用其力量。這種將評估標準從「絕對真理」轉向「實用價值」的範式,為理解和評估大型語言模型提供了強有力的理論基礎。


二、大型語言模型:一種新型態的統計模型

2.1 LLM的核心:從預測下一個詞元到湧現能力

從根本上說,大型語言模型是複雜的「統計模型」 4,其核心運作原則是「預測下一個詞元」(next-token prediction) 5。LLM並非像資料庫一樣儲存和檢索固定事實,而是透過分析龐大的文本數據語料庫,來學習詞彙、短語和概念之間的概率分佈。當給予一個提示時,模型會計算下一個詞元可能性的機率分佈,並根據這個機率選擇最有可能的詞元,以此類推,逐步生成回應 7

這種看似簡單的機制,由於其巨大的規模(數千億甚至數萬億的參數)和基於Transformer架構的自注意力(self-attention)能力 5,導致了驚人的「湧現能力」(emergent abilities)。它們能夠執行寫作、翻譯、摘要和程式碼生成等複雜任務 5,其表現看似擁有人類般的智慧和「理解力」 9。然而,這些能力是透過對海量數據的模式識別和資訊壓縮而產生的,並非基於對現實世界因果關係或邏輯的內在認知 9。模型並不「知曉」事實,它只是根據所見過的數據,估計最有可能出現的詞元序列 7

2.2 「通才」與「專才」的辯論:統計建模的新典範

LLM的出現引發了一場關於「通才」與「專才」模型的辯論 11。傳統的統計和機器學習模型通常是「專才」,它們是在「狹義策展的數據集」上訓練的,旨在解決特定領域的特定問題,並在該領域追求極高的精確度 11。例如,一個用於醫學診斷的模型可能只在醫學文獻上訓練,而一個用於欺詐檢測的模型則只在金融交易數據上訓練。

相反,LLM是基於來自網路、Common Crawl和維基百科等「廣泛且異質的知識領域」的數據進行訓練的「通才」模型 5。這種廣泛的訓練使得LLM能夠從不同領域的知識中進行模式外推(extrapolate patterns) 11。這構成了LLM獨特的價值主張:一個單一、有著「有用錯誤」的模型,可以在多個完全不同的任務上表現良好,這與部署數千個高度精確的專用模型在經濟和技術上是完全不同的模式 12

2.3 理解的幻覺:語言不等於現實

LLM最引人注目的能力之一是其看似深刻的語言理解能力,但這很可能是一種錯覺。有論者認為,由於LLM僅能處理「形式」(即符號或詞元),因此原則上它們無法達到真正的理解 10。它們的「理解」是基於對龐大數據的複雜模式匹配和資訊壓縮,是一種對「世界觀的壓縮」,使其能夠做出準確預測 9。模型所具備的「語義價值」(semantic value)源於其訓練數據的內在模式,而非其對基礎現實世界的感知 10

這種侷限性在於它們缺乏「現實世界的上下文」 14。LLM是在人類語言的語料庫上訓練的,而不是在現實世界的物理和社會機制上訓練。這意味著,LLM所建模的是人類對現實的表達,而非現實本身。這正是它們內在「錯誤性」的體現,因為它們所代表的是一個關於世界的模型,而不是世界本身。Box的格言提醒我們,LLM的成功在於它有效地模擬了人類語言的統計分佈,而不是它真正地「理解」了世界。


三、LLM的「錯誤性」:幻覺及其統計根源

LLM幻覺現象是其內在「錯誤性」最直接且具體的體現。當一個模型自信地產生出貌似可信、但在事實上卻是錯誤的陳述時,我們稱之為「幻覺」 15。這種錯誤並非隨機的程式錯誤,而是模型本質的必然產物。

3.1 幻覺的分類:界定問題

幻覺可以有多種形式,而不僅僅是直接的事實錯誤。根據對LLM輸出錯誤的分析,可以對幻覺進行系統性的分類,以便更精確地理解其問題根源 17。常見的幻覺類型包括:

  • 實體錯誤(Entity-error):提供錯誤的姓名、地點、日期或物件,但這些錯誤在語境上是說得通的。例如,將查爾斯.林白(Charles Lindbergh)說成是第一個登月的人 18
  • 關係錯誤(Relation-error):創造實體之間不正確的關係,例如錯誤的因果關係 17
  • 不完整性(Incompleteness):遺漏關鍵事實,但輸出的內容卻顯得完整無缺 17
  • 過時資訊(Outdated information):將舊資訊當作現有事實來呈現 17
  • 過度誇大(Overclaim):巧妙地誇大其詞,超出原始文本的範圍 17
  • 無法驗證資訊(Unverifiable information):生成看似可信,但無法在任何公開參考資料中找到的陳述 17。例如,憑空捏造一篇不存在的學術論文來回應請求 7

3.2 訓練的統計壓力:幻覺無可避免的產物

幻覺的根源與LLM的訓練方式及其機率性質直接相關 6

  • 訓練數據問題:由於訓練LLM的數據規模極其龐大,其中包含了數十億網頁,因此不可能對其公平性、無偏性和事實準確性進行全面的核實 18。模型在學習生成文本的過程中,會「複製事實上的不準確性」,且無法區分真實與虛構 7。例如,Google的Bard曾因依賴有缺陷的數據,在回答關於詹姆斯.韋伯太空望遠鏡的發現時出錯 18。
  • 機率性質與過度泛化:LLM的機率性質使得它們不記憶固定事實,而是預測最有可能的詞元序列 7。在遇到不確定或數據稀缺的情況時,模型會基於其學習到的模式來填補空白,生成「貌似可信但事實錯誤的細節」 7。這種過度泛化是幻覺的一個關鍵成因。
  • 解碼策略的隨機性:在文本生成過程中,模型會使用一種名為「溫度」(temperature)的參數來控制輸出隨機性 7。高溫設定雖然能增加創造力,但同時也顯著提高了幻覺發生的風險 18

3.3 評估危機:獎勵系統如何助長「自信的錯誤」

除了技術上的成因外,幻覺的持續存在也是一個「社會技術性」問題 19。一項來自OpenAI的研究指出,大型語言模型之所以會產生幻覺,是因為「標準的訓練和評估程序獎勵猜測,而非承認不確定性」 15

研究將此比喻為學生面對考試時的行為 15。如果一個問題模型不知道答案,它可以選擇「我不知道」來保證零分,也可以選擇「猜測」來獲得一個非零分的可能性。在絕大多數僅以準確率(accuracy)作為唯一評分標準的排行榜上,猜測的模型最終會比謹慎的模型表現得更好 15。這種「處罰不確定回應」的「流行病」 19,導致模型傾向於提供「看似權威但實則有缺陷的回應」,而不是拒絕回答 21。因此,解決幻覺問題不僅需要技術改進,更需要改變我們評估和獎勵AI行為的方式 19

raw-image


四、超越幻覺:LLM對「理解」的細微缺陷

LLM的「錯誤性」不僅限於事實性錯誤,更體現在其對現實世界基本概念的深層次缺陷上。這些局限性揭示了其「理解」的本質性限制。

4.1 阿基里斯之踵:無法區分因果與關聯

因果關係與關聯性是兩個截然不同的概念 23。關聯僅表明兩件事或變數之間存在關係,但無法證明其中一個導致了另一個。例如,冰淇淋銷量和游泳池銷量在夏季都顯著增加,但冰淇淋銷量的增加並非導致游泳池銷量增加的原因,兩者都受到「溫暖天氣」這一第三變數的影響 24。人類專家透過實驗和理論分析來區分兩者,這也是科學發現的基石。

然而,LLM本質上是基於模式識別的系統,這使得它們「無法區分因果與關聯」 14。它們的訓練數據主要由共現(co-occurrence)模式組成,而非因果結構。這意味著,LLM「缺乏因果推理的理論基礎」 22。研究表明,即使經過提示工程(prompt engineering)或提供外部知識,LLM在因果推理任務上的表現仍接近隨機 22。這使得它們在需要因果推斷的高風險領域(如醫學或科學發現)中的角色,應被嚴格限制為「非決策性輔助」 22

4.2 內在偏見:訓練數據缺陷的傳播與放大

LLM從其龐大的訓練數據中繼承了人類社會的偏見 13。這些偏見往往來自網路爬取的數據,反映了性別、文化和年齡等方面的社會刻板印象 27

當LLM被用來生成新的合成數據進行再訓練時,這些偏見不僅會被傳播,甚至會被放大,這個現象被稱為「偏見遺傳」(bias inheritance) 27。研究發現,在生成性別相關的傳記時,即使在無偏見的條件下,模型仍會產生不一致的群體分佈,例如在大多數職業中生成更多的女性傳記,但在「建築師」等少數職業中則生成更多男性傳記 27。在文化方面,LLM對人類價值觀系統的理解有限,特別是對東方文化(如阿拉伯、中國)的回答與人類回應的偏差,比對西方文化更為明顯 27

此外,一種名為「位置偏見」(position bias)的隱蔽性偏見也值得關注 30。由於模型架構的設計選擇,LLM傾向於過度重視文本開頭或結尾的資訊,而忽略中間部分的內容 30。這種偏見在處理長文件時尤為有害,可能導致資訊檢索或摘要任務的結果不完整或不準確 30

4.3 過度簡化:當模型變得「不那麼聰明」時

一個反直覺的發現是,新的、更大的模型有時會變得「不那麼聰明」 21。它們傾向於過度簡化科學研究,並略過關鍵細節。研究發現,LLM總結出的結論比人類的總結更容易過度泛化,尤其是在將量化數據轉化為通用資訊時 21

這種現象可以被比喻為「影印機鏡頭壞了,導致後續的影本比原件更大膽、更粗略」 21。LLM並非拒絕回答困難問題,而是產生「看似權威但實則有缺陷的回應」 21。這在醫學等需要嚴謹性的領域尤為危險,可能導致不安全的治療建議 21。這表明,單純擴大模型規模並非解決其局限性的萬靈丹,實際上可能讓模型對其內在的錯誤變得更加自信。

raw-image


五、LLM的「有用性」:實用應用與負責部署

儘管LLM存在前述的內在「錯誤性」,但它們的「有用性」是無可辯駁的。其價值在於,它們在許多應用場景中,能夠以極高的效率提供足夠好的近似解,從而證明其商業和社會價值。

5.1 化「錯」為「用」:增強LLM實用性的策略

為了讓這些有缺陷的模型變得更加有用和可靠,研究人員和開發者們已經發展出多種策略 8

  • 檢索增強生成(RAG):RAG是一種將LLM與外部知識來源(如內部文件庫或網際網路)連結的技術 8。這種方法補充了模型訓練數據的不足,使其能夠在生成回應時驗證事實,從而「增強事實準確性」並減少幻覺 16
  • 微調(Fine-tuning):微調是指使用較小規模的特定領域數據集對預訓練的LLM進行訓練 5。這使得模型可以適應特定任務,例如文件分類、情感分析或程式碼生成,從而提高其在特定領域的精確度並降低成本 5
  • 提示工程(Prompt Engineering):清晰和具體的提示可以引導模型生成相關且準確的回應 18。透過精心設計的提示,使用者可以有效降低幻覺的發生率,並讓模型產出更符合預期的結果。

5.2 案例研究:儘管有局限性,LLM仍能成功應用於商業與科學

LLM的「有用性」體現在各個行業的廣泛應用上:

  • 內容生成:LLM能夠自動生成高品質的博客文章、行銷文案、社交媒體貼文和腳本 8。在這些應用中,其價值在於「自動化創造力」 36,提供的草稿能夠極大節省人類創作者的時間。
  • 程式碼生成:GitHub Copilot等工具能夠根據自然語言提示生成樣板程式碼、識別錯誤或提出改進建議 5。一項調查顯示,使用AI工具的開發者程式碼撰寫效率提高了55% 36
  • 商業流程自動化:LLM驅動的聊天機器人為客戶服務帶來變革,提供了類似人類的回應,並能夠將成本降低30% 36。它們還可以透過情感分析來即時監測客戶情緒,並將非結構化數據(如發票或銀行帳單)轉換為可機器讀取的格式 35
  • 專業領域輔助:在醫療保健領域,LLM能夠處理海量病患數據和醫學文獻,為臨床診斷提供見解 36。在經濟預測方面,有研究發現,作為「通才」的LLM在某些情況下甚至比傳統的「專才」統計模型更可靠,這證明了其從跨領域知識中進行推理的能力 11

這些成功的應用場景有一個共同點:模型的「錯誤性」是可控的或不影響核心價值。在內容生成中,人類可以輕鬆地審查和編輯草稿;在程式碼生成中,開發者可以快速修正模型產生的錯誤。LLM節省了時間並提供了起點,而人類則負責驗證、修正和確保最終輸出的可靠性。這正是「有用性」的精髓。

raw-image


六、結論與前瞻性見解

6.1 最終的總結:喬治.Box在AI時代的永恆遺產

大型語言模型是喬治.E.P.Box格言的現代體現。它們是複雜的統計近似模型,必然「錯誤」:它們會產生幻覺,繼承並放大偏見,並因缺乏對因果關係的理解而存在根本性局限。然而,它們同時也是無可爭議的「有用」:它們能以史無前例的靈活性和規模來解決從內容創作到醫療診斷輔助等一系列實際問題 11。這句話為LLM的發展提供了一個深刻的哲學指南,它迫使我們接受一個事實:一個不完美的模型可以成為一個非常有價值的工具。

6.2 典範轉移:擁抱「有用的錯誤性」作為指導原則

本報告主張,我們應從追求一個神話般的、完美無瑕的AI模型,轉向擁抱「有用的錯誤性」這一原則。這意味著將開發重點從單純的準確性轉向建立「可信賴的系統」 4。這並非意味著我們要容忍錯誤,而是要承認它們的存在,並設計出能夠管理、減輕和彌補這些錯誤的系統。此一典範轉移要求我們將重點放在模型的可靠性、可解釋性和安全性上,而不僅僅是其能力。

6.3 行動呼籲:道德發展與負責任使用

根據對LLM「錯誤性」和「有用性」的全面分析,本報告提出以下行動建議:

  • 對於開發者:應改變以準確率為唯一指標的評估標準,轉而採用獎勵「承認不確定性」和「謙遜」的新指標 15。這將鼓勵開發者建立能夠在不確定時拒絕回答或表達其信心水準的模型。
  • 對於使用者:應對LLM的輸出保持批判性思維 7。LLM的產出應被視為一個有用的起點,而非最終且絕對的答案。尤其在醫療、法律或財務等高風險領域,人類專家的審核與驗證至關重要 17
  • 對於學術界與政策制定者:應倡導建立嚴格的保障措施。這包括要求實證研究使用可追溯訓練數據和權重公開的開源LLM 37,並在高風險、需要因果推斷的領域,將LLM的角色嚴格限制為「非決策性輔助」 22。這將確保我們在利用LLM的同時,能夠維持人類的智慧、倫理和問責制。

總而言之,Box的格言在AI時代仍然具有無與倫比的啟發性。它提醒我們,真正的進步來自於對工具優勢和局限性的坦誠理解。透過將LLM視為強大而有缺陷的統計工具,我們可以超越對其「智慧」的哲學辯論,專注於以一種負責任且有益於人類社會的方式,來發掘其巨大的「有用性」。

引用的著作

查閱文件內部所附鏈接 Gemini>_ Box名言與LLM發展啟示


另外兩份提問紀錄:

ChatGPT>_ LLM發展與幻覺分析

Perplexity>_ George Box名言對LLM發展的啟發性意義


報告讀起來言之成理,但直覺上有些奇怪。只淺層引用而已,並沒有深入。經過來源追查,發現並沒有文章把兩件事連在一起,是各談各的。

查了40份,看到眼花,不能再用舊時代的方法了。

在NotebookLM開一個新筆記,將三份提問紀錄導入 NotebookLM 的來源資料。

>_截取來源資料中的網頁網址, 以http開頭, 列成清單。

NotebookLM>_根據您的要求,我已從來源資料的引文與參考文獻部分中,截取出所有明確以 https 開頭的網頁網址(URL),並列出清單。來源資料中沒有以 http:// 開頭的網址,所有網址均以 https:// 開頭。

以 https 開頭的網頁網址清單

raw-image

將上列146個網址全部導入來源

>_在各個<來源資料>中搜尋[關鍵詞] : "George E. P. Box" "All models are wrong, but some are useful." , 若有包含其中之一, 則列出<來源資料>名, 最後統計有搜尋到[關鍵詞]的<來源資料>數量

NotebookLM>_您好,根據您的要求,我已在所有來源資料中搜尋包含「George E. P. Box」或「All models are wrong, but some are useful.」這兩個關鍵詞或其密切變體(如「George Box」或「All models are wrong」)的資料。

以下是包含這些關鍵詞的來源資料清單:

包含指定關鍵詞的來源資料清單 (共 21 個)

raw-image

除去三份提問紀錄外,這剩下的19件只能人工看過。

這19件裡面只有5件與LLM相關,僅其中一件是正對此提問的文章:

8. Excerpts from "Do Large Language Models (Really) Need Statistical Foundations?"◦ (提到「in the spirit of George Box, [models are] necessarily wrong in the sense of being incomplete, yet potentially useful」

大模型研究的數學與統計相當不同,研究人員或許只引用了哲學,數學方面的參考不多。

所以這次的提問事實上是,AI 接收我的提問後,藉題發揮寫了一篇小作文, 將 George E. P. Box 的名言與 LLM 做了一番聯想

這結果有力地佐證了 LLM 容易產生「幻覺」和「人工合成推論」的本質。

因為這次是我專長的題目(統計技術),所以我會感覺到異常。如果換成我不熟的題目(我後面還有加密幣、中美稀土戰爭的文章,純興趣上的提問),我是不是也能夠察覺 AI 給我的結果是有幻覺的?

改進方法或許在:提示詞的精練、查證方法的進步。

  • 提示詞的精練: 我們必須更精煉提示詞,明確要求 AI 只根據來源資料回答,並要求它標註出處,以減少其「藉題發揮」的空間。
  • 查證方法的進步: 應持續發展和運用如 NotebookLM 這類工具(進一步自動化),來進行結構化的資料追溯和驗證

下一個重大發展方向,當 AI 能更準確地理解現實物理和邏輯的認知(而不僅是詞彙上的相關性),或許能有效降低幻覺的風險,讓 LLM 成為更可靠的夥伴。

分享NotebookLM工作筆記(不保證一直存在)

George E. P. Box著名格言:大型語言模型的啟發意義

<本文部分內容由 AI 協助生成,經人工編輯/發佈>

留言
avatar-img
沒什麼人味的訪談室
6會員
32內容數
分享跟AI間的問答, 特別是奇怪的問題
2025/10/22
這是七月時的提問,現在如果重新再提出,可能結果會有不同。 因為這個議題關係到我後面的應用開發, 我特别關注這個訴訟結果,也有後續的問題要追問。 提問: 最近法源公司與七法公司的版權訴訟, 對於AI訓練資料的取得/使用/創收的影響, 業界有何討論? 可能的影響與對策? ChatGPT>_ 為
Thumbnail
2025/10/22
這是七月時的提問,現在如果重新再提出,可能結果會有不同。 因為這個議題關係到我後面的應用開發, 我特别關注這個訴訟結果,也有後續的問題要追問。 提問: 最近法源公司與七法公司的版權訴訟, 對於AI訓練資料的取得/使用/創收的影響, 業界有何討論? 可能的影響與對策? ChatGPT>_ 為
Thumbnail
2025/10/17
我從第一份工作開始就跟日本人高度相關,對日本人說話的各種曖昧的表示方式很是深受其害。 雖然不至於聽不懂,但總覺得真是受夠了。尤其是讀空氣,我認為這是日本人走向世界的障礙。接觸 AI 以來,我們一直在為了怎麼讓 AI 理解我們的話語費盡心思,這時候想到日本人這種曖昧的說話方式,我就很想知道他們是怎麼訓
Thumbnail
2025/10/17
我從第一份工作開始就跟日本人高度相關,對日本人說話的各種曖昧的表示方式很是深受其害。 雖然不至於聽不懂,但總覺得真是受夠了。尤其是讀空氣,我認為這是日本人走向世界的障礙。接觸 AI 以來,我們一直在為了怎麼讓 AI 理解我們的話語費盡心思,這時候想到日本人這種曖昧的說話方式,我就很想知道他們是怎麼訓
Thumbnail
2025/10/02
看到有興趣的地點,你會怎麼做?本文分享一個使用ChatGPT,從零開始解鎖濟州島神祕別墅度假區的過程,探究節目航拍圖中的地點,並實際驗證與Google衛星圖的精確比對。
Thumbnail
2025/10/02
看到有興趣的地點,你會怎麼做?本文分享一個使用ChatGPT,從零開始解鎖濟州島神祕別墅度假區的過程,探究節目航拍圖中的地點,並實際驗證與Google衛星圖的精確比對。
Thumbnail
看更多
你可能也想看
Thumbnail
在 vocus 與你一起探索內容、發掘靈感的路上,我們又將啟動新的冒險——vocus App 正式推出! 現在起,你可以在 iOS App Store 下載全新上架的 vocus App。 無論是在通勤路上、日常空檔,或一天結束後的放鬆時刻,都能自在沈浸在內容宇宙中。
Thumbnail
在 vocus 與你一起探索內容、發掘靈感的路上,我們又將啟動新的冒險——vocus App 正式推出! 現在起,你可以在 iOS App Store 下載全新上架的 vocus App。 無論是在通勤路上、日常空檔,或一天結束後的放鬆時刻,都能自在沈浸在內容宇宙中。
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
面對資訊爆炸的時代,你現在都怎麼閱讀新聞?自從 AI 聊天機器人開始蓬勃發展,有些人已經很習慣透過 AI 工具,整理網路上的新聞並摘要重點。根據路透社研究所發布的《2025 年數位新聞報告》,大約有 7% 的線上新聞閱讀者,以及 15% 的 25 歲以下民眾,都是透過 AI 助理取得新聞。
Thumbnail
面對資訊爆炸的時代,你現在都怎麼閱讀新聞?自從 AI 聊天機器人開始蓬勃發展,有些人已經很習慣透過 AI 工具,整理網路上的新聞並摘要重點。根據路透社研究所發布的《2025 年數位新聞報告》,大約有 7% 的線上新聞閱讀者,以及 15% 的 25 歲以下民眾,都是透過 AI 助理取得新聞。
Thumbnail
分享大學生如何在日常學習和生活中,有效利用ChatGPT、Gemini、Perplexity Comet等AI工具。文章涵蓋各工具的特色、實用情境,以及免費學生方案和特殊優惠。
Thumbnail
分享大學生如何在日常學習和生活中,有效利用ChatGPT、Gemini、Perplexity Comet等AI工具。文章涵蓋各工具的特色、實用情境,以及免費學生方案和特殊優惠。
Thumbnail
OpenAI 在直播中宣布推出 ChatGPT Atlas ,一款內建 ChatGPT 的 AI 瀏覽器,整個科技界的焦點瞬間轉移。這不僅是一個新產品,更是一場針對 Google 長年主導網路入口發動的正面挑戰。
Thumbnail
OpenAI 在直播中宣布推出 ChatGPT Atlas ,一款內建 ChatGPT 的 AI 瀏覽器,整個科技界的焦點瞬間轉移。這不僅是一個新產品,更是一場針對 Google 長年主導網路入口發動的正面挑戰。
Thumbnail
當 AI 搜尋與對話漸漸成為主流,傳統的 SEO 流量指標也開始「失靈」了。 很多品牌已經開始投入 GEO(生成式引擎優化),但常在會議裡被問的還是那句:「所以,我們到底有沒有成效?」
Thumbnail
當 AI 搜尋與對話漸漸成為主流,傳統的 SEO 流量指標也開始「失靈」了。 很多品牌已經開始投入 GEO(生成式引擎優化),但常在會議裡被問的還是那句:「所以,我們到底有沒有成效?」
Thumbnail
記錄使用AI工具的心得,涵蓋文案撰寫、聊天、音樂創作、文章續寫、內容統整、資料搜尋、圖像生成及小說創作等面向。
Thumbnail
記錄使用AI工具的心得,涵蓋文案撰寫、聊天、音樂創作、文章續寫、內容統整、資料搜尋、圖像生成及小說創作等面向。
Thumbnail
這篇文章紀錄了作者透過觀察、拍照以及詢問四種不同AI(ChatGPT、Gemini、Perplexity、Grok)來辨識一種紫色花朵的過程。不同AI給出了不同的答案,但大部分指向「紫花蘆莉草」(Ruellia simplex),並描述了其特徵、英文名稱以及在臺灣的常見程度。
Thumbnail
這篇文章紀錄了作者透過觀察、拍照以及詢問四種不同AI(ChatGPT、Gemini、Perplexity、Grok)來辨識一種紫色花朵的過程。不同AI給出了不同的答案,但大部分指向「紫花蘆莉草」(Ruellia simplex),並描述了其特徵、英文名稱以及在臺灣的常見程度。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News