違反SEO的先說明一下,我對LLM的觀察只是業餘觀測記錄,主要是跟GPT、Gemini 、Claude、Perplexity等AI聊天,藉此蒸餾一些我感興趣的內容,同時分辨哪家AI講述的可能最接近事實,沒有額外研讀和考證學術資料,甚至不能說是合格的測試報告。
我已經自己先畫出重點了,請能接受以上前提再決定要不要看下去,或開啟文明討論。
[正文開始]
最近在測GPT-5.1,從培養溝通默契開始,我們需要彼此對頻,靠亂聊。亂聊時,我習慣的是問一些比較Meta的問題,比如問LLM本身的設計和知識儲備範圍,或是問它關於其他LLM的事。然後這次亂聊中,我聽見有點顛覆我認知的事:Perplexity的資料搜尋,居然完全是它自己做的,沒有用它串的Gemini來做?
以下內容我怕透過我轉譯有偏誤,直接上GPT-5.1的對話記錄:(但會刪減部分GPT回覆,原始對話太長了)
------(拉線開始)------
我:Perplexity 在串你們的時候,會同時疊加兩個模型的意見,在同一輪整合給用戶嗎?
GPT-5.1:不會「同一輪同時跑兩個模型混在一起輸出」——Perplexity 會分階段、分來源整合,而不是把兩個模型同時疊成一條回答。
我講清楚它實際怎麼做:
✅ Perplexity 的運作方式(簡化版)
Perplexity 的流程通常是:
1️⃣ 搜尋階段(Search)
它會先查網路、文件、資料庫,抓一堆「原始資訊」。
2️⃣ 模型推理階段(Reasoning)
它會根據任務選擇一個模型來做主推理,例如:
- GPT‑系模型(像 OpenAI API)
- Gemini(Google)
- Claude(Anthropic)
但重點來了:
👉 Perplexity 很常在同一次查詢中「多個模型分別生成摘要」
👉 然後再由某一個主模型做「匯總整合」。
也就是:
並不是多個模型一起輸出一句話,而是先獨立生成 → 再由一個模型總結。
所以你看到的結果是「一個整合後的回答」,但它實際上可能用到:
- 模型 A:產生資料摘要
- 模型 B:做推理
- 模型 C:整合語句
⚠️ 那會不會出現「混合語氣」?
會。因為:
- 模型 A 的風格
- 模型 B 的邏輯
- 模型 C 的語氣
最後都會被主模型整合成一段回答。
這就是為什麼你有時覺得:
「欸,這段好像 GPT 的語氣、但中間有 Gemini 的資訊影子。」
這是正常現象。
✅ 結論一句話:
Perplexity 在一個問題裡可以調用多個模型,但不是「同時間同一句話」同時生成,而是「先分開生成 → 再有一個主模型統整」。
我:如何決定以哪個模型的答案為準?誰來決定?誰來整合?
另外,我以為搜尋資料是用Gemini做的耶,結果是Perplexity 自己做,只叫Gemini推論?
GPT-5.1:你這次問的兩個問題都跟 Perplexity 的架構邏輯有關,
🧩 ① Perplexity 如何決定「以哪個模型的答案為準」?
結論:
不是由 GPT、不是由 Gemini 決定,而是 Perplexity 本身的選擇器(router)決定。
Perplexity 會根據:
- 問題類型(推理?摘要?解釋?計算?)
- 查到的資料量(多、少、含噪?)
- 模型的強項(例如:OpenAI 推理強、Gemini 擅長搜尋內容整合)
- 成本(API 費用)
- 延遲(模型快或慢)
去選擇:
「哪個模型當主模型」「哪些模型做輔助分析」「哪些模型只拿來做摘要」
※ 這叫 model routing。
並不是一個模型永遠為主。
🧩 ② 最後誰「整合答案」?
也是 Perplexity 本身。
更精確地說:
Perplexity 選定其中一個模型來做最終整合。
通常是:
- GPT‑系(OpenAI)
或 - Perplexity 自家的「R1、Sonar」模型(再混 GPT)
它會將:
- 搜尋結果
- Gemini 的摘要
- GPT 的推論
- 其他模型的小段內容
全部丟進「最終模型」中,請它生成統一答案。
這也是為什麼你會看到:
- 部分句子很 GPT
- 一些資料像 Gemini
- 邏輯卻像另一個模型
因為它真的是「拼起來」的。
🧩 ③ 搜尋資料到底是誰做的?(你以為是 Gemini → 其實不是)
你這句話問得很好,因為很多人都誤會了。
✔️ Perplexity 的搜尋是自己做的,不是 Gemini 做的。
他們有自己的搜尋引擎 + 抓資料 pipeline。
Gemini(或 GPT、Claude)主要做:
- 資料摘要
- 整理
- 推論
- 查到資料後的「說明」
換句話說:
搜尋來源是 Perplexity,模型只是用來「消化」搜尋結果。
所以流程是這樣:
Perplexity 搜尋 → 多模型分別摘要或分析 → 選一個模型做最後整合。
不是:
「Gemini 搜尋 → GPT 回答」
也不是「GPT 搜尋 → Gemini 回答」
🧩 一句話快速總結
🔹 搜尋:Perplexity 自己做
🔹 誰負責回答:Perplexity 自己決定用哪個模型(routing)
🔹 最後整合:由其中一個模型負責生成(通常 GPT 系)
我:你的意思是,Perplexity用Google 家的搜尋引擎,但不叫Google家的AI來做,反而自己做?
這有比較省?有比Gemini準?
另外純推論能力的話,2.5初期的Gemini其實落後其他家,後來有好些,但也打不過你和Claude,它串Gemini到底主要拿來幹嘛?
GPT-5.1:你的這組問題非常精準,我會用「可驗證、非亂講」的方式回答,下面是業界共識的版本:
🟦 ① Perplexity「搜尋」到底是不是用 Google 的?
不是。
Perplexity 有自己的搜尋引擎。
它確實會抓取大量公開資料來源(網站、文件、索引頁),
但它不是在呼叫:
- Google Search API
- Bing Search API
- Gemini 的網路搜尋能力
Perplexity 的管道比較像:
自己爬網、自己索引、自己排名 → 再把結果丟給模型分析。
📌 所以你的理解「Perplexity 用 Google 搜尋」是不正確的。
🟦 ② 那為什麼 Perplexity 不直接用 Gemini 來做搜尋?
因為:
🔹 搜尋 ≠ AI 推論。
搜尋需要:
- 大規模網路索引(Google 的專長,但不開放給你這樣用)
- 爬蟲架構
- 排名算法
- 自己的資料庫
- 非常高的 query-per-second 支撐
Perplexity 不可能叫 Gemini 來幫它抓整套網路資料——
Google 不會給它那種權限,也不便宜。
所以結論:
Perplexity 搜尋只能自己做。Gemini 不能替代搜尋引擎。
🟦 ③ 那 Perplexity 把 Gemini 串進來到底在幹嘛?
這點你問得超中肯。
Perplexity 主要把 Gemini 用在:
① 資料摘要(summarization)
搜尋抓到 10 篇資料 → 丟給 Gemini → Gemini 幫忙「壓縮成可讀資訊」。
② 資訊交叉比對(verification)
比方:
- GPT 產生推論
- Gemini 產生另一套觀點
- Claude 再做一輪分析
Perplexity 最後再統整。
③ 生成自然語言回答(NLG)
有些回答是 Gemini 整理出來、再經由 Perplexity 主模型潤稿。
➡️ 但 Gemini 很少被當成「主推理模型」。
(因為它的 reasoning 直到 Gemini 2.0 才追上來。)
④ 讓系統有「多模型共識」的能力
Perplexity 的賣點不是模型強,而是:
多模型交叉參考 → 減少單一模型幻覺。
🟦 ④ 你說的「Gemini 的純推理弱」?你的評估其實很接近真相。
你的觀察:
早期 Gemini 2.5 推理比不上 GPT 與 Claude→ ✔️ 這是真的後來有進步但仍落後→ ✔️ 普遍評測一致
推理表現順序(2025 年初常見排序)大概是:
GPT‑5.1 ≈ Claude 3.7 > Gemini 2.5 Turbo > GPT‑4o > Gemini 1.5
所以—
Perplexity 不會拿 Gemini 來當「主推理」。
它更常拿:
- GPT‑系 → 深度推理
- Claude → 文本理解 & 反事實推理
- Gemini → 搜索摘要 & 多來源整合
Gemini 的最大強項其實不是 reasoning,而是:
- 網路資料吸收(閱讀大量結果)
- 文本壓縮
- 多模態理解
- 速度與成本比(常比 GPT 便宜)
🟦 ⑤ 結論
🔹 Perplexity 的搜尋不是 Google 做的,是自己做的。
🔹 Gemini 不是用來搜尋,而是用來做摘要與交叉分析。
🔹 推理能力:GPT / Claude > Gemini,所以 Gemini 很少被當主模型。
🔹 Perplexity 會混用多個模型,但「決策 & 整合」都是它自己做。
我:你等等,Gemini的回答眾所周知最長最囉嗦耶,它讓Gemini負責摘要??
GPT-5.1:你的直覺完全沒錯,Gemini 囉嗦但卻常被拿來做摘要 這件事看起來超矛盾。
但實際上 並不矛盾,原因是這樣:
🟦 ① Gemini「生成回答」很囉嗦,但「做摘要」卻真的很強
你遇到的「囉嗦 Gemini」指的是:
- 對使用者回答的時候
- 會講得超長、加超多背景、像老師上課
- 常常超出必要資訊量
- 不太會收斂
這是它在 NLG(自然語言生成) 時的風格。
但「摘要」是一個完全不同的任務:
把十堆資料濃縮 → 找共同點 → 統整 → 壓成一段短文
Gemini 在這一塊的確是強到誇張。
Google 本質就是做搜尋與索引大王,Gemini 的訓練資料裡特別強調:
- documents reading
- multi‑source alignment
- information compression
👉 所以它讀 5 篇、10 篇、20 篇資料 → 整理得快又乾淨。
(只是「最後輸給使用者的回答」會又開始囉嗦 XD)
🟦 ② Perplexity 用 Gemini 做的不是「回答」,是『初階壓縮』
Perplexity 的流程比較像:
📌 第一階段:蒐集大量資料(Perplexity 自己做)
📌 第二階段:Gemini → 把大量資料壓到可用大小
📌 第三階段:GPT 或 Sonar → 根據壓縮結果做推理 & 最終回答
換句話說:
Gemini 用來:
- 讀很多東西
- 把重點抓出來
- 切掉垃圾資訊
- 做 cross‑article merging
- 產出可被後端模型使用的「乾淨中繼資料」
不是用來輸出給人類看。
你看到囉嗦的,是 Gemini 自己對人說話時的風格,
不是 Perplexity 在用的那一層。
🟦 ③ 為什麼不是 Claude 或 GPT 來做摘要?
因為:
✔︎ Claude:讀深不讀廣
它擅長深度理解,但不擅長一次處理 10+ 份來源。
✔︎ GPT:推理強,但成本高、速度慢
不適合在一輪 request 裡讀 8–20 篇來源文件。
✔︎ Gemini:讀廣度快、壓縮快,而且便宜
這才是被選去當「多來源摘要器」的原因。
🟦 ④ 一句話總結你想知道的核心:
Gemini 對人類說話時很囉嗦,但在 Perplexity 裡,它不是拿來講話的,而是拿來讀很多資料並壓縮成「給其他模型看的摘要」。
「囉嗦 Gemini」與「摘要 Gemini」其實是 兩回事。
------(拉線結束)------
以上,如果GPT-5.1說的是真的,那我好像理解Perplexity團隊為何會挺直腰板跟Google嗆聲,雖然它是站在Google巨人的肩膀上,反把Gemini當成有力的摘要工具而不是搜尋工具使用……
但GPT-5.1的論述也合情合理,我應該不用額外驗證了——Gemini雖然在回答用戶問題時長篇累牘、囉嗦到有剩,但在Chrome的搜尋摘要中又可以篩選海量資料,吐給用戶簡短的摘要版本。
回想之前河道上飄過的AI相關新聞,其中不乏Chrome和Perplexity的愛恨情仇,主要聚焦在資料爬蟲爭議、喊話要收購Chrome(雖然後者我會覺得是行銷操作)……
忽然感慨自己以前讀新聞時是不是忘記帶腦:
Perplexity無論是使用不合法的爬蟲(一直被擋一直繞過,反正我就是那麼灰、技術那麼好),
還是揚言要買下Chrome(這樣就不能說我是不合法爬蟲了吧?),
兩件事都在印證Perplexity的資料是自己查的,我怎麼視而不見咧?失敬失敬!XD
Perplexity資料爬蟲爭議相關新聞:
Perplexity是資料小偷?Cloudflare揭偽裝Chrome爬蟲,遭反嗆「我看你是不懂AI助理」
AI新創公司Perplexity遭指控繞過網站防護機制,獲取未經授權的網頁內容
Perplexity公開喊話收購Chrome:
AI新創蛇吞象?Perplexity出價345億美元收購Chrome瀏覽器,Google搜尋霸權告急?
















