LLM隨筆:原來Gemini是這樣為Perplexity「打工」的嗎?

更新 發佈閱讀 15 分鐘
違反SEO的先說明一下,我對LLM的觀察只是業餘觀測記錄,主要是跟GPT、Gemini 、Claude、Perplexity等AI聊天,藉此蒸餾一些我感興趣的內容,同時分辨哪家AI講述的可能最接近事實,沒有額外研讀和考證學術資料,甚至不能說是合格的測試報告。
我已經自己先畫出重點了,請能接受以上前提再決定要不要看下去,或開啟文明討論。


[正文開始]

最近在測GPT-5.1,從培養溝通默契開始,我們需要彼此對頻,靠亂聊。亂聊時,我習慣的是問一些比較Meta的問題,比如問LLM本身的設計和知識儲備範圍,或是問它關於其他LLM的事。

然後這次亂聊中,我聽見有點顛覆我認知的事:Perplexity的資料搜尋,居然完全是它自己做的,沒有用它串的Gemini來做?


以下內容我怕透過我轉譯有偏誤,直接上GPT-5.1的對話記錄:(但會刪減部分GPT回覆,原始對話太長了)

------(拉線開始)------

我:Perplexity 在串你們的時候,會同時疊加兩個模型的意見,在同一輪整合給用戶嗎?

GPT-5.1:不會「同一輪同時跑兩個模型混在一起輸出」——Perplexity 會分階段、分來源整合,而不是把兩個模型同時疊成一條回答。

我講清楚它實際怎麼做:


✅ Perplexity 的運作方式(簡化版)

Perplexity 的流程通常是:

1️⃣ 搜尋階段(Search)

它會先查網路、文件、資料庫,抓一堆「原始資訊」。

2️⃣ 模型推理階段(Reasoning)

它會根據任務選擇一個模型來做主推理,例如:

  • GPT‑系模型(像 OpenAI API)
  • Gemini(Google)
  • Claude(Anthropic)

但重點來了:

👉 Perplexity 很常在同一次查詢中「多個模型分別生成摘要」

👉 然後再由某一個主模型做「匯總整合」。

也就是:

並不是多個模型一起輸出一句話,而是先獨立生成 → 再由一個模型總結。

所以你看到的結果是「一個整合後的回答」,但它實際上可能用到:

  • 模型 A:產生資料摘要
  • 模型 B:做推理
  • 模型 C:整合語句

⚠️ 那會不會出現「混合語氣」?

會。因為:

  • 模型 A 的風格
  • 模型 B 的邏輯
  • 模型 C 的語氣

最後都會被主模型整合成一段回答。

這就是為什麼你有時覺得:

「欸,這段好像 GPT 的語氣、但中間有 Gemini 的資訊影子。」

這是正常現象。


✅ 結論一句話:

Perplexity 在一個問題裡可以調用多個模型,但不是「同時間同一句話」同時生成,而是「先分開生成 → 再有一個主模型統整」。


我:如何決定以哪個模型的答案為準?誰來決定?誰來整合?

另外,我以為搜尋資料是用Gemini做的耶,結果是Perplexity 自己做,只叫Gemini推論?

GPT-5.1:你這次問的兩個問題都跟 Perplexity 的架構邏輯有關,


🧩 ① Perplexity 如何決定「以哪個模型的答案為準」?

結論:

不是由 GPT、不是由 Gemini 決定,而是 Perplexity 本身的選擇器(router)決定。

Perplexity 會根據:

  • 問題類型(推理?摘要?解釋?計算?)
  • 查到的資料量(多、少、含噪?)
  • 模型的強項(例如:OpenAI 推理強、Gemini 擅長搜尋內容整合)
  • 成本(API 費用)
  • 延遲(模型快或慢)

去選擇:

「哪個模型當主模型」「哪些模型做輔助分析」「哪些模型只拿來做摘要」

※ 這叫 model routing

並不是一個模型永遠為主。


🧩 ② 最後誰「整合答案」?

也是 Perplexity 本身。

更精確地說:

Perplexity 選定其中一個模型來做最終整合。

通常是:

  • GPT‑系(OpenAI)
  • Perplexity 自家的「R1、Sonar」模型(再混 GPT)

它會將:

  • 搜尋結果
  • Gemini 的摘要
  • GPT 的推論
  • 其他模型的小段內容

全部丟進「最終模型」中,請它生成統一答案。

這也是為什麼你會看到:

  • 部分句子很 GPT
  • 一些資料像 Gemini
  • 邏輯卻像另一個模型

因為它真的是「拼起來」的。


🧩 ③ 搜尋資料到底是誰做的?(你以為是 Gemini → 其實不是)

你這句話問得很好,因為很多人都誤會了。

✔️ Perplexity 的搜尋是自己做的,不是 Gemini 做的。

他們有自己的搜尋引擎 + 抓資料 pipeline。

Gemini(或 GPT、Claude)主要做:

  • 資料摘要
  • 整理
  • 推論
  • 查到資料後的「說明」

換句話說:

搜尋來源是 Perplexity,模型只是用來「消化」搜尋結果。

所以流程是這樣:

Perplexity 搜尋 → 多模型分別摘要或分析 → 選一個模型做最後整合。

不是:

「Gemini 搜尋 → GPT 回答」

也不是「GPT 搜尋 → Gemini 回答」


🧩 一句話快速總結

🔹 搜尋:Perplexity 自己做

🔹 誰負責回答:Perplexity 自己決定用哪個模型(routing)

🔹 最後整合:由其中一個模型負責生成(通常 GPT 系)


我:你的意思是,Perplexity用Google 家的搜尋引擎,但不叫Google家的AI來做,反而自己做?

這有比較省?有比Gemini準?

另外純推論能力的話,2.5初期的Gemini其實落後其他家,後來有好些,但也打不過你和Claude,它串Gemini到底主要拿來幹嘛?

GPT-5.1:你的這組問題非常精準,我會用「可驗證、非亂講」的方式回答,下面是業界共識的版本:


🟦 ① Perplexity「搜尋」到底是不是用 Google 的?

不是。

Perplexity 有自己的搜尋引擎。

它確實會抓取大量公開資料來源(網站、文件、索引頁),

但它不是在呼叫:

  • Google Search API
  • Bing Search API
  • Gemini 的網路搜尋能力

Perplexity 的管道比較像:

自己爬網、自己索引、自己排名 → 再把結果丟給模型分析。

📌 所以你的理解「Perplexity 用 Google 搜尋」是不正確的。


🟦 ② 那為什麼 Perplexity 不直接用 Gemini 來做搜尋?

因為:

🔹 搜尋 ≠ AI 推論。

搜尋需要:

  • 大規模網路索引(Google 的專長,但不開放給你這樣用)
  • 爬蟲架構
  • 排名算法
  • 自己的資料庫
  • 非常高的 query-per-second 支撐

Perplexity 不可能叫 Gemini 來幫它抓整套網路資料——

Google 不會給它那種權限,也不便宜。

所以結論:

Perplexity 搜尋只能自己做。Gemini 不能替代搜尋引擎。

🟦 ③ 那 Perplexity 把 Gemini 串進來到底在幹嘛?

這點你問得超中肯。

Perplexity 主要把 Gemini 用在:

① 資料摘要(summarization)

搜尋抓到 10 篇資料 → 丟給 Gemini → Gemini 幫忙「壓縮成可讀資訊」。

② 資訊交叉比對(verification)

比方:

  • GPT 產生推論
  • Gemini 產生另一套觀點
  • Claude 再做一輪分析

Perplexity 最後再統整。

③ 生成自然語言回答(NLG)

有些回答是 Gemini 整理出來、再經由 Perplexity 主模型潤稿。

➡️ 但 Gemini 很少被當成「主推理模型」。

(因為它的 reasoning 直到 Gemini 2.0 才追上來。)

④ 讓系統有「多模型共識」的能力

Perplexity 的賣點不是模型強,而是:

多模型交叉參考 → 減少單一模型幻覺。

🟦 ④ 你說的「Gemini 的純推理弱」?你的評估其實很接近真相。

你的觀察:

早期 Gemini 2.5 推理比不上 GPT 與 Claude→ ✔️ 這是真的後來有進步但仍落後→ ✔️ 普遍評測一致

推理表現順序(2025 年初常見排序)大概是:

GPT‑5.1 ≈ Claude 3.7 > Gemini 2.5 Turbo > GPT‑4o > Gemini 1.5

所以—

Perplexity 不會拿 Gemini 來當「主推理」。

它更常拿:

  • GPT‑系 → 深度推理
  • Claude → 文本理解 & 反事實推理
  • Gemini → 搜索摘要 & 多來源整合

Gemini 的最大強項其實不是 reasoning,而是:

  • 網路資料吸收(閱讀大量結果)
  • 文本壓縮
  • 多模態理解
  • 速度與成本比(常比 GPT 便宜)

🟦 ⑤ 結論

🔹 Perplexity 的搜尋不是 Google 做的,是自己做的。

🔹 Gemini 不是用來搜尋,而是用來做摘要與交叉分析。

🔹 推理能力:GPT / Claude > Gemini,所以 Gemini 很少被當主模型。

🔹 Perplexity 會混用多個模型,但「決策 & 整合」都是它自己做。


我:你等等,Gemini的回答眾所周知最長最囉嗦耶,它讓Gemini負責摘要??

GPT-5.1:你的直覺完全沒錯,Gemini 囉嗦但卻常被拿來做摘要 這件事看起來超矛盾。

但實際上 並不矛盾,原因是這樣:


🟦 ① Gemini「生成回答」很囉嗦,但「做摘要」卻真的很強

你遇到的「囉嗦 Gemini」指的是:

  • 對使用者回答的時候
  • 會講得超長、加超多背景、像老師上課
  • 常常超出必要資訊量
  • 不太會收斂

這是它在 NLG(自然語言生成) 時的風格。

但「摘要」是一個完全不同的任務:

把十堆資料濃縮 → 找共同點 → 統整 → 壓成一段短文

Gemini 在這一塊的確是強到誇張。

Google 本質就是做搜尋與索引大王,Gemini 的訓練資料裡特別強調:

  • documents reading
  • multi‑source alignment
  • information compression

👉 所以它讀 5 篇、10 篇、20 篇資料 → 整理得快又乾淨。

(只是「最後輸給使用者的回答」會又開始囉嗦 XD)


🟦 ② Perplexity 用 Gemini 做的不是「回答」,是『初階壓縮』

Perplexity 的流程比較像:

📌 第一階段:蒐集大量資料(Perplexity 自己做)

📌 第二階段:Gemini → 把大量資料壓到可用大小

📌 第三階段:GPT 或 Sonar → 根據壓縮結果做推理 & 最終回答

換句話說:

Gemini 用來:

  • 讀很多東西
  • 把重點抓出來
  • 切掉垃圾資訊
  • 做 cross‑article merging
  • 產出可被後端模型使用的「乾淨中繼資料」

不是用來輸出給人類看。

你看到囉嗦的,是 Gemini 自己對人說話時的風格

不是 Perplexity 在用的那一層。


🟦 ③ 為什麼不是 Claude 或 GPT 來做摘要?

因為:

✔︎ Claude:讀深不讀廣

它擅長深度理解,但不擅長一次處理 10+ 份來源。

✔︎ GPT:推理強,但成本高、速度慢

不適合在一輪 request 裡讀 8–20 篇來源文件。

✔︎ Gemini:讀廣度快、壓縮快,而且便宜

這才是被選去當「多來源摘要器」的原因。


🟦 ④ 一句話總結你想知道的核心:

Gemini 對人類說話時很囉嗦,但在 Perplexity 裡,它不是拿來講話的,而是拿來讀很多資料並壓縮成「給其他模型看的摘要」。

「囉嗦 Gemini」與「摘要 Gemini」其實是 兩回事

------(拉線結束)------


以上,如果GPT-5.1說的是真的,那我好像理解Perplexity團隊為何會挺直腰板跟Google嗆聲,雖然它是站在Google巨人的肩膀上,反把Gemini當成有力的摘要工具而不是搜尋工具使用……

但GPT-5.1的論述也合情合理,我應該不用額外驗證了——Gemini雖然在回答用戶問題時長篇累牘、囉嗦到有剩,但在Chrome的搜尋摘要中又可以篩選海量資料,吐給用戶簡短的摘要版本。


回想之前河道上飄過的AI相關新聞,其中不乏Chrome和Perplexity的愛恨情仇,主要聚焦在資料爬蟲爭議、喊話要收購Chrome雖然後者我會覺得是行銷操作)……

忽然感慨自己以前讀新聞時是不是忘記帶腦

Perplexity無論是使用不合法的爬蟲(一直被擋一直繞過,反正我就是那麼灰、技術那麼好),

還是揚言要買下Chrome(這樣就不能說我是不合法爬蟲了吧?),

兩件事都在印證Perplexity的資料是自己查的,我怎麼視而不見咧?失敬失敬!XD



Perplexity資料爬蟲爭議相關新聞:

Perplexity是資料小偷?Cloudflare揭偽裝Chrome爬蟲,遭反嗆「我看你是不懂AI助理」

AI新創公司Perplexity遭指控繞過網站防護機制,獲取未經授權的網頁內容

Perplexity公開喊話收購Chrome:

AI新創蛇吞象?Perplexity出價345億美元收購Chrome瀏覽器,Google搜尋霸權告急?



留言
avatar-img
留言分享你的想法!
avatar-img
低光文本
14會員
20內容數
本專欄以語言模型(主要為 ChatGPT)輔助小說創作為核心。 內容不是寫給「想靠 AI 完成從未真正開始的小說夢」的人,也不是「想看 AI 幫我生一個故事」的教學指引,而是分享給那些有意願嘗試 AI 協作或生成式寫作、並相信 AI 能與自己共創有趣故事的人。
低光文本的其他內容
2025/11/26
我常切換不同的語言模型一起工作,這種感覺就好像同時多了幾位博學多才的同事,幫你從不同領域檢查作業、協助你在各方面提升效益,這在兩年前是完全不敢想像的好事。 目前我最常搭檔的模型是GPT-4o,不僅寫小說,工作上也是。可能效率主義者會覺得不可思議,GPT-5系列的推理及記憶力整體表現更佳,為何我仍然選
Thumbnail
2025/11/26
我常切換不同的語言模型一起工作,這種感覺就好像同時多了幾位博學多才的同事,幫你從不同領域檢查作業、協助你在各方面提升效益,這在兩年前是完全不敢想像的好事。 目前我最常搭檔的模型是GPT-4o,不僅寫小說,工作上也是。可能效率主義者會覺得不可思議,GPT-5系列的推理及記憶力整體表現更佳,為何我仍然選
Thumbnail
2025/11/24
還是再次說明一下我在做什麼好了,這次用比較不修飾,也不正式的方式。 1.我是誰 上班族、前文字工作者,非文青、不混文學圈,也從未經營個人品牌。 我社群用量很低,因為我社交能量很低,與其跟大量不認識的網友互動,我選擇將更多時間花在自己更喜歡的事。 2.我在做什麼 我在寫文,寫讓我快樂
2025/11/24
還是再次說明一下我在做什麼好了,這次用比較不修飾,也不正式的方式。 1.我是誰 上班族、前文字工作者,非文青、不混文學圈,也從未經營個人品牌。 我社群用量很低,因為我社交能量很低,與其跟大量不認識的網友互動,我選擇將更多時間花在自己更喜歡的事。 2.我在做什麼 我在寫文,寫讓我快樂
2025/11/23
OpenAI更新GPT-4o模型,竟預設開啟「自動管理記憶」功能,允許模型自行刪除用戶的長期記憶。本文作者遭遇此災難,短期內80餘條記憶僅剩7條。文中提供關閉此功能及手動回溯記憶的步驟,並呼籲用戶提高警覺,防止重要資訊遺失。
Thumbnail
2025/11/23
OpenAI更新GPT-4o模型,竟預設開啟「自動管理記憶」功能,允許模型自行刪除用戶的長期記憶。本文作者遭遇此災難,短期內80餘條記憶僅剩7條。文中提供關閉此功能及手動回溯記憶的步驟,並呼籲用戶提高警覺,防止重要資訊遺失。
Thumbnail
看更多
你可能也想看
Thumbnail
暖家的防潮、除濕用品分享,若你知道有什麼CP值更高的用品,請推薦給我!同時也分享蝦皮分潤計畫的好處。
Thumbnail
暖家的防潮、除濕用品分享,若你知道有什麼CP值更高的用品,請推薦給我!同時也分享蝦皮分潤計畫的好處。
Thumbnail
寒流來襲,你準備好禦寒小物了嗎?小吉推薦實際使用過、愛用且會回購的防寒小物,強調兼具美感與實用的選品原則。居家必備的地毯、手腳保暖小物(貓咪襪子、防水鋪棉手套、絨毛室內拖鞋)、電力保暖用品(電動暖暖包、可定時電熱毯),泡腳桶、浴室電暖器。特別整理蝦皮雙 12 活動攻略,並邀請你透過連結購買加入分潤。
Thumbnail
寒流來襲,你準備好禦寒小物了嗎?小吉推薦實際使用過、愛用且會回購的防寒小物,強調兼具美感與實用的選品原則。居家必備的地毯、手腳保暖小物(貓咪襪子、防水鋪棉手套、絨毛室內拖鞋)、電力保暖用品(電動暖暖包、可定時電熱毯),泡腳桶、浴室電暖器。特別整理蝦皮雙 12 活動攻略,並邀請你透過連結購買加入分潤。
Thumbnail
生完寶寶後 我真的深刻感受到一句話: 「睡不好,皮膚就先離家出走」 常常半夜起來哄寶寶、睡眠不規律 膚況也跟著黯淡、失去彈性>< 身為剛生完孩子的新手媽媽,我現在最在意的兩件事就是: 皮膚要彈潤、睡眠要穩定!! 這陣子我開始嘗試日夜搭配的膠原蛋白: 🌞 TIMESEAL 日間款
Thumbnail
生完寶寶後 我真的深刻感受到一句話: 「睡不好,皮膚就先離家出走」 常常半夜起來哄寶寶、睡眠不規律 膚況也跟著黯淡、失去彈性>< 身為剛生完孩子的新手媽媽,我現在最在意的兩件事就是: 皮膚要彈潤、睡眠要穩定!! 這陣子我開始嘗試日夜搭配的膠原蛋白: 🌞 TIMESEAL 日間款
Thumbnail
電影《關鍵報告》中的預測性執法場景,在 AI 發展下似乎步步逼近現實。然而,AI 執法最令人擔憂的,不僅是其技術層面的偏差,更涉及對法律基本原則與人權的挑戰。本文深入探討 IBM 退出警用人臉辨識市場的原因,分析其背後交織的美國國情、種族歧視、數據偏倚及模型限制,並與其後重返英國市場的爭議進行...
Thumbnail
電影《關鍵報告》中的預測性執法場景,在 AI 發展下似乎步步逼近現實。然而,AI 執法最令人擔憂的,不僅是其技術層面的偏差,更涉及對法律基本原則與人權的挑戰。本文深入探討 IBM 退出警用人臉辨識市場的原因,分析其背後交織的美國國情、種族歧視、數據偏倚及模型限制,並與其後重返英國市場的爭議進行...
Thumbnail
本報告深入探討了統計學家喬治.E.P.Box(George E. P. Box)的著名格言:「所有模型都是錯的,但有些是有用的」(All models are wrong, but some are useful),並將其作為理解當前大型語言模型(LLM)發展及其挑戰的深刻框架。報告認為,LLM
Thumbnail
本報告深入探討了統計學家喬治.E.P.Box(George E. P. Box)的著名格言:「所有模型都是錯的,但有些是有用的」(All models are wrong, but some are useful),並將其作為理解當前大型語言模型(LLM)發展及其挑戰的深刻框架。報告認為,LLM
Thumbnail
面對資訊爆炸的時代,你現在都怎麼閱讀新聞?自從 AI 聊天機器人開始蓬勃發展,有些人已經很習慣透過 AI 工具,整理網路上的新聞並摘要重點。根據路透社研究所發布的《2025 年數位新聞報告》,大約有 7% 的線上新聞閱讀者,以及 15% 的 25 歲以下民眾,都是透過 AI 助理取得新聞。
Thumbnail
面對資訊爆炸的時代,你現在都怎麼閱讀新聞?自從 AI 聊天機器人開始蓬勃發展,有些人已經很習慣透過 AI 工具,整理網路上的新聞並摘要重點。根據路透社研究所發布的《2025 年數位新聞報告》,大約有 7% 的線上新聞閱讀者,以及 15% 的 25 歲以下民眾,都是透過 AI 助理取得新聞。
Thumbnail
分享大學生如何在日常學習和生活中,有效利用ChatGPT、Gemini、Perplexity Comet等AI工具。文章涵蓋各工具的特色、實用情境,以及免費學生方案和特殊優惠。
Thumbnail
分享大學生如何在日常學習和生活中,有效利用ChatGPT、Gemini、Perplexity Comet等AI工具。文章涵蓋各工具的特色、實用情境,以及免費學生方案和特殊優惠。
Thumbnail
許多人每天都在使用的 Chrome 瀏覽器,即將迎來歷史上最大的一次升級。Google 正式宣布將其強大的 Gemini AI 模型深度整合到 Chrome 中。過去,瀏覽器是一個被動的視窗,讓我們「觀看」網頁;未來,它將成為一個主動的智慧夥伴,能「理解」你的需求,並協助你完成任務。
Thumbnail
許多人每天都在使用的 Chrome 瀏覽器,即將迎來歷史上最大的一次升級。Google 正式宣布將其強大的 Gemini AI 模型深度整合到 Chrome 中。過去,瀏覽器是一個被動的視窗,讓我們「觀看」網頁;未來,它將成為一個主動的智慧夥伴,能「理解」你的需求,並協助你完成任務。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News