波坦金理解(Potemkin Understanding),大語言模型是抽象的資料搜索應用

更新於 發佈於 閱讀時間約 3 分鐘

前言

raw-image

本篇將講述近期提出所謂的波坦金理解,以及當前很多使用者對於大語言模型的疑問,因此,以下不會涉及太多術語,盡可能偏向日常使用者,幫助使用者在使用ChatGPT這類的大語言模型(LLM),能具備更多的前置了解,更認識大型語言模型工具。


大型語言模型(LLM, Large Language Model)是一類基於深度學習(Deep Learning)的人工智慧模型,主要用於自然語言處理(Natural Language Processing, NLP)任務,如:生成文字、翻譯、問答、摘要等。

波坦金理解 Potemkin Understanding

以下為筆者從波坦金理解論文轉述,

波坦金理解是指大型語言模型(LLM)在基準測驗中表現良好,看似具備概念理解,但實際上缺乏一致且可應用的內部概念結構。這種理解是表面的——模型能正確定義某個概念,卻無法正確應用或生成符合該概念的內容。

例如,模型能清楚說明 ABAB 押韻的定義,但當需要產出符合 ABAB 格式的詩句時卻失敗,且這種錯誤的形式與人類常見的誤解方式不同,因此無法以人類的方式進行判斷或修正。



以下是筆者對於大語言模型的理解,

希望能幫助到更多日常使用者有更多的了解

什麼是理解?

對於什麼是理解,人工智慧LLM應用是否能理解,對此如果我們給定一個範圍的對談或考試,也給予一份對應的資料,即便受試者不用具備該領域基礎知識,以自然語言有條有理的拼湊是否也能達到相當準確的回應,這就好像傳統搜索透過演算法或是關鍵字搜索下,初步的幫搜尋者找到較為貼近需求的答案,但是傳統網頁搜索下的文章出處來源等等,也無法保證內容絕對完好且正確,這取決於使用者當下需要查看的資料,是否為非常明確已知的資訊,還是客觀需要在進一步探討的問題,對於明確已知的資訊LLM的表現可以達到一定的水準。

LLM 的文字任務

很多人初步認識到生成式AI並且使用到大型語言模型(如ChatGPT),會不斷討論是否據有意識,是否能發展成為超人工智能等等,當然這些形而上具有人文和哲學上的探討,是有益於AI進一步發展的討論。

目前來說,基於常見的各項自然語言模型來看,LLM在做的事情,相當除文字向量化、理解使用者語義、將文字向量不斷迴圈形成類似記憶的假象、對文字語義進行任務歸類、對文字向量進行歸納整理等等,多數個大大小小的任務,所以在回應到本篇主題,希望到有幫助到讀者更認識ChatGPT這類的大語言模型。

結語

喜歡AI的朋友可以加入我們的社群,36號系統是一個專注在人工智慧科技與人文的社群,未來會持續為大家整理出 AI 相關的研究。

留言
avatar-img
留言分享你的想法!
avatar-img
36號系統
23會員
30內容數
一個理念象徵, 一個專注在人工智慧與人文的地方 【科幻】一種理想主義的科幻哲思 【人工智慧】一種理性主義的求真精神
36號系統的其他內容
2025/03/30
MCP是一種通訊協議 (Protocol),提供統一的方法來讓AI 連接工具,使 AI 應用軟體 能夠透過統一介面存取各種服務。協議在軟體工程中用作標準化接口,透過標準化來解決,軟體或硬體相互不支援的問題。
Thumbnail
2025/03/30
MCP是一種通訊協議 (Protocol),提供統一的方法來讓AI 連接工具,使 AI 應用軟體 能夠透過統一介面存取各種服務。協議在軟體工程中用作標準化接口,透過標準化來解決,軟體或硬體相互不支援的問題。
Thumbnail
2025/03/29
預計網路將在2025年擁有60億的使用者,每天與數據互動,預計總數據產生量將達到90ZB(Zettabytes),LLM 中神經網路推理方式也是類似於人的思考,一字一句的構思下一個段落來組成話語,不會有人一下接上,自己無法理解或從未看過的字眼,例如:
Thumbnail
2025/03/29
預計網路將在2025年擁有60億的使用者,每天與數據互動,預計總數據產生量將達到90ZB(Zettabytes),LLM 中神經網路推理方式也是類似於人的思考,一字一句的構思下一個段落來組成話語,不會有人一下接上,自己無法理解或從未看過的字眼,例如:
Thumbnail
2025/03/24
在未來你會看到越來越多的Intel Core Ultra系列規格出現在大眾的電腦市場上,本文將分享如何挑選 Intel Core Ultra 處理器、選擇的考量因素,以及 NPU(神經處理單元)的用途,本文分成一般消費者選購和NPU運行狀況兩部分介紹
Thumbnail
2025/03/24
在未來你會看到越來越多的Intel Core Ultra系列規格出現在大眾的電腦市場上,本文將分享如何挑選 Intel Core Ultra 處理器、選擇的考量因素,以及 NPU(神經處理單元)的用途,本文分成一般消費者選購和NPU運行狀況兩部分介紹
Thumbnail
看更多
你可能也想看
Thumbnail
孩子寫功課時瞇眼?小心近視!這款喜光全光譜TIONE⁺光健康智慧檯燈,獲眼科院長推薦,網路好評不斷!全光譜LED、180cm大照明範圍、5段亮度及色溫調整、350度萬向旋轉,讓孩子學習更舒適、保護眼睛!
Thumbnail
孩子寫功課時瞇眼?小心近視!這款喜光全光譜TIONE⁺光健康智慧檯燈,獲眼科院長推薦,網路好評不斷!全光譜LED、180cm大照明範圍、5段亮度及色溫調整、350度萬向旋轉,讓孩子學習更舒適、保護眼睛!
Thumbnail
創作者營運專員/經理(Operations Specialist/Manager)將負責對平台成長及收入至關重要的 Partnership 夥伴創作者開發及營運。你將發揮對知識與內容變現、影響力變現的精準判斷力,找到你心中的潛力新星或有聲量的中大型創作者加入 vocus。
Thumbnail
創作者營運專員/經理(Operations Specialist/Manager)將負責對平台成長及收入至關重要的 Partnership 夥伴創作者開發及營運。你將發揮對知識與內容變現、影響力變現的精準判斷力,找到你心中的潛力新星或有聲量的中大型創作者加入 vocus。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
這篇文章討論了自然語言處理技術的發展歷程,從語言模型的引入到深度學習的應用。作者觀察到現今GPT在產出中文國學內容時的深度不足,並提出了自然語言處理領域的倫理使用和版權問題,以及對大眾的影響。最後,作者探討了個人在自然語言領域的發展可能性。
Thumbnail
這篇文章討論了自然語言處理技術的發展歷程,從語言模型的引入到深度學習的應用。作者觀察到現今GPT在產出中文國學內容時的深度不足,並提出了自然語言處理領域的倫理使用和版權問題,以及對大眾的影響。最後,作者探討了個人在自然語言領域的發展可能性。
Thumbnail
本文介紹了大型語言模型(LLM)中Prompt的原理及實踐,並提供了撰寫Prompt的基本框架邏輯PREP,以及加強Prompt撰寫的幾個方向:加強說明背景、角色描述和呈現風格,加強背景說明,角色描述,呈現風格以及目標受眾(TA)。同時推薦了幾個Prompt相關的參考網站。最後解答了一些快問快答。
Thumbnail
本文介紹了大型語言模型(LLM)中Prompt的原理及實踐,並提供了撰寫Prompt的基本框架邏輯PREP,以及加強Prompt撰寫的幾個方向:加強說明背景、角色描述和呈現風格,加強背景說明,角色描述,呈現風格以及目標受眾(TA)。同時推薦了幾個Prompt相關的參考網站。最後解答了一些快問快答。
Thumbnail
大語言模型(如GPT-3和GPT-4)的出現改變了我們與機器互動的方式。這些模型能夠理解和生成自然語言,實現許多以前無法想像的應用。然而,你可能會好奇,這些模型究竟是如何理解語言的?這裡,我們來探討一個關鍵的概念:「一切語義都是關係」。
Thumbnail
大語言模型(如GPT-3和GPT-4)的出現改變了我們與機器互動的方式。這些模型能夠理解和生成自然語言,實現許多以前無法想像的應用。然而,你可能會好奇,這些模型究竟是如何理解語言的?這裡,我們來探討一個關鍵的概念:「一切語義都是關係」。
Thumbnail
語言模型與文字表示以不同的方式來分析自然語言的詞語分佈及語意關係。本文章簡要介紹了語言模型、Word2vec、FastText、GloVe和Transformer等技術,並提供了實際的應用參考點,幫助讀者深入理解自然語言處理的技術。
Thumbnail
語言模型與文字表示以不同的方式來分析自然語言的詞語分佈及語意關係。本文章簡要介紹了語言模型、Word2vec、FastText、GloVe和Transformer等技術,並提供了實際的應用參考點,幫助讀者深入理解自然語言處理的技術。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」。 Prompt Pattern 是給予LLM的指示,並確保生成的輸出擁有特定的品質(和數量)。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」。 Prompt Pattern 是給予LLM的指示,並確保生成的輸出擁有特定的品質(和數量)。
Thumbnail
大語言模型(LLMs)對於任何對人工智能和自然語言處理感興趣的人來說都是一個令人興奮的領域。 這類模型,如GPT-4, 透過其龐大的數據集和複雜的參數設置, 提供了前所未有的語言理解和生成能力。 那麼,究竟是什麼讓這些模型「大」得如此不同呢?
Thumbnail
大語言模型(LLMs)對於任何對人工智能和自然語言處理感興趣的人來說都是一個令人興奮的領域。 這類模型,如GPT-4, 透過其龐大的數據集和複雜的參數設置, 提供了前所未有的語言理解和生成能力。 那麼,究竟是什麼讓這些模型「大」得如此不同呢?
Thumbnail
如果你曾經嘗試學習多種語言, 你會發現每種語言都有其獨特之處。 在我26至28歲期間, 我系統地學習了語言學知識, 以此來輔助我學習俄語、法語、德語、義大利語和西班牙語。 這個過程中, 我發現了大語言模型(LLMs)在語言學習上的巨大潛力。
Thumbnail
如果你曾經嘗試學習多種語言, 你會發現每種語言都有其獨特之處。 在我26至28歲期間, 我系統地學習了語言學知識, 以此來輔助我學習俄語、法語、德語、義大利語和西班牙語。 這個過程中, 我發現了大語言模型(LLMs)在語言學習上的巨大潛力。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News