付費限定

人類和AI共用的「快思慢想」

更新於 發佈於 閱讀時間約 10 分鐘
raw-image

你可能聽過/讀過諾貝爾經濟學得主丹尼爾‧康納曼(Daniel Kahneman)的名著《快思慢想》(Thinking, Fast and Slow) [1]。這本書非常精彩。它的核心思想是,你的大腦中住著兩個系統角色: 系統一是「快速」思考者。它就是你的直覺。它會自動運作,無需任何努力。當你看到1加1時,答案「2」會自然而然地跳進你的腦海。這就是系統一,它就像一位飛行員,他已經在同一條航線上飛行了一千次,即使閉著眼睛也能做到。 

系統二是「慢速」思考者。這是你自覺、深思熟慮的自我。它是你的一部分,能夠解決像123 x 17這樣的問題,這需要付出真正的努力!就像副駕駛一樣,在飛往一個陌生而棘手的機場時,他必須拿出航圖並進行計算。他能力強大,但又很懶惰,寧願讓直覺飛行員來處理一切。 

這個故事很好地解釋了我們大腦中正在發生的事情。但它並沒有真正告訴你這個機制是如何運作的。有趣的是,近期2025年8月28日,布朗大學科學家在《美國國家科學院院刊》上發表的一項開創性研究「人類認知與神經網路的平行權衡:情境學習與權重學習間的動態互動」發現人類和AI學習之間的相似之處,讓我們得以進一步認識這個機制[2]。 

以行動支持創作者!付費即可解鎖
本篇內容共 3831 字、0 則留言,僅發佈於資訊科學你目前無法檢視以下內容,可能因為尚未登入,或沒有該房間的查看權限。
留言
avatar-img
留言分享你的想法!
avatar-img
A.H.科普(pScience)
131會員
330內容數
用知識點燃你的神經通路! A.H. 科普的每篇文章,刺激您大腦突觸的新舊連接,讓您對理解、思維、靈感和好奇,貪得無厭~
A.H.科普(pScience)的其他內容
2025/08/12
最近與摯友談及AI與教育議題的交會,心中悄然萌生一個念頭:或許,是時候在「AI抱抱系列」中,開啟一場關於AI與教育的對話。根據過往研究,未來二十年,近半數現有職業將走入歷史,而今日教室裡的孩童,估計有65%將投身於尚未被命名的工作。這些職業不僅新穎,更深植於AI技術與知識的沃土之中[1]。。。
Thumbnail
2025/08/12
最近與摯友談及AI與教育議題的交會,心中悄然萌生一個念頭:或許,是時候在「AI抱抱系列」中,開啟一場關於AI與教育的對話。根據過往研究,未來二十年,近半數現有職業將走入歷史,而今日教室裡的孩童,估計有65%將投身於尚未被命名的工作。這些職業不僅新穎,更深植於AI技術與知識的沃土之中[1]。。。
Thumbnail
2025/07/31
我們憂慮新冠科學進展老是趕不上病毒變種的速度,彷彿置身於一種無形且不斷變異的威脅下。。。《自然》新聞更以標題: 「肺部”沉睡”的癌細胞可能會被新冠病毒和流感喚醒」說明呼吸道病毒感染不僅喚醒了休眠數十年的腫瘤細胞。。。正是在這種集體脆弱的脈絡下,史丹佛醫學院開展的「虛擬實驗室」。。。
Thumbnail
2025/07/31
我們憂慮新冠科學進展老是趕不上病毒變種的速度,彷彿置身於一種無形且不斷變異的威脅下。。。《自然》新聞更以標題: 「肺部”沉睡”的癌細胞可能會被新冠病毒和流感喚醒」說明呼吸道病毒感染不僅喚醒了休眠數十年的腫瘤細胞。。。正是在這種集體脆弱的脈絡下,史丹佛醫學院開展的「虛擬實驗室」。。。
Thumbnail
2025/07/03
過去我們聊過AI打敗了神經科學家、但AI在博士級的歷史考試中卻被當、而且目前專業藝術家被認為還是比AI程式更具創造力。那在語言學習方面,人類和AI的PK現況又如何? AI是由大型語言模型(LLM)訓練出來的,在學習語言上怎麼會輸? 你可以讓AI寫一首關於起司三明治的十四行詩,然後「噗」地一聲。。。
Thumbnail
2025/07/03
過去我們聊過AI打敗了神經科學家、但AI在博士級的歷史考試中卻被當、而且目前專業藝術家被認為還是比AI程式更具創造力。那在語言學習方面,人類和AI的PK現況又如何? AI是由大型語言模型(LLM)訓練出來的,在學習語言上怎麼會輸? 你可以讓AI寫一首關於起司三明治的十四行詩,然後「噗」地一聲。。。
Thumbnail
看更多
你可能也想看
Thumbnail
常常被朋友問「哪裡買的?」嗎?透過蝦皮分潤計畫,把日常購物的分享多加一個步驟,就能轉換成現金回饋。門檻低、申請簡單,特別適合學生與上班族,讓零碎時間也能創造小確幸。
Thumbnail
常常被朋友問「哪裡買的?」嗎?透過蝦皮分潤計畫,把日常購物的分享多加一個步驟,就能轉換成現金回饋。門檻低、申請簡單,特別適合學生與上班族,讓零碎時間也能創造小確幸。
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
今天想分享我怎麼「用 AI 設計一個學習流程」讓我把學過的英文「真的記住,並且用的出來」 這個過程不會碰到複雜的技術,只需結合基本學習原則,還有在ChatGPT用中文下指令的技巧,這樣你以後就可以針對自己想學的英文內容設計客製化的學習材料跟練習過程喔!
Thumbnail
今天想分享我怎麼「用 AI 設計一個學習流程」讓我把學過的英文「真的記住,並且用的出來」 這個過程不會碰到複雜的技術,只需結合基本學習原則,還有在ChatGPT用中文下指令的技巧,這樣你以後就可以針對自己想學的英文內容設計客製化的學習材料跟練習過程喔!
Thumbnail
自動化思考(Automatic Thinking)是心理學中的一個概念,它指的是人們在日常生活中進行的快速、無意識和自動的「思路-反應」捷徑。
Thumbnail
自動化思考(Automatic Thinking)是心理學中的一個概念,它指的是人們在日常生活中進行的快速、無意識和自動的「思路-反應」捷徑。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 52 中,我們已經解析完 Attention 機制如何運作的,以下延伸至 Multi-Head Attention: Head 1
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 52 中,我們已經解析完 Attention 機制如何運作的,以下延伸至 Multi-Head Attention: Head 1
Thumbnail
本篇文章分享了對創意和靈感來源的深入思考,以及如何將其轉化為實際的成果或解決方案的過程。透過學習、資料收集、練習、創新等方法,提出了將創意落實的思路和技巧。同時介紹了AI在外顯知識的自動化應用,以及對其潛在發展方向的討論。最後探討了傳統機器學習技術在模擬中的應用案例和對AI世界的影響。
Thumbnail
本篇文章分享了對創意和靈感來源的深入思考,以及如何將其轉化為實際的成果或解決方案的過程。透過學習、資料收集、練習、創新等方法,提出了將創意落實的思路和技巧。同時介紹了AI在外顯知識的自動化應用,以及對其潛在發展方向的討論。最後探討了傳統機器學習技術在模擬中的應用案例和對AI世界的影響。
Thumbnail
這篇文章介紹瞭如何利用生成式AI(GenAI)來提高學習效率,包括文章重點整理、完善知識體系、客製化學習回饋、提供多元觀點等方法。同時提醒使用者應注意內容的信效度,保持學術誠信,適當運用GenAI能大幅提升工作效率。
Thumbnail
這篇文章介紹瞭如何利用生成式AI(GenAI)來提高學習效率,包括文章重點整理、完善知識體系、客製化學習回饋、提供多元觀點等方法。同時提醒使用者應注意內容的信效度,保持學術誠信,適當運用GenAI能大幅提升工作效率。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News