vocus logo

方格子 vocus

付費限定

人類和AI共用的「快思慢想」

A.H.-avatar-img
發佈於精選集 個房間
更新 發佈閱讀 10 分鐘
raw-image

你可能聽過/讀過諾貝爾經濟學得主丹尼爾‧康納曼(Daniel Kahneman)的名著《快思慢想》(Thinking, Fast and Slow) [1]。這本書非常精彩。它的核心思想是,你的大腦中住著兩個系統角色: 系統一是「快速」思考者。它就是你的直覺。它會自動運作,無需任何努力。當你看到1加1時,答案「2」會自然而然地跳進你的腦海。這就是系統一,它就像一位飛行員,他已經在同一條航線上飛行了一千次,即使閉著眼睛也能做到。 

系統二是「慢速」思考者。這是你自覺、深思熟慮的自我。它是你的一部分,能夠解決像123 x 17這樣的問題,這需要付出真正的努力!就像副駕駛一樣,在飛往一個陌生而棘手的機場時,他必須拿出航圖並進行計算。他能力強大,但又很懶惰,寧願讓直覺飛行員來處理一切。 

這個故事很好地解釋了我們大腦中正在發生的事情。但它並沒有真正告訴你這個機制是如何運作的。有趣的是,近期2025年8月28日,布朗大學科學家在《美國國家科學院院刊》上發表的一項開創性研究「人類認知與神經網路的平行權衡:情境學習與權重學習間的動態互動」發現人類和AI學習之間的相似之處,讓我們得以進一步認識這個機制[2]。 

以行動支持創作者!付費即可解鎖
本篇內容共 3831 字、0 則留言,僅發佈於精選集、資訊科學你目前無法檢視以下內容,可能因為尚未登入,或沒有該房間的查看權限。
留言
avatar-img
A.H.科普(pScience)
141會員
395內容數
用知識點燃你的神經通路! A.H. 科普的每篇文章,刺激您大腦突觸的新舊連接,讓您對理解、思維、靈感和好奇,貪得無厭~
A.H.科普(pScience)的其他內容
2025/08/12
最近與摯友談及AI與教育議題的交會,心中悄然萌生一個念頭:或許,是時候在「AI抱抱系列」中,開啟一場關於AI與教育的對話。根據過往研究,未來二十年,近半數現有職業將走入歷史,而今日教室裡的孩童,估計有65%將投身於尚未被命名的工作。這些職業不僅新穎,更深植於AI技術與知識的沃土之中[1]。。。
Thumbnail
2025/08/12
最近與摯友談及AI與教育議題的交會,心中悄然萌生一個念頭:或許,是時候在「AI抱抱系列」中,開啟一場關於AI與教育的對話。根據過往研究,未來二十年,近半數現有職業將走入歷史,而今日教室裡的孩童,估計有65%將投身於尚未被命名的工作。這些職業不僅新穎,更深植於AI技術與知識的沃土之中[1]。。。
Thumbnail
2025/07/31
我們憂慮新冠科學進展老是趕不上病毒變種的速度,彷彿置身於一種無形且不斷變異的威脅下。。。《自然》新聞更以標題: 「肺部”沉睡”的癌細胞可能會被新冠病毒和流感喚醒」說明呼吸道病毒感染不僅喚醒了休眠數十年的腫瘤細胞。。。正是在這種集體脆弱的脈絡下,史丹佛醫學院開展的「虛擬實驗室」。。。
Thumbnail
2025/07/31
我們憂慮新冠科學進展老是趕不上病毒變種的速度,彷彿置身於一種無形且不斷變異的威脅下。。。《自然》新聞更以標題: 「肺部”沉睡”的癌細胞可能會被新冠病毒和流感喚醒」說明呼吸道病毒感染不僅喚醒了休眠數十年的腫瘤細胞。。。正是在這種集體脆弱的脈絡下,史丹佛醫學院開展的「虛擬實驗室」。。。
Thumbnail
2025/07/03
過去我們聊過AI打敗了神經科學家、但AI在博士級的歷史考試中卻被當、而且目前專業藝術家被認為還是比AI程式更具創造力。那在語言學習方面,人類和AI的PK現況又如何? AI是由大型語言模型(LLM)訓練出來的,在學習語言上怎麼會輸? 你可以讓AI寫一首關於起司三明治的十四行詩,然後「噗」地一聲。。。
Thumbnail
2025/07/03
過去我們聊過AI打敗了神經科學家、但AI在博士級的歷史考試中卻被當、而且目前專業藝術家被認為還是比AI程式更具創造力。那在語言學習方面,人類和AI的PK現況又如何? AI是由大型語言模型(LLM)訓練出來的,在學習語言上怎麼會輸? 你可以讓AI寫一首關於起司三明治的十四行詩,然後「噗」地一聲。。。
Thumbnail
看更多
你可能也想看
Thumbnail
賽勒布倫尼科夫以流亡處境回望蘇聯電影導演帕拉贊諾夫的舞台作品,以十段寓言式殘篇,重新拼貼記憶、暴力與美學,並將審查、政治犯、戰爭陰影與「形式即政治」的劇場傳統推到台前。本文聚焦於《傳奇:帕拉贊諾夫的十段殘篇》的舞台美術、音樂與多重扮演策略,嘗試解析極權底下不可言說之事,將如何成為可被觀看的公共發聲。
Thumbnail
賽勒布倫尼科夫以流亡處境回望蘇聯電影導演帕拉贊諾夫的舞台作品,以十段寓言式殘篇,重新拼貼記憶、暴力與美學,並將審查、政治犯、戰爭陰影與「形式即政治」的劇場傳統推到台前。本文聚焦於《傳奇:帕拉贊諾夫的十段殘篇》的舞台美術、音樂與多重扮演策略,嘗試解析極權底下不可言說之事,將如何成為可被觀看的公共發聲。
Thumbnail
柏林劇團在 2026 北藝嚴選,再次帶來由布萊希特改編的經典劇目《三便士歌劇》(The Threepenny Opera),導演巴里・柯斯基以舞台結構與舞台調度,重新向「疏離」進行提問。本文將從觀眾慾望作為戲劇內核,藉由沉浸與疏離的辯證,解析此作如何再次照見觀眾自身的位置。
Thumbnail
柏林劇團在 2026 北藝嚴選,再次帶來由布萊希特改編的經典劇目《三便士歌劇》(The Threepenny Opera),導演巴里・柯斯基以舞台結構與舞台調度,重新向「疏離」進行提問。本文將從觀眾慾望作為戲劇內核,藉由沉浸與疏離的辯證,解析此作如何再次照見觀眾自身的位置。
Thumbnail
本文深入解析臺灣劇團「晃晃跨幅町」對易卜生經典劇作《海妲.蓋柏樂》的詮釋,從劇本歷史、聲響與舞臺設計,到演員的主體創作方法,探討此版本如何讓經典劇作在當代劇場語境下煥發新生,滿足現代觀眾的觀看慾望。
Thumbnail
本文深入解析臺灣劇團「晃晃跨幅町」對易卜生經典劇作《海妲.蓋柏樂》的詮釋,從劇本歷史、聲響與舞臺設計,到演員的主體創作方法,探討此版本如何讓經典劇作在當代劇場語境下煥發新生,滿足現代觀眾的觀看慾望。
Thumbnail
《轉轉生》為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,融合舞蹈、音樂、時尚和視覺藝術,透過身體、服裝與群舞結構,回應殖民歷史、城市經驗與祖靈記憶的交錯。本文將從服裝設計、身體語彙與「輪迴」的「誕生—死亡—重生」結構出發,分析《轉轉生》如何以當代目光,形塑去殖民視角的奈及利亞歷史。
Thumbnail
《轉轉生》為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,融合舞蹈、音樂、時尚和視覺藝術,透過身體、服裝與群舞結構,回應殖民歷史、城市經驗與祖靈記憶的交錯。本文將從服裝設計、身體語彙與「輪迴」的「誕生—死亡—重生」結構出發,分析《轉轉生》如何以當代目光,形塑去殖民視角的奈及利亞歷史。
Thumbnail
今天想分享我怎麼「用 AI 設計一個學習流程」讓我把學過的英文「真的記住,並且用的出來」 這個過程不會碰到複雜的技術,只需結合基本學習原則,還有在ChatGPT用中文下指令的技巧,這樣你以後就可以針對自己想學的英文內容設計客製化的學習材料跟練習過程喔!
Thumbnail
今天想分享我怎麼「用 AI 設計一個學習流程」讓我把學過的英文「真的記住,並且用的出來」 這個過程不會碰到複雜的技術,只需結合基本學習原則,還有在ChatGPT用中文下指令的技巧,這樣你以後就可以針對自己想學的英文內容設計客製化的學習材料跟練習過程喔!
Thumbnail
自動化思考(Automatic Thinking)是心理學中的一個概念,它指的是人們在日常生活中進行的快速、無意識和自動的「思路-反應」捷徑。
Thumbnail
自動化思考(Automatic Thinking)是心理學中的一個概念,它指的是人們在日常生活中進行的快速、無意識和自動的「思路-反應」捷徑。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 52 中,我們已經解析完 Attention 機制如何運作的,以下延伸至 Multi-Head Attention: Head 1
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 52 中,我們已經解析完 Attention 機制如何運作的,以下延伸至 Multi-Head Attention: Head 1
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News