付費限定

如果我想用NBLM建立第二個會跟我一起對話的大腦我該怎麼做

更新 發佈閱讀 3 分鐘

以前我花了很多時間來學習怎麼建立第二大腦,所以大部分的第二大腦工具我也幾乎都學習過,甚至去買了一些線上課程把自己搞成某個領域方面的專家。可是在學習這些做法的時候一直有一種感覺,就是我好像是在編目錄,把大量的資料或許是建立的不同的資料夾來管理,又或許是根據專案寫下自己的心得,讓下一次執行同樣的專案的時候還可以使用。

感覺這樣子就好像建立了第二個大腦,可以幫你記憶這些東西,而且回想上會比較順利。但是事實上真的有做到這些功能嗎?只要你有一些細微的東西沒有記錄到可能下一次你就會產生思考斷鏈的問題。

另外一個更大的問題是,雖然這些資料可以幫我回想起過去做過的東西,但是我還是必須積極的跟這些資料主動的連結、回想,才有辦法去激發更多的創意,甚至會因為這些資料給我一個框架,讓我自己限定在跳不出的漩渦裡。

創作者正在準備中
請加入 他到底讀了什麼? 了解最新動態!
留言
avatar-img
他到底讀了什麼?
93會員
125內容數
我每個月的閱讀量非常驚人,現在將注意力放在數位趨勢、數位閱讀還有生成式AI應用上,喜歡寫跟人不一樣的東西,更喜歡讓你知道我是如何思考的,歡迎訂閱跟我一起成長。
2025/10/06
即便你是最強悍的人,工作到某個階段之後,還是會遇到倦怠的問題。這時候就得重新去思考:我的內在動力為什麼流失了?什麼時候會開始覺得自己缺乏內在動力?這正好和我最近讀到的一篇文章所寫的內容很相似。 當你經常問自己:「為什麼要做這些事情呢?」,這就表示你心中開始有倦怠浮起了。而且當內在動力減弱,我就會發
2025/10/06
即便你是最強悍的人,工作到某個階段之後,還是會遇到倦怠的問題。這時候就得重新去思考:我的內在動力為什麼流失了?什麼時候會開始覺得自己缺乏內在動力?這正好和我最近讀到的一篇文章所寫的內容很相似。 當你經常問自己:「為什麼要做這些事情呢?」,這就表示你心中開始有倦怠浮起了。而且當內在動力減弱,我就會發
2025/10/05
這是一篇超級精彩的文章,裡面提到創辦人怎麼使用NotebookLM。從很多的痛處著手, 在很多的驚訝中繼續前進。目前我也是這種感覺,而且自從讀了這篇文章後,搭配Medium的Hack 作法,我真正有了一個隨時可以跟我對話的團隊,而這個可以跟我對話的團隊中,還包含了不同階段的自己對相同主題的想法,我隨
2025/10/05
這是一篇超級精彩的文章,裡面提到創辦人怎麼使用NotebookLM。從很多的痛處著手, 在很多的驚訝中繼續前進。目前我也是這種感覺,而且自從讀了這篇文章後,搭配Medium的Hack 作法,我真正有了一個隨時可以跟我對話的團隊,而這個可以跟我對話的團隊中,還包含了不同階段的自己對相同主題的想法,我隨
2025/09/24
NBLM的應用 不管做什麼得先定義自己的問題 建立專家知識 善用生成式AI的深度研究讓自己先能掌握問題的基礎輪廓,才能進入NBLM以專家的高度來處理問題 繪製自己的主題知識架構 透過AI探索找到更多文件-和主題知識架構能夠結合,而且一定要先組織思考不然就是Garbage in and Ga
2025/09/24
NBLM的應用 不管做什麼得先定義自己的問題 建立專家知識 善用生成式AI的深度研究讓自己先能掌握問題的基礎輪廓,才能進入NBLM以專家的高度來處理問題 繪製自己的主題知識架構 透過AI探索找到更多文件-和主題知識架構能夠結合,而且一定要先組織思考不然就是Garbage in and Ga
看更多
你可能也想看
Thumbnail
賽勒布倫尼科夫以流亡處境回望蘇聯電影導演帕拉贊諾夫的舞台作品,以十段寓言式殘篇,重新拼貼記憶、暴力與美學,並將審查、政治犯、戰爭陰影與「形式即政治」的劇場傳統推到台前。本文聚焦於《傳奇:帕拉贊諾夫的十段殘篇》的舞台美術、音樂與多重扮演策略,嘗試解析極權底下不可言說之事,將如何成為可被觀看的公共發聲。
Thumbnail
賽勒布倫尼科夫以流亡處境回望蘇聯電影導演帕拉贊諾夫的舞台作品,以十段寓言式殘篇,重新拼貼記憶、暴力與美學,並將審查、政治犯、戰爭陰影與「形式即政治」的劇場傳統推到台前。本文聚焦於《傳奇:帕拉贊諾夫的十段殘篇》的舞台美術、音樂與多重扮演策略,嘗試解析極權底下不可言說之事,將如何成為可被觀看的公共發聲。
Thumbnail
柏林劇團在 2026 北藝嚴選,再次帶來由布萊希特改編的經典劇目《三便士歌劇》(The Threepenny Opera),導演巴里・柯斯基以舞台結構與舞台調度,重新向「疏離」進行提問。本文將從觀眾慾望作為戲劇內核,藉由沉浸與疏離的辯證,解析此作如何再次照見觀眾自身的位置。
Thumbnail
柏林劇團在 2026 北藝嚴選,再次帶來由布萊希特改編的經典劇目《三便士歌劇》(The Threepenny Opera),導演巴里・柯斯基以舞台結構與舞台調度,重新向「疏離」進行提問。本文將從觀眾慾望作為戲劇內核,藉由沉浸與疏離的辯證,解析此作如何再次照見觀眾自身的位置。
Thumbnail
本文深入解析臺灣劇團「晃晃跨幅町」對易卜生經典劇作《海妲.蓋柏樂》的詮釋,從劇本歷史、聲響與舞臺設計,到演員的主體創作方法,探討此版本如何讓經典劇作在當代劇場語境下煥發新生,滿足現代觀眾的觀看慾望。
Thumbnail
本文深入解析臺灣劇團「晃晃跨幅町」對易卜生經典劇作《海妲.蓋柏樂》的詮釋,從劇本歷史、聲響與舞臺設計,到演員的主體創作方法,探討此版本如何讓經典劇作在當代劇場語境下煥發新生,滿足現代觀眾的觀看慾望。
Thumbnail
《轉轉生》為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,融合舞蹈、音樂、時尚和視覺藝術,透過身體、服裝與群舞結構,回應殖民歷史、城市經驗與祖靈記憶的交錯。本文將從服裝設計、身體語彙與「輪迴」的「誕生—死亡—重生」結構出發,分析《轉轉生》如何以當代目光,形塑去殖民視角的奈及利亞歷史。
Thumbnail
《轉轉生》為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,融合舞蹈、音樂、時尚和視覺藝術,透過身體、服裝與群舞結構,回應殖民歷史、城市經驗與祖靈記憶的交錯。本文將從服裝設計、身體語彙與「輪迴」的「誕生—死亡—重生」結構出發,分析《轉轉生》如何以當代目光,形塑去殖民視角的奈及利亞歷史。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 到 AI說書 - 從0開始 - 63 為止,我們已經介紹完 Multi-Head Attention ,接著我們來談 Add & Norm 兩元件的功能: Add
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 到 AI說書 - 從0開始 - 63 為止,我們已經介紹完 Multi-Head Attention ,接著我們來談 Add & Norm 兩元件的功能: Add
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News