付費限定

如果我想用NBLM建立第二個會跟我一起對話的大腦我該怎麼做

更新 發佈閱讀 3 分鐘

以前我花了很多時間來學習怎麼建立第二大腦,所以大部分的第二大腦工具我也幾乎都學習過,甚至去買了一些線上課程把自己搞成某個領域方面的專家。可是在學習這些做法的時候一直有一種感覺,就是我好像是在編目錄,把大量的資料或許是建立的不同的資料夾來管理,又或許是根據專案寫下自己的心得,讓下一次執行同樣的專案的時候還可以使用。

感覺這樣子就好像建立了第二個大腦,可以幫你記憶這些東西,而且回想上會比較順利。但是事實上真的有做到這些功能嗎?只要你有一些細微的東西沒有記錄到可能下一次你就會產生思考斷鏈的問題。

另外一個更大的問題是,雖然這些資料可以幫我回想起過去做過的東西,但是我還是必須積極的跟這些資料主動的連結、回想,才有辦法去激發更多的創意,甚至會因為這些資料給我一個框架,讓我自己限定在跳不出的漩渦裡。

以行動支持創作者!付費即可解鎖
本篇內容共 967 字、0 則留言,僅發佈於會員專屬區你目前無法檢視以下內容,可能因為尚未登入,或沒有該房間的查看權限。
留言
avatar-img
留言分享你的想法!
avatar-img
deediao的沙龍
90會員
115內容數
我每個月的閱讀量非常驚人,現在將注意力放在數位趨勢、數位閱讀還有生成式AI應用上,喜歡寫跟人不一樣的東西,更喜歡讓你知道我是如何思考的,歡迎訂閱跟我一起成長。
deediao的沙龍的其他內容
2025/10/06
即便你是最強悍的人,工作到某個階段之後,還是會遇到倦怠的問題。這時候就得重新去思考:我的內在動力為什麼流失了?什麼時候會開始覺得自己缺乏內在動力?這正好和我最近讀到的一篇文章所寫的內容很相似。 當你經常問自己:「為什麼要做這些事情呢?」,這就表示你心中開始有倦怠浮起了。而且當內在動力減弱,我就會發
2025/10/06
即便你是最強悍的人,工作到某個階段之後,還是會遇到倦怠的問題。這時候就得重新去思考:我的內在動力為什麼流失了?什麼時候會開始覺得自己缺乏內在動力?這正好和我最近讀到的一篇文章所寫的內容很相似。 當你經常問自己:「為什麼要做這些事情呢?」,這就表示你心中開始有倦怠浮起了。而且當內在動力減弱,我就會發
2025/10/05
這是一篇超級精彩的文章,裡面提到創辦人怎麼使用NotebookLM。從很多的痛處著手, 在很多的驚訝中繼續前進。目前我也是這種感覺,而且自從讀了這篇文章後,搭配Medium的Hack 作法,我真正有了一個隨時可以跟我對話的團隊,而這個可以跟我對話的團隊中,還包含了不同階段的自己對相同主題的想法,我隨
2025/10/05
這是一篇超級精彩的文章,裡面提到創辦人怎麼使用NotebookLM。從很多的痛處著手, 在很多的驚訝中繼續前進。目前我也是這種感覺,而且自從讀了這篇文章後,搭配Medium的Hack 作法,我真正有了一個隨時可以跟我對話的團隊,而這個可以跟我對話的團隊中,還包含了不同階段的自己對相同主題的想法,我隨
2025/09/24
NBLM的應用 不管做什麼得先定義自己的問題 建立專家知識 善用生成式AI的深度研究讓自己先能掌握問題的基礎輪廓,才能進入NBLM以專家的高度來處理問題 繪製自己的主題知識架構 透過AI探索找到更多文件-和主題知識架構能夠結合,而且一定要先組織思考不然就是Garbage in and Ga
2025/09/24
NBLM的應用 不管做什麼得先定義自己的問題 建立專家知識 善用生成式AI的深度研究讓自己先能掌握問題的基礎輪廓,才能進入NBLM以專家的高度來處理問題 繪製自己的主題知識架構 透過AI探索找到更多文件-和主題知識架構能夠結合,而且一定要先組織思考不然就是Garbage in and Ga
看更多
你可能也想看
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 到 AI說書 - 從0開始 - 63 為止,我們已經介紹完 Multi-Head Attention ,接著我們來談 Add & Norm 兩元件的功能: Add
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 到 AI說書 - 從0開始 - 63 為止,我們已經介紹完 Multi-Head Attention ,接著我們來談 Add & Norm 兩元件的功能: Add
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News