付費限定

100篇文獻,每一篇反覆輸入20次相同指令嗎?

更新於 發佈於 閱讀時間約 2 分鐘

G-AI時代的飛速時代

先說結論,100篇文獻,每一篇都要輸入20次相同指令,每個只令30個字,總共需要輸入100x20x30=60,000字。但透過魔法濃縮技巧,只需要5次指令,每次4個字,總共只要100x5x4=2,000字。

以行動支持創作者!付費即可解鎖
本篇內容共 866 字、2 則留言,僅發佈於理財幼幼班:慢賺就是穩賺你目前無法檢視以下內容,可能因為尚未登入,或沒有該房間的查看權限。
avatar-img
1.6K會員
816內容數
這個出版專題的內容能讓大家在實際操作的過程中,看看我是如何克服心魔,或者是無法克服心魔的窘態,正如同災難投資法那本書,並不是一本歌功頌德自己的投資法有多厲害,而是誠實地面對自己如何從不斷的犯錯中,找出問題的關鍵,並逐漸改善自己個性的缺失,也讓自己投資報酬率愈來愈好的過程。
留言2
avatar-img
留言分享你的想法!
cychen yuyu-avatar-img
2025/03/13
Jackie Chien-avatar-img
3
謝謝教授分享
Jackie Chien-avatar-img
3
Jackie Chien的沙龍 的其他內容
👀爛爛成績到探花 恭喜本群組秀秀小妹地特一般行政上榜,上次有在群組抽到首獎,這次考第三名,可以說是氣運之女。 這位秀秀小妹個性很開朗,一開始考試成績也很兩光,當時我甫退休,白天就想說幫一些專職考上輔導一下課業,開設一對一平日課程,可是或許是大家都很忙,很少人來上,秀秀小妹就主動來上每一次課程,
洗腦一年的歌曲 調查局也有自己專屬歌曲,稱之為「調查員進行曲」,受訓時,每天早起放的歌曲就是這一首,受訓一年的長期洗腦之下,你不愛國也難了,分享其中一段話「...效忠國家 維護憲法 清除罪犯 保障人民, 向一切腐化惡化的勢力, 勇敢進軍...」 我就是被洗腦很嚴重的那一種,雖然我辦案不是高手等級
最近讀到一項有趣的研究,探討了AI對法律判決分析的影響。研究發現使用AI輔助時,雖然分析品質相近,但效率提升顯著。 作為一位有一點資歷的法律人,這個結論勾起了我的好奇心,於是我決定拿出碼表來算一下我分析一個判決所花的時間,然後再用AI來做一次。 . ●先說說「人工」分析的過程: 花了20分鐘
富邦隱晦其詞的內部信 剛剛看到一篇新聞報導《蔡明忠員工公開信:AI應用下公司也不會大幅縮減人力》,富邦集團今天發布員工內部信,對於DeepSeek橫空出世,富邦集團董事長蔡明忠認為,「AI Everywhere」時代到來應不會太久,即使在AI應用下,也相信公司不會大幅縮減人力,而是可望維持現有人數
什麼是蒸餾法? 近期,開發該應用程式僅花費600萬美元,遠低於OpenAI 與Google等公司動輒花費的數十億美元,但成效卻差不多。(DeepSeek是一家什麼公司?開發成本僅600萬美元的軟件為何引發美國科技股暴跌?) 其使用的方式為蒸餾法,儘管蒸餾是AI業界常見做法,但DeepSeek若利
哪個縣市補助最多 昨天在自己的Line群組討論少子化議題,有關這個議題,我之前寫過非常多的文章,目前發展的現象,比過去預估的還要嚴重。 為什麼政府不努力解決少子化問題,讓台灣少子化問題達到世界第一的嚴重,錢都花到哪裡去了,接著大家在討論生育補助,我稍微翻找了一下,新竹市政府的條件不錯,三胞胎以上
👀爛爛成績到探花 恭喜本群組秀秀小妹地特一般行政上榜,上次有在群組抽到首獎,這次考第三名,可以說是氣運之女。 這位秀秀小妹個性很開朗,一開始考試成績也很兩光,當時我甫退休,白天就想說幫一些專職考上輔導一下課業,開設一對一平日課程,可是或許是大家都很忙,很少人來上,秀秀小妹就主動來上每一次課程,
洗腦一年的歌曲 調查局也有自己專屬歌曲,稱之為「調查員進行曲」,受訓時,每天早起放的歌曲就是這一首,受訓一年的長期洗腦之下,你不愛國也難了,分享其中一段話「...效忠國家 維護憲法 清除罪犯 保障人民, 向一切腐化惡化的勢力, 勇敢進軍...」 我就是被洗腦很嚴重的那一種,雖然我辦案不是高手等級
最近讀到一項有趣的研究,探討了AI對法律判決分析的影響。研究發現使用AI輔助時,雖然分析品質相近,但效率提升顯著。 作為一位有一點資歷的法律人,這個結論勾起了我的好奇心,於是我決定拿出碼表來算一下我分析一個判決所花的時間,然後再用AI來做一次。 . ●先說說「人工」分析的過程: 花了20分鐘
富邦隱晦其詞的內部信 剛剛看到一篇新聞報導《蔡明忠員工公開信:AI應用下公司也不會大幅縮減人力》,富邦集團今天發布員工內部信,對於DeepSeek橫空出世,富邦集團董事長蔡明忠認為,「AI Everywhere」時代到來應不會太久,即使在AI應用下,也相信公司不會大幅縮減人力,而是可望維持現有人數
什麼是蒸餾法? 近期,開發該應用程式僅花費600萬美元,遠低於OpenAI 與Google等公司動輒花費的數十億美元,但成效卻差不多。(DeepSeek是一家什麼公司?開發成本僅600萬美元的軟件為何引發美國科技股暴跌?) 其使用的方式為蒸餾法,儘管蒸餾是AI業界常見做法,但DeepSeek若利
哪個縣市補助最多 昨天在自己的Line群組討論少子化議題,有關這個議題,我之前寫過非常多的文章,目前發展的現象,比過去預估的還要嚴重。 為什麼政府不努力解決少子化問題,讓台灣少子化問題達到世界第一的嚴重,錢都花到哪裡去了,接著大家在討論生育補助,我稍微翻找了一下,新竹市政府的條件不錯,三胞胎以上
你可能也想看
Google News 追蹤
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 99 到 AI說書 - 從0開始 - 121,我們完成書籍:Transformers for Natural Language Proc
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們從 AI說書 - 從0開始 - 103 至 AI說書 - 從0開始 - 105 的努力,已經完成資料集前處理,現在需要定義一個函數來加載這些清理過的數據集,並在預處
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經有資料集在 AI說書 - 從0開始 - 103 ,必要的清理函數在 AI說書 - 從0開始 - 104 ,現在把它們湊在一起,如下: # load Eng
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 102 說要窺探 WMT 資料集,以下著手資料集下載程式: import urllib.request # Define the
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 73 到 AI說書 - 從0開始 - 96,我們完成書籍:Transformers for Natural Language Proce
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
最近實踐將學術閱讀流水線化,效率顯著提升。 其中已經有兩個動作實踐了50次以上,達到標準化。 動作一:將文獻內容轉為資訊塊 良品一標準 原料:閱讀材料的文本形式 成果物:資訊塊 動作二:將資訊塊匯集成話題索引筆記 (Keyword Index) 良品二 原料:帶著
看到一篇文章寫麼”日更寫500字的好處”,作者挑戰1000篇,以1000篇為單位後,達到後再重新開始,連續三年,他說這是一種寫作文章及邏輯思考的訓練,讓他閱讀書籍加快,整理資料和收斂資訊幫助很大,這也是我想達到的目標,他提到不要給自己壓力,不求完美,只要60分即可,努力練習希望可以持續達到第一個
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 99 到 AI說書 - 從0開始 - 121,我們完成書籍:Transformers for Natural Language Proc
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們從 AI說書 - 從0開始 - 103 至 AI說書 - 從0開始 - 105 的努力,已經完成資料集前處理,現在需要定義一個函數來加載這些清理過的數據集,並在預處
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經有資料集在 AI說書 - 從0開始 - 103 ,必要的清理函數在 AI說書 - 從0開始 - 104 ,現在把它們湊在一起,如下: # load Eng
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 102 說要窺探 WMT 資料集,以下著手資料集下載程式: import urllib.request # Define the
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 73 到 AI說書 - 從0開始 - 96,我們完成書籍:Transformers for Natural Language Proce
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
最近實踐將學術閱讀流水線化,效率顯著提升。 其中已經有兩個動作實踐了50次以上,達到標準化。 動作一:將文獻內容轉為資訊塊 良品一標準 原料:閱讀材料的文本形式 成果物:資訊塊 動作二:將資訊塊匯集成話題索引筆記 (Keyword Index) 良品二 原料:帶著
看到一篇文章寫麼”日更寫500字的好處”,作者挑戰1000篇,以1000篇為單位後,達到後再重新開始,連續三年,他說這是一種寫作文章及邏輯思考的訓練,讓他閱讀書籍加快,整理資料和收斂資訊幫助很大,這也是我想達到的目標,他提到不要給自己壓力,不求完美,只要60分即可,努力練習希望可以持續達到第一個