AI說書 - Prompt Engineering - 70 | Prompt 結論

閱讀時間約 2 分鐘

我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


加州理工學院噴射推進實驗室的 David Van Buren 深入研究了大型語言模型 (LLM) 在模擬專家角色和執行複雜認知任務方面的潛力,他的工作表明,LLM 在適當的 Prompt 下可以複製訓練資料中發現的人物角色的行為,透過創建由這些模擬角色組成的團隊,並透過上下文和 Prompt 來指導他們,LLM 可以透過場景來引導,從而得出專家般的行為並執行有意義的認知任務。


David Van Buren 強調了專家角色在引發 LLM 專家回應方面的力量,諸如 “您是專家......” 或 “充當......” 之類的 Prompt 可以顯著提高 LLM 的回答品質,他也強調了 LLM 產生可信對話的潛力,這可用於提高各種基準的表現。


David Van Buren 研究的主要收穫是 LLM 尚未開發的巨大潛力,LLM 在訓練期間編碼的行為代表了重要的認知資源,可以利用它來執行有用的認知任務,他提出,透過對 LLM 進行有關特定個人行為的培訓,我們可以組建和部署模擬角色的專家團隊作為認知助手來執行廣泛的智力工作,他認為,這種方法具有無限擴展的潛力。


以下是 David Van Buren 研究中使用的一些簡化的 Prompt 範例:

  • 想像 Richard Feynman 和 Elly Noether 討論最近一篇關於 “光頻率下的雙縫時間繞射” 的論文,Richard Feynman 首先建議他們寫下不同時間穿過狹縫的光子的波函數
  • Elly Noether 建議,由於繞射是在時間維度上的,因此他們應該考慮頻率內容
  • Elly Noether 指出,Richard Feynman 沒有對他的方程式進行編號,並且在從波函數到機率的過程中似乎犯了一個錯誤
  • Elly Noether 建議在時頻域上繪製此圖,以查看不同延遲的頻率內容
  • Elly Noether 建議 Richard Feynman 更熟悉電腦程式,應該編寫 Python 程式碼
avatar-img
170會員
452內容數
這裡將提供: AI、Machine Learning、Deep Learning、Reinforcement Learning、Probabilistic Graphical Model的讀書筆記與演算法介紹,一起在未來AI的世界擁抱AI技術,不BI。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
Learn AI 不 BI 的其他內容
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在多角色方法的基礎上,Lance Eliot 於 2023 年引入了 “Mega-Personas” 方
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將實作 googletrans,googletrans 函式庫是 Google Translate AJAX (Asynchronous JavaScript an
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Google 翻譯 (https://translate.google.com/) 提供了一個隨時可用的官方翻譯介面,Google 在其翻譯演算法中也擁有 Transf
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - Prompt Engineering - 67 | 多角色 Prompt 中闡述了
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在多角色方法的基礎上,Lance Eliot 於 2023 年引入了 “Mega-Personas” 方
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將實作 googletrans,googletrans 函式庫是 Google Translate AJAX (Asynchronous JavaScript an
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Google 翻譯 (https://translate.google.com/) 提供了一個隨時可用的官方翻譯介面,Google 在其翻譯演算法中也擁有 Transf
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - Prompt Engineering - 67 | 多角色 Prompt 中闡述了
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
你可能也想看
Google News 追蹤
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
Thumbnail
今天又發現ChatGPT的一些缺點, 使用時需要很準確的提供你想要表達的文字(我覺得還蠻重要的) 又或者拿一些範例給它看, 它就能更準確的回答問題, 因為今天我發現有一篇文章和之前寫過的完全一樣了, 所以又要再請ChatGPT生成30則勵志英文短文, 結果之前發問的問題已經消失了, 又
Thumbnail
我是一位提示工程師 生成式AI的課程,我大概已經上過1,000人次以上,最近更花費重金,在台大霖澤館舉辦一場百人AIBOT設計課程,並在將近10位的助教協助下,完成課程的設定目標。 在生成式AI的領域中,變化實在是非常地迅速,今天表現不佳的ChatGPT,明天可能問題就可以解決。 過去還有想辦
Thumbnail
因為網路上充斥著 是是而非的資訊,公說公有理 婆說婆有理,我發現我的價值觀開始有點混淆,心中有許多問題 不知道真正的答案是甚麼?突然 想到最近的AI新科技-ChatGPT 或許可以解答我內心的困惑。所以我試著與ChatGPT進行對話,沒想到ChatGPT 的回覆 完全可以解答我心中的疑惑。
Thumbnail
為了充分發揮AI的潛力,我們必須深入瞭解其運作模式和思考邏輯,並學會與AI對話的技巧。《ChatGPT提問課,做個懂AI的高效工作者》這本書提供了豐富的實例,讓讀者更容易學會如何提出精準的問題,並享有提問課程的閱讀回饋。這對於想成為懂AI的高效工作者的人來說,是一本值得一看的書。
Thumbnail
ChatGPT(全名:聊天生成預訓練轉換器)是一個由 OpenAI 開發的人工智慧聊天機器人程式。它於 2022 年 11 月推出,使用了基於 GPT-3.5、GPT-4 和 GPT-4o 架構的大型語言模型,並以強化學習進行訓練。
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
Thumbnail
在閱讀研究文獻時,我們需要整理研究先進們在類似主題中的發展方式與流程。本文介紹了使用ChatGPT協助快速理解文章的方法,特別強調了Prompt的使用。希望與讀者分享Prompt的創意並歡迎各領域研究者合作交流討論。
Thumbnail
給出好的指令也是一門學問! 我們在業界稱為「指令工程」(Prompt Engineering),OpenAI 官方也有公布指令工程的操作資訊,但是今天我們只要學會這樣的操作方式,你可以贏過現在多數的AI使用者。
Thumbnail
這是一篇跟 chatGPT 合作的廢文。文章從標題到內文都由 chatGPT撰寫由我下點評,模擬我 與 chatGPT 老師對談,做一場思辨實驗。
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
Thumbnail
今天又發現ChatGPT的一些缺點, 使用時需要很準確的提供你想要表達的文字(我覺得還蠻重要的) 又或者拿一些範例給它看, 它就能更準確的回答問題, 因為今天我發現有一篇文章和之前寫過的完全一樣了, 所以又要再請ChatGPT生成30則勵志英文短文, 結果之前發問的問題已經消失了, 又
Thumbnail
我是一位提示工程師 生成式AI的課程,我大概已經上過1,000人次以上,最近更花費重金,在台大霖澤館舉辦一場百人AIBOT設計課程,並在將近10位的助教協助下,完成課程的設定目標。 在生成式AI的領域中,變化實在是非常地迅速,今天表現不佳的ChatGPT,明天可能問題就可以解決。 過去還有想辦
Thumbnail
因為網路上充斥著 是是而非的資訊,公說公有理 婆說婆有理,我發現我的價值觀開始有點混淆,心中有許多問題 不知道真正的答案是甚麼?突然 想到最近的AI新科技-ChatGPT 或許可以解答我內心的困惑。所以我試著與ChatGPT進行對話,沒想到ChatGPT 的回覆 完全可以解答我心中的疑惑。
Thumbnail
為了充分發揮AI的潛力,我們必須深入瞭解其運作模式和思考邏輯,並學會與AI對話的技巧。《ChatGPT提問課,做個懂AI的高效工作者》這本書提供了豐富的實例,讓讀者更容易學會如何提出精準的問題,並享有提問課程的閱讀回饋。這對於想成為懂AI的高效工作者的人來說,是一本值得一看的書。
Thumbnail
ChatGPT(全名:聊天生成預訓練轉換器)是一個由 OpenAI 開發的人工智慧聊天機器人程式。它於 2022 年 11 月推出,使用了基於 GPT-3.5、GPT-4 和 GPT-4o 架構的大型語言模型,並以強化學習進行訓練。
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
Thumbnail
在閱讀研究文獻時,我們需要整理研究先進們在類似主題中的發展方式與流程。本文介紹了使用ChatGPT協助快速理解文章的方法,特別強調了Prompt的使用。希望與讀者分享Prompt的創意並歡迎各領域研究者合作交流討論。
Thumbnail
給出好的指令也是一門學問! 我們在業界稱為「指令工程」(Prompt Engineering),OpenAI 官方也有公布指令工程的操作資訊,但是今天我們只要學會這樣的操作方式,你可以贏過現在多數的AI使用者。
Thumbnail
這是一篇跟 chatGPT 合作的廢文。文章從標題到內文都由 chatGPT撰寫由我下點評,模擬我 與 chatGPT 老師對談,做一場思辨實驗。