與LLM合作你應該要知道的事

更新於 發佈於 閱讀時間約 2 分鐘
raw-image

介紹

隨著大型語言模型(LLMs)越來越多地融入軟體開發工作流程,工程師需要了解如何有效地使用這些強大的工具。本文專注於軟體工程師開始使用大型語言模型的基本概念和最佳實踐,幫助您避免常見的陷阱並最大化生產力。我們將探討提示工程、結果驗證和實際實施策略的關鍵原則。

技術概述

使用大型語言模型需要理解幾個基本概念:

  1. 提示工程
    1. LLMs 根據您的提示的質量和結構作出反應
    2. 清晰、具體的指令會產生更好的結果
    3. 上下文很重要:提供相關的背景資料
  2. 令牌管理
    1. 每個 LLM 對輸入/輸出的令牌有上限
    2. 更長的上下文不一定意味著更好的結果
    3. 學會將大型任務分解為可管理的部分
  3. 模型特徵
    1. 不同的模型有不同的優勢
    2. 指令遵循模型與通用模型
    3. 溫度設置會影響輸出的創造性/一致性

實際實施

基本前提

  • 訪問 LLM API(例如,OpenAI、Anthropic)
  • 理解 API 的速率限制和成本
  • 常見任務的基本提示模板

實施步驟

  1. 結構化您的提示

def create_engineering_prompt(task, context, constraints):
return f"""
任務: {task}
上下文: {context}
約束條件: {constraints}
預期輸出格式: [指定格式]
"""
  1. 驗證結果

def validate_llm_response(response):
# 檢查是否有虛假信息
if contains_inconsistencies(response):
return False

# 驗證輸出格式
if not matches_expected_format(response):
return False

return True

最佳實踐

  • 始終將 LLM 輸出與已知事實進行驗證
  • 為 API 故障實施重試機制
  • 對提示模板使用版本控制
  • 記錄互動以改善品質

實際應用

  1. 代碼審查助手
    1. 分析代碼中的潛在的問題
    2. 建議改進和替代方案
    3. 解釋複雜的代碼模式
  2. 文檔生成
    1. 創建 API 文檔
    2. 生成代碼註釋
    3. 撰寫技術規範
  3. 開發工作流程
    1. 將複雜任務分解
    2. 生成測試案例
    3. 調試協助

結論

有效運用大型語言模型需要了解它們的能力和限制。專注於撰寫清晰的提示、驗證輸出,並將大型語言模型謹慎地整合到您的開發工作流程中。隨著經驗的積累,您將對何時以及如何最有效地利用這些工具發展出更好的直覺。

進一步閱讀

  1. 高級提示工程技術
    1. 思維鏈提示
    2. 少量學習策略
    3. 提示模板和模式
  2. LLM 整合模式
    1. API 整合最佳實踐
    2. 錯誤處理和韌性
    3. 成本優化策略
  3. LLM 驅動的開發工具
    1. 構建客製化開發工具
    2. IDE 整合
    3. 自動化工作流程

參考資料

  1. OpenAI API 文檔
  2. Anthropic Claude 文檔
  3. LangChain 文檔
  4. 提示工程指南

更多關於我

avatar-img
洪群崴的沙龍
1會員
9內容數
軟體工程師、職業舞者
留言
avatar-img
留言分享你的想法!
洪群崴的沙龍 的其他內容
本文探討 Claude 的設計原則如何激發更好的 CLI 工具,並改善開發者的工作流程。
是否發現很難保持筆記的同步和組織? 黑曜石提供了一個強大的解決方案,透過 iCloud 在設備之間無縫同步其免費的筆記平台。
Dropzone 是一個強大的生產力工具,它提供了一個方便的浮動停靠欄,您可以在其中拖放文件以進行快速操作。
Rectangle 是一款免費的開源窗口管理工具,通過讓您使用鍵盤快捷鍵快速組織窗口來解決這個問題。
你的 Mac 選單列是不是因為太多圖示而變得雜亂無章? 隱藏工具列通過讓你隱藏不常用的選單列圖示來解決這個問題。
Maccy 是一款免費且開源的 Mac 剪貼板管理器,可以保存你複製的所有內容。 這個簡單的工具在你的菜單欄中靜靜運行,跟踪你的複製歷史並讓你隨時可以訪問。
本文探討 Claude 的設計原則如何激發更好的 CLI 工具,並改善開發者的工作流程。
是否發現很難保持筆記的同步和組織? 黑曜石提供了一個強大的解決方案,透過 iCloud 在設備之間無縫同步其免費的筆記平台。
Dropzone 是一個強大的生產力工具,它提供了一個方便的浮動停靠欄,您可以在其中拖放文件以進行快速操作。
Rectangle 是一款免費的開源窗口管理工具,通過讓您使用鍵盤快捷鍵快速組織窗口來解決這個問題。
你的 Mac 選單列是不是因為太多圖示而變得雜亂無章? 隱藏工具列通過讓你隱藏不常用的選單列圖示來解決這個問題。
Maccy 是一款免費且開源的 Mac 剪貼板管理器,可以保存你複製的所有內容。 這個簡單的工具在你的菜單欄中靜靜運行,跟踪你的複製歷史並讓你隨時可以訪問。
你可能也想看
Google News 追蹤
Thumbnail
【vocus 精選投資理財/金融類沙龍,輸入 "moneyback" 年訂閱 9 折】 市場動盪時,加碼永遠值得的投資標的——「自己」 川普政府再度拋出關稅震撼彈,全球市場應聲重挫,從散戶到專業投資人,都急著找尋買進殺出的訊號,就是現在,輪到知識進場!把握時機讓自己升級,別放過反彈的機會!
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 99 到 AI說書 - 從0開始 - 121,我們完成書籍:Transformers for Natural Language Proc
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 102 說要窺探 WMT 資料集,以下著手資料集下載程式: import urllib.request # Define the
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
Thumbnail
【vocus 精選投資理財/金融類沙龍,輸入 "moneyback" 年訂閱 9 折】 市場動盪時,加碼永遠值得的投資標的——「自己」 川普政府再度拋出關稅震撼彈,全球市場應聲重挫,從散戶到專業投資人,都急著找尋買進殺出的訊號,就是現在,輪到知識進場!把握時機讓自己升級,別放過反彈的機會!
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 99 到 AI說書 - 從0開始 - 121,我們完成書籍:Transformers for Natural Language Proc
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 102 說要窺探 WMT 資料集,以下著手資料集下載程式: import urllib.request # Define the
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。