與LLM合作你應該要知道的事

更新於 發佈於 閱讀時間約 2 分鐘
raw-image

介紹

隨著大型語言模型(LLMs)越來越多地融入軟體開發工作流程,工程師需要了解如何有效地使用這些強大的工具。本文專注於軟體工程師開始使用大型語言模型的基本概念和最佳實踐,幫助您避免常見的陷阱並最大化生產力。我們將探討提示工程、結果驗證和實際實施策略的關鍵原則。

技術概述

使用大型語言模型需要理解幾個基本概念:

  1. 提示工程
    1. LLMs 根據您的提示的質量和結構作出反應
    2. 清晰、具體的指令會產生更好的結果
    3. 上下文很重要:提供相關的背景資料
  2. 令牌管理
    1. 每個 LLM 對輸入/輸出的令牌有上限
    2. 更長的上下文不一定意味著更好的結果
    3. 學會將大型任務分解為可管理的部分
  3. 模型特徵
    1. 不同的模型有不同的優勢
    2. 指令遵循模型與通用模型
    3. 溫度設置會影響輸出的創造性/一致性

實際實施

基本前提

  • 訪問 LLM API(例如,OpenAI、Anthropic)
  • 理解 API 的速率限制和成本
  • 常見任務的基本提示模板

實施步驟

  1. 結構化您的提示

def create_engineering_prompt(task, context, constraints):
return f"""
任務: {task}
上下文: {context}
約束條件: {constraints}
預期輸出格式: [指定格式]
"""
  1. 驗證結果

def validate_llm_response(response):
# 檢查是否有虛假信息
if contains_inconsistencies(response):
return False

# 驗證輸出格式
if not matches_expected_format(response):
return False

return True

最佳實踐

  • 始終將 LLM 輸出與已知事實進行驗證
  • 為 API 故障實施重試機制
  • 對提示模板使用版本控制
  • 記錄互動以改善品質

實際應用

  1. 代碼審查助手
    1. 分析代碼中的潛在的問題
    2. 建議改進和替代方案
    3. 解釋複雜的代碼模式
  2. 文檔生成
    1. 創建 API 文檔
    2. 生成代碼註釋
    3. 撰寫技術規範
  3. 開發工作流程
    1. 將複雜任務分解
    2. 生成測試案例
    3. 調試協助

結論

有效運用大型語言模型需要了解它們的能力和限制。專注於撰寫清晰的提示、驗證輸出,並將大型語言模型謹慎地整合到您的開發工作流程中。隨著經驗的積累,您將對何時以及如何最有效地利用這些工具發展出更好的直覺。

進一步閱讀

  1. 高級提示工程技術
    1. 思維鏈提示
    2. 少量學習策略
    3. 提示模板和模式
  2. LLM 整合模式
    1. API 整合最佳實踐
    2. 錯誤處理和韌性
    3. 成本優化策略
  3. LLM 驅動的開發工具
    1. 構建客製化開發工具
    2. IDE 整合
    3. 自動化工作流程

參考資料

  1. OpenAI API 文檔
  2. Anthropic Claude 文檔
  3. LangChain 文檔
  4. 提示工程指南

更多關於我

留言
avatar-img
留言分享你的想法!
avatar-img
洪群崴的沙龍
1會員
13內容數
軟體工程師、職業舞者
洪群崴的沙龍的其他內容
2025/03/15
本文探討 Claude 的設計原則如何激發更好的 CLI 工具,並改善開發者的工作流程。
Thumbnail
2025/03/15
本文探討 Claude 的設計原則如何激發更好的 CLI 工具,並改善開發者的工作流程。
Thumbnail
2025/03/08
是否發現很難保持筆記的同步和組織? 黑曜石提供了一個強大的解決方案,透過 iCloud 在設備之間無縫同步其免費的筆記平台。
Thumbnail
2025/03/08
是否發現很難保持筆記的同步和組織? 黑曜石提供了一個強大的解決方案,透過 iCloud 在設備之間無縫同步其免費的筆記平台。
Thumbnail
2025/03/01
Dropzone 是一個強大的生產力工具,它提供了一個方便的浮動停靠欄,您可以在其中拖放文件以進行快速操作。
Thumbnail
2025/03/01
Dropzone 是一個強大的生產力工具,它提供了一個方便的浮動停靠欄,您可以在其中拖放文件以進行快速操作。
Thumbnail
看更多
你可能也想看
Thumbnail
TOMICA第一波推出吉伊卡哇聯名小車車的時候馬上就被搶購一空,一直很扼腕當時沒有趕緊入手。前陣子閒來無事逛蝦皮,突然發現幾家商場都又開始重新上架,價格也都回到正常水準,估計是官方又再補了一批貨,想都沒想就立刻下單! 同文也跟大家分享近期蝦皮購物紀錄、好用推薦、蝦皮分潤計畫的聯盟行銷!
Thumbnail
TOMICA第一波推出吉伊卡哇聯名小車車的時候馬上就被搶購一空,一直很扼腕當時沒有趕緊入手。前陣子閒來無事逛蝦皮,突然發現幾家商場都又開始重新上架,價格也都回到正常水準,估計是官方又再補了一批貨,想都沒想就立刻下單! 同文也跟大家分享近期蝦皮購物紀錄、好用推薦、蝦皮分潤計畫的聯盟行銷!
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 93 介紹了 The Corpus of Linguistic Acceptability (CoLA),其核心思想為:如果該句子在語
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下陳述任務 (Task)、模型 (Model)、微調 (Fine-Tuning)、GLUE (General Language Understanding Evalu
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下陳述任務 (Task)、模型 (Model)、微調 (Fine-Tuning)、GLUE (General Language Understanding Evalu
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News