隨著大語言模型的發展熱潮,如何有效地使用大語言模型成為大眾關心的話題。要學會使用大語言模型不能不了解提示工程 (Prompt Engineering),提示工程也稱為上下文內提示,指的是如何與大型語言模型(Large Language Model, LLM)溝通以引導其行為達到預期結果的方法,而無需更新模型權重。這是一門經驗科學,提示工程方法的效果在不同模型間可能有很大差異,因此需要大量實驗和啟發式方法。
本文僅關注自回歸語言模型的提示工程,不涉及圖像生成模型或多模態模型。本文核心目標是關於相容性和模型可操控性。
零樣本和少樣本學習是兩種最基本的模型提示方法,由許多大型語言模型(LLM)論文開創,並常用於評估LLM性能。零樣本學習是簡單地將任務文本輸入模型並要求結果。
在提示中呈現少量樣本的目的是向模型解釋使用者的意圖;換句話說,使用者以示範的形式向模型描述任務指令。然而,少樣本在標記使用方面可能成本高昂,並且由於上下文長度有限而限制了輸入長度。指令型語言模型(例如InstructGPT、自然指令)通過高品質的(任務指令、輸入、真實輸出)資料組對預訓練模型進行微調,使語言模型更好地理解用戶意圖並遵循指令。RLHF(基於人類反饋的強化學習)是一種常用的方法。指令遵循風格的微調改善了模型與人類意圖的對齊,並大大降低了溝通成本。在與指令模型互動時,我們應該詳細描述任務要求,努力做到具體和精確,避免說「不要做某事」,而是具體指明要做什麼。