Ian Chiu-avatar-img

Ian Chiu

0 位追蹤者

Ian Chiu

0 位追蹤者
avatar-img
AI 工程師的 LLM 筆記
0會員
13內容數
聊一聊提示工程、模型調校與優化技巧,同時分享一路走來的挑戰與突破,作為提醒未來的自己:別忘初心,走得更踏實。
全部內容
由新到舊
也許大部分的人聽過甚至用過 ChatGPT ,也可能看過 DeepSeek 的崛起影響了世界等等的報導,但有沒有想過它們到底為什麼突然能派上用場?從早期只能補字的小模型,到如今能進行翻譯、推理甚至聊天,這篇針對「湧現能力」與「上下文學習」來說明LLM 從「不能用」到「很好用」的轉變。
Thumbnail
ArmoRM-Llama3-8B-v0.1 模型,能從多個面向(誠實性、詳盡度、安全性等)評估LLM生成的文本。包含架構說明、評分方式、輸入(Prompt, Response, messages)、輸出(19項評估,包含HelpSteer dataset的五種評估)以及使用範例。
Thumbnail
採用 SynEval 工具,從「隱私保護(Privacy preservation)」出發,同時兼顧「保真度(Fidelity)」與「實用性(Utility)」,確保在支持下游任務的前提下,不洩露敏感資訊。利用TSTR框架和MAE、準確率等指標評估實用性,透過推斷攻擊評估隱私保護效果。
Thumbnail
延續上篇所介紹的 Nemotron-4 340B Technical Report 細說合成資料集的流程,可以依據需要使用其中的步驟(流程),建置自己的合成資料生產線,最後附上範例 Prompt
Thumbnail
由 NVIDIA 發表,包括 Base、Instruct 與 Reward 三個版本,在 alignment 過程中超過 98% 的微調資料來自合成資料生成流程,展現有效運用 synthetic data 發展對齊模型的能力。
Thumbnail
Phi‑3 系列透過大量高品質與合成資料訓練,並結合 RLHF、對齊與自動測試,推出 3.8B 至 14B 的小模型與 4.2B 參數的多模態 Phi‑3‑Vision,在理解、推理、生成與圖像理解任務上表現突破,支援手機部署與低延遲場景。
Thumbnail
Microsoft Research 發表《Textbooks Are All You Need II: phi-1.5 technical report》,Phi-1.5 展現高品質合成資料(教科書等級)的潛力,以僅 1.3B 參數在常識推理與語言理解上媲美大型模型,挑戰「參數規模至上」的傳統觀點
Thumbnail
微軟的研究論文《Textbooks Are All You Need》提出以高品質教科書資料訓練語言模型,開發出僅 1.3B 參數的 phi-1 模型,其效能在程式碼生成任務上媲美參數量更大的模型。此論文探討了高品質資料的重要性,包含資料過濾、合成教科書資料集的建立,以及模型架構與訓練過程。
Thumbnail
使用大型語言模型(LLM)生成合成資料作為訓練語料的可行性與實務應用。根據研究顯示,合成資料在某些任務上可達到與真實資料相近的效果,具備部分替代潛力。高品質訓練資料對模型表現的重要性,並討論合成資料的生成策略與評估方法。
Thumbnail
討論合成資料的定義、優勢、取得手法、應用場景、挑戰以及未來發展。合成資料透過人工方法或生成模型創造,可用於補充或取代真實資料,應用於機器學習、資料隱私保護、醫療研究和金融風險分析等領域。然而,合成資料也面臨真實性、偏差、成本和驗證難度等挑戰。
Thumbnail