InContextLearning

含有「InContextLearning」共 2 篇內容
全部內容
發佈日期由新至舊
隨著 Agent 任務複雜度的提升,單純擴大上下文窗口已無法滿足需求,反而可能因計算成本和「注意力衰減」問題導致效率下降。傳統 RAG 的局限性,結合短期與長期記憶、發展情境感知檢索、上下文壓縮等策略的解決方案,對於構建更智能、更能解決複雜問題的 LLM Agent 至關重要。
Thumbnail
也許大部分的人聽過甚至用過 ChatGPT ,也可能看過 DeepSeek 的崛起影響了世界等等的報導,但有沒有想過它們到底為什麼突然能派上用場?從早期只能補字的小模型,到如今能進行翻譯、推理甚至聊天,這篇針對「湧現能力」與「上下文學習」來說明LLM 從「不能用」到「很好用」的轉變。
Thumbnail