LLM

含有「LLM」共 185 篇內容
全部內容
發佈日期由新至舊
如果你聽過「大型語言模型」(LLM),就知道它們靠著讀取大量文字,從中學會人類語言的規律。然後,他們運用這種規律來跟人類「交談」,甚至讓有些人以為AI是好朋友! 但最近有研究團隊把這套方法運用在自然界── 不是去「讀」語句,而是去「讀」植物。 「讀」植物能做什麼?用處可多了!
Thumbnail
你是否曾經夢想,能在自己的書桌上,運行需要龐大雲端伺服器才能驅動的大型語言模型(LLM)?NVIDIA 最新推出的個人 AI 超級電腦 DGX Spark,正讓這個夢想變得觸手可及。它被譽為「NVIDIA 的 Apple Mac 時刻」,一台可能徹底改變本地 AI 運算遊戲規則的設備。
Thumbnail
生成式 AI 與大型語言模型迅速普及,越來越多人希望能在本地端進行 AI 訓練,Nvidia 於 2025 年 10 月正式推出 DGX Spark AI mini-PC ——一款結合 Grace Blackwell 架構的「全球最小 AI 超級電腦」,開啟 AI 本地運算的新時代。
Thumbnail
因為筆者自己經常需要寫文章和提案,讓AI充當不同視角的讀者,分析作品優劣、給予優化建議,於是演化(?)出了一套我流的應對方式,重點歸納如下: 1. 讓AI變客觀的咒語:「關閉渲染」 請AI評析自己的作品時,AI總是會進入「誇誇模式」,得主動要求它「不要過度誇我」。但是你會發現: 討好型AI
Thumbnail
自從 LLM 問世以來,其對問題的理解力與回覆品質已達到足以應用於日常工作的水準。本文原本想完整介紹 LLM 的運作原理,但內容過於龐大,因此本文僅聚焦在 Transformer 架構中的 Attention 機制,從「Token 嵌入向量」開始。本文適合具備基本線性代數與神經網路概念的讀者閱讀。
大型語言模型(LLM)如 ChatGPT 廣泛應用。本文探討 AI 並非故意說謊,而是基於「拼湊合理句子」的原理,可能一本正經地「唬爛」。作者提出使用者應要求 AI 附上連結、判斷資料來源可信度,評估自身對資訊正確性的需求,將 AI 使用訓練成判斷資訊真偽的實戰練習,最終培養獨立思考與判斷力。
Thumbnail
含 AI 應用內容
#ChatGPT#AI#AI幻覺
本文提出「語用層疊加」(X模組)方法,在不修改模型參數下,以提示工程建立第二層語用判斷與策略調度,提升大型語言模型的語氣控制與意圖對齊。文中設計兩種驗證協議:PODT 用於檢驗策略差異,PRFM 用於追蹤殘差收斂。此研究展示如何將個人化行為層轉化為可科學驗證的工程對象,具備可複製性與可否證性。
Thumbnail
透過與LLM進行交互反思討論拓展個人認知邊界,並避免回聲室效應的思考流程。
介紹 Vibe Coding 的核心理念、應用場景、常用工具、入門指南、優勢與風險,並探討其作為軟體開發起點的潛力。Vibe Coding 是一種讓使用者透過自然語言與 AI 對話,由 AI 協助完成程式實作的開發方式,旨在降低技術門檻,讓非技術背景者也能專注於創意與使用者體驗。
Thumbnail
LangChain是一個開源開發框架(或庫),專門設計來幫助開發者更容易地構建基於大型語言模型(LLM)的應用程式。