Mistral Small 3.1:超越Google Gemma 3,輕量化開源 AI 模型的又一突破

更新 發佈閱讀 3 分鐘
raw-image

Google於2025年3 月12日推出改變高效AI門檻的開源模型 Gemma 3不到一個禮拜,Mistral AI 立刻於3月18日推出開源模型 Mistral Small 3.1 ,以其 240億(24B)參數的輕量化設計再度震撼大家。這款開源模型不僅在性能上超越了 Google的 Gemma 3(27 B)、OpenAI 的 GPT-4o Mini 和 Anthropic 的 Claude 3.5 Haiku 等更大規模的競爭對手,還能在消費級硬體上高效運行,例如單張 Nvidia RTX 4090 GPU 或配備 32 GB RAM 的 Mac!


Mistral Small 3.1 的核心亮點

Mistral Small 3.1擁有 128,000個 Token的上下文窗口,遠超同級模型常見的 8,000-32,000 Token限制。這使其在處理長篇文本、複雜文檔分析或延長對話時表現出色。其次,該模型同樣支援多模態功能,能同時處理文字與圖像,適用於圖表解讀、文檔理解等場景。此外,其推理速度高達每秒 150個Token,非常適合低延遲應用,如聊天機器人或即時問題解答。

raw-image

Mistral Small 3.1

在基準測試中,Mistral Small 3.1 的表現令人驚艷。它在 GPQA Diamond(研究生級科學推理測試)中得分 45.96%,超越 Gemma 3的 42.40%;在 HumanEval 程式碼生成測試中得分 88.41%,略勝 Gemma 3的 87.80%;而在視覺任務如 ChartQA(圖表問答)和 DocVQA(文檔問答)中分別達到 86.24% 和 94.08%,大幅領先 Gemma 3 的 78.00% 和 86.60%。可見Mistral Small 3.1 在多個領域都能與更大模型抗衡,甚至更勝一籌。

raw-image
raw-image

Mistral Small 3.1


開源生態與應用前景

Mistral Small 3.1 在 Apache 2.0 許可證下發佈,為開發者提供了廣闊的客製化空間。無論是透過 Hugging Face 下載原始模型,還是等待即將推出的社區量化版本(如 GGUF 或 MLX 量化格式),這款模型的開放性使其能快速適應特定領域需求,例如醫療、教育或金融分析。此外,Mistral 的 La Plateforme API 進一步降低了使用門檻,讓企業與個人能輕鬆整合這款高效 AI。


Mistral Small 3.1 的輕量化設計,結合多模態能力、超大上下文窗口與高效推理速度,僅僅在Google推出Gemma 3的一周內,又為開源AI模型定義了更高的標準。隨著後續開源社區支持的增強與應用場景的拓展,Mistral Small 3.1 絕對有機會成為 2025 年開源AI模型關鍵參與者之一。


我是TN科技筆記,如果喜歡這篇文章,歡迎留言、點選愛心、轉發給我支持鼓勵~

也歡迎每個月請我喝杯咖啡,鼓勵我撰寫更多科技文章,一起跟著科技浪潮前進!!

>>>請我喝一杯咖啡

留言
avatar-img
留言分享你的想法!
avatar-img
TN科技筆記(TechNotes)的沙龍
45會員
153內容數
大家好,我是TN,喜歡分享科技領域相關資訊,希望各位不吝支持與交流!
2025/04/23
介紹TTS模型(文字轉語音)的運作原理與應用,比較Google NotebookLM Podcast、ElevenLabs Studio、Sesame CSM-1B與Nari Labs Dia的特色、優勢與限制。從對話逼真度到語音複製,幫助您選擇最適合的TTS解決方案。
Thumbnail
2025/04/23
介紹TTS模型(文字轉語音)的運作原理與應用,比較Google NotebookLM Podcast、ElevenLabs Studio、Sesame CSM-1B與Nari Labs Dia的特色、優勢與限制。從對話逼真度到語音複製,幫助您選擇最適合的TTS解決方案。
Thumbnail
2025/04/19
隨著 AI 的快速發展,大型語言模型的性能不斷提升,但顯卡等硬體需求往往讓一般用戶望而卻步。Google 於 2025 年 4 月 18 日發布的 Gemma 3 系列量化模型,透過 Quantization-Aware Training(QAT) 技術,成功將頂尖 AI 性能帶入消費級硬體,如 N
Thumbnail
2025/04/19
隨著 AI 的快速發展,大型語言模型的性能不斷提升,但顯卡等硬體需求往往讓一般用戶望而卻步。Google 於 2025 年 4 月 18 日發布的 Gemma 3 系列量化模型,透過 Quantization-Aware Training(QAT) 技術,成功將頂尖 AI 性能帶入消費級硬體,如 N
Thumbnail
2025/04/16
xAI 的 Grok 3 於 2025 年 4 月陸續推出 Grok Workspaces 和 Grok Studio ,各自針對不同的使用需求,來幫助用戶提升工作效率與創意實現。本文將深入介紹這兩個功能的特色、差異,以及最適合的使用情境,幫助你選擇合適的工具
Thumbnail
2025/04/16
xAI 的 Grok 3 於 2025 年 4 月陸續推出 Grok Workspaces 和 Grok Studio ,各自針對不同的使用需求,來幫助用戶提升工作效率與創意實現。本文將深入介紹這兩個功能的特色、差異,以及最適合的使用情境,幫助你選擇合適的工具
Thumbnail
看更多
你可能也想看
Thumbnail
開源模型Mistral Small 3.1 於 2025 年 3 月 18 日推出,以 24 億參數實現高效能,超越 Gemma 3 等模型。其多模態功能、128,000 Token 上下文窗口與每秒 150 Token 的推理速度,使其在多項任務中表現出色,並能在消費級硬體上運行展現驚人效率。
Thumbnail
開源模型Mistral Small 3.1 於 2025 年 3 月 18 日推出,以 24 億參數實現高效能,超越 Gemma 3 等模型。其多模態功能、128,000 Token 上下文窗口與每秒 150 Token 的推理速度,使其在多項任務中表現出色,並能在消費級硬體上運行展現驚人效率。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
在AI領域的競爭中,Meta再次展現了其不可忽視的實力。Mark Zuckerberg的公司最近發布了他們迄今為止最強大的大型語言模型 Llama 3.1,這不僅是免費的,而且還可以說是開源的。這一舉動無疑將在AI界掀起巨浪,但它真的能與OpenAI和Google等巨頭抗衡嗎?讓我們一起深入探討
Thumbnail
在AI領域的競爭中,Meta再次展現了其不可忽視的實力。Mark Zuckerberg的公司最近發布了他們迄今為止最強大的大型語言模型 Llama 3.1,這不僅是免費的,而且還可以說是開源的。這一舉動無疑將在AI界掀起巨浪,但它真的能與OpenAI和Google等巨頭抗衡嗎?讓我們一起深入探討
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
預計量子AI計算會在2032年左右來到,在這之前,我們還有充足的時間可以逐步去學習量子計算與演算法,讓我們按部就班,持續前進,做輕鬆無負擔的超前學習 !
Thumbnail
預計量子AI計算會在2032年左右來到,在這之前,我們還有充足的時間可以逐步去學習量子計算與演算法,讓我們按部就班,持續前進,做輕鬆無負擔的超前學習 !
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News