DeepSeek開源週,第一個開源項目FlashMLA

更新於 發佈於 閱讀時間約 1 分鐘

DeepSeek近期開源的FlashMLA是針對Hopper GPU架構設計的高效多頭潛在注意力(Multi-Head Latent Attention, MLA)解碼核心,專為可變長度序列推理場景優化。

FlashMLA通過「以計算換顯存」的設計哲學,針對Hopper架構特性實現端到端優化,成為長上下文、低延遲推理場景的專用加速方案。其生態價值在於突破Transformer模型的記憶體瓶頸,為千億參數級模型的邊緣部署提供可行性路徑。


FlashMLA 技術參數

對照基準:NVIDIA FlashAttention-2/3

一、核心技術參數

raw-image


二、計算與記憶體效能

1. 記憶體相關

  • 顯存佔用(32K序列長度):
  • FlashMLA在DeepSeek-V2模型實現93.3%的KV Cache壓縮率,同等序列長度下顯存佔用僅為FlashAttention-2的1/15。例如處理32K長上下文時:
    • FlashMLA:2.1 GB
    • FlashAttention-2:31.5 GB
  • 記憶體頻寬利用率(H800 GPU):
    • 峰值:3000 GB/s
    • 對比FlashAttention-3:2400 GB/s

2. 計算效能

FlashMLA在計算密集型場景實現580 TFLOPS,較FlashAttention-3的450 TFLOPS提升28.9%,主要來自:

  • 指令級並行優化(ILP)
  • 延遲隱藏技術(Latency Hiding)
raw-image


三、硬體與軟體依賴

raw-image



avatar-img
0會員
14內容數
或許這裡更接近作為一個個人知識庫,我通常運用大模型來協助整理我所感興趣的資訊,除了放在自己電腦中,或許進一步分享出來會更有趣.
留言
avatar-img
留言分享你的想法!
本篇參與的主題活動
《離線找真愛》是Netflix 2025年初推出的日本戀愛實境節目,節目找來個性和氛圍不同的5位男女,記錄他們在法國尼斯度過的10天旅程,呈現人與人相會、邂逅,認識彼此和留下深刻印記的美好過程。
大家好!今天要和大家分享 PTCG Pocket 級別對戰的完整攻略。不論你是剛開始玩的新手,還是想衝排名的老手,這篇攻略都能幫你更了解遊戲機制! 目錄: 開放時間與參加條件 段位制度詳解 積分機制說明 賽季獎勵制度 實用打牌技巧 新手常見問題 ————————— 📅 一、開
「送禮」是電商業界的月經文,是不是就要拿出來討論,但總會有一種聲音:「送貨地址填朋友家就可以了吧?」所以電商做送禮業務一直讓人覺得有點多此一舉。 令人意外的是,在電商環境時移勢易的今天,送禮卻成了淘寶解決當前電商難題的一劑良藥。
全新 vocus 挑戰活動「方格人氣王」來啦~四大挑戰任你選,留言 / 愛心 / 瀏覽數大 PK,還有新手專屬挑戰!無論你是 vocus 上活躍創作者或剛加入的新手,都有機會被更多人看見,獲得站上版位曝光&豐富獎勵!🏆
《離線找真愛》是Netflix 2025年初推出的日本戀愛實境節目,節目找來個性和氛圍不同的5位男女,記錄他們在法國尼斯度過的10天旅程,呈現人與人相會、邂逅,認識彼此和留下深刻印記的美好過程。
大家好!今天要和大家分享 PTCG Pocket 級別對戰的完整攻略。不論你是剛開始玩的新手,還是想衝排名的老手,這篇攻略都能幫你更了解遊戲機制! 目錄: 開放時間與參加條件 段位制度詳解 積分機制說明 賽季獎勵制度 實用打牌技巧 新手常見問題 ————————— 📅 一、開
「送禮」是電商業界的月經文,是不是就要拿出來討論,但總會有一種聲音:「送貨地址填朋友家就可以了吧?」所以電商做送禮業務一直讓人覺得有點多此一舉。 令人意外的是,在電商環境時移勢易的今天,送禮卻成了淘寶解決當前電商難題的一劑良藥。
全新 vocus 挑戰活動「方格人氣王」來啦~四大挑戰任你選,留言 / 愛心 / 瀏覽數大 PK,還有新手專屬挑戰!無論你是 vocus 上活躍創作者或剛加入的新手,都有機會被更多人看見,獲得站上版位曝光&豐富獎勵!🏆
你可能也想看
Google News 追蹤
Thumbnail
全新 vocus 挑戰活動「方格人氣王」來啦~四大挑戰任你選,留言 / 愛心 / 瀏覽數大 PK,還有新手專屬挑戰!無論你是 vocus 上活躍創作者或剛加入的新手,都有機會被更多人看見,獲得站上版位曝光&豐富獎勵!🏆
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 仔細看 AI說書 - 從0開始 - 66 中,Decoder 的 Multi-Head Attention 框框,會發現有一條線空接,其實它是有意義的,之所以空接,是因
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 52 中,我們已經解析完 Attention 機制如何運作的,以下延伸至 Multi-Head Attention: Head 1
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 講完 Transformer 之 Encoder 架構中的 Embedding 與 Positional Encoding 部分,現在進入 Multi-Head Att
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 既然要談論 Transformer 的 Attention 機制,我們必須要談論以下主題: Transformer 架構 自注意力機制 編碼與解碼 Embedd
Thumbnail
全新 vocus 挑戰活動「方格人氣王」來啦~四大挑戰任你選,留言 / 愛心 / 瀏覽數大 PK,還有新手專屬挑戰!無論你是 vocus 上活躍創作者或剛加入的新手,都有機會被更多人看見,獲得站上版位曝光&豐富獎勵!🏆
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 仔細看 AI說書 - 從0開始 - 66 中,Decoder 的 Multi-Head Attention 框框,會發現有一條線空接,其實它是有意義的,之所以空接,是因
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 52 中,我們已經解析完 Attention 機制如何運作的,以下延伸至 Multi-Head Attention: Head 1
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 講完 Transformer 之 Encoder 架構中的 Embedding 與 Positional Encoding 部分,現在進入 Multi-Head Att
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 既然要談論 Transformer 的 Attention 機制,我們必須要談論以下主題: Transformer 架構 自注意力機制 編碼與解碼 Embedd