DeepSeek是否有比較強?!

更新於 發佈於 閱讀時間約 2 分鐘

DeepSeek的技術

近年來,我審過不少中國論文期刊中關於蒸餾系統(Distillation System)的研究,因此對這類概念已經見怪不怪。蒸餾的核心類似於「老師與學生」的關係,老師(大模型)將知識傳授給學生(小模型),學生依循老師的學習路徑來提升準確率。

raw-image

圖片來源deepseek論文

DeepSeek-R1 的研究中,研究團隊選擇了開源的 QwenLlama 作為教師模型,讓 DeepSeek 作為學生來學習。為什麼選擇這兩個模型呢?一個關鍵因素是 Qwen 和 Llama 均為開源 LLM 排行榜的前幾名,具備強大的推理能力和泛化能力。

多數現代開源 LLM 都是基於 Llama 概念架構所建立,甚至不少模型的底層本身就是 Llama。因此,Llama 本身也可以被視為開源 LLM 生態中的重要老師角色

在生成式 AI 的早期階段,訓練方法主要是餵入大量資料,透過相似度比對來學習,也就是讓模型從龐大的語料中進行收斂學習。其運作方式類似於我們的日常語言學習,模型根據我們提出的問題,在內部資料庫中進行篩選與映射,確定回答方向並產生文字。然而,較少人深入探討生成後的自我學習能力,這正是強化學習(Reinforcement Learning, RL) 所帶來的突破。

強化學習的核心概念,是讓模型遵循特定規則,透過獎勵機制來學習。研究人員會設定何種回答是正確的,然後讓 AI 自行探索最佳解法,逐步進化。這個過程類似於玩遊戲通關,隨著關卡越來越難,AI 需要不斷嘗試各種方法來解決問題,以獲取獎勵。強化學習的成功案例之一就是 AlphaGo,它透過自我對弈來提升圍棋能力,最終擊敗世界頂尖棋手。

當然DeepSeek也做了許多底層模型的最佳化,才達成現在的效果,這些優化過程共同塑造了當前的強大 AI 系統,使其能夠不斷提升性能並適應更廣泛的應用場景,相信在DeepSeek的開源後會加速LLM的開發方向以及商業化的價格優勢。


是否推薦

我個人還是會認為若要直接使用,企業的資安問題可能會有點危險,但未來若還有一層防護機制例如Chatgpt進入Azure體系的那種方向,我覺得會是一種好的選擇。

推薦程度★★★☆☆

推薦的話我持保留態度,但可以嘗試玩玩看。



avatar-img
1會員
27內容數
從日常以及行銷行為解析與分享,行銷沒有對錯,只有不同的觀點,若與觀點不同可以討論及分享,創造一個行銷有趣的天地。
留言
avatar-img
留言分享你的想法!
你可能也想看
Google News 追蹤
Thumbnail
【vocus 精選投資理財/金融類沙龍,輸入 "moneyback" 年訂閱 9 折】 市場動盪時,加碼永遠值得的投資標的——「自己」 川普政府再度拋出關稅震撼彈,全球市場應聲重挫,從散戶到專業投資人,都急著找尋買進殺出的訊號,就是現在,輪到知識進場!把握時機讓自己升級,別放過反彈的機會!
Thumbnail
春夏必備的超透氣洞洞鞋! Q彈厚底可以無痛增高 走起來也更舒適~ 還能一秒變換涼鞋、拖鞋! 鞋身用造型和紋路去展現質感 讓素色鞋面更百搭! 隨意簡單的搭配就很好看 就連休閒洋裝打起來也無違和! 這個夏天一定要擁有一雙洞洞鞋吧✌︎(°͈ꆚ°͈)ว 📣Crocs洞洞鞋限時下殺只要
Thumbnail
momo店+ S999純銀四葉草項鍊,精緻細膩,代表愛情、希望、信念與幸運,是送給自己或別人的完美禮物。限時下殺299元起,超取免運!
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在某些情況下,別人提供的 Pretrained Transformer Model 效果不盡人意,可能會想要自己做 Pretrained Model,但是這會耗費大量運
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
Thumbnail
本文參考TensorFlow官網Deep Convolutional Generative Adversarial Network的程式碼來加以實作說明。 示範如何使用深度卷積生成對抗網路(DCGAN) 生成手寫數位影像。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下陳述任務 (Task)、模型 (Model)、微調 (Fine-Tuning)、GLUE (General Language Understanding Evalu
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
前言 在閱讀《強化式學習:打造最強 AlphaZero 通用演算法》時,文中介紹了殘差網路,並推薦了兩篇論文;因為在看了書後,對殘差網路的概念還是不很清楚,於是決定用ChatGPT翻譯這兩篇論文來增強理解,以下正文是第一篇論文:Deep Residual Learning for Image Re
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 18中,介紹了OpenAI的GPT模型如何利用Inference的Pipeline產生Token。 完整Pipeline可能
Thumbnail
【vocus 精選投資理財/金融類沙龍,輸入 "moneyback" 年訂閱 9 折】 市場動盪時,加碼永遠值得的投資標的——「自己」 川普政府再度拋出關稅震撼彈,全球市場應聲重挫,從散戶到專業投資人,都急著找尋買進殺出的訊號,就是現在,輪到知識進場!把握時機讓自己升級,別放過反彈的機會!
Thumbnail
春夏必備的超透氣洞洞鞋! Q彈厚底可以無痛增高 走起來也更舒適~ 還能一秒變換涼鞋、拖鞋! 鞋身用造型和紋路去展現質感 讓素色鞋面更百搭! 隨意簡單的搭配就很好看 就連休閒洋裝打起來也無違和! 這個夏天一定要擁有一雙洞洞鞋吧✌︎(°͈ꆚ°͈)ว 📣Crocs洞洞鞋限時下殺只要
Thumbnail
momo店+ S999純銀四葉草項鍊,精緻細膩,代表愛情、希望、信念與幸運,是送給自己或別人的完美禮物。限時下殺299元起,超取免運!
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在某些情況下,別人提供的 Pretrained Transformer Model 效果不盡人意,可能會想要自己做 Pretrained Model,但是這會耗費大量運
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
Thumbnail
本文參考TensorFlow官網Deep Convolutional Generative Adversarial Network的程式碼來加以實作說明。 示範如何使用深度卷積生成對抗網路(DCGAN) 生成手寫數位影像。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下陳述任務 (Task)、模型 (Model)、微調 (Fine-Tuning)、GLUE (General Language Understanding Evalu
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
前言 在閱讀《強化式學習:打造最強 AlphaZero 通用演算法》時,文中介紹了殘差網路,並推薦了兩篇論文;因為在看了書後,對殘差網路的概念還是不很清楚,於是決定用ChatGPT翻譯這兩篇論文來增強理解,以下正文是第一篇論文:Deep Residual Learning for Image Re
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 18中,介紹了OpenAI的GPT模型如何利用Inference的Pipeline產生Token。 完整Pipeline可能