付費限定

訓練小模型進行逐步推導,Orca-2-7B/13B

閱讀時間約 13 分鐘

微軟爸爸的員工發論文教大家如何訓練與評估model,有完整的訓練思路與評估方法,雖然本篇沒有任何獨特的Fine-tune的手法,比較不接地氣,但是仍然可以當成一個好的參考範例,可以從中學到許多評估模型的角度與關鍵指標,改天會進行總結整理。


論文主要成果:

借助逐步推導資料集,Orca-2 7B/13B能夠取得超越70B模型的成果,如下圖所示,能取得這種好成果,歸因於幾個因素的整體考量。

  1. 小模型直接回答錯誤率高,經由逐步推導資料集的建立,正確率會明顯改善不少
  2. 某些問題類型,小模型直接回答錯誤率低,inference無須特別標注嚴謹逐步推導
  3. 某些問題類型,小模型直接回答錯誤率高,inference特別標注嚴謹逐步推導
  4. 某些問題類型,大&小模型直接回答錯誤率皆高,inference特別標注嚴謹逐步推導
以行動支持創作者!付費即可解鎖
本篇內容共 5376 字、0 則留言,僅發佈於人工智慧宇宙你目前無法檢視以下內容,可能因為尚未登入,或沒有該房間的查看權限。
avatar-img
95會員
128內容數
帶你用上帝視角,針對市面上具有高度價值的影片/論文/書籍,用東方取象,與西方邏輯辯證的角度同時出發,跟著我一起來探討宇宙萬事萬物的本質,隨時隨地都可以來一場說走就走的思維旅行。作者在台積電 / 聯發科等科技產業有累計10年的資歷,近期對於人工智慧,東方易經,西方辯證邏輯,還有佛法向內求有深度興趣。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
北京清華大學改進了傳統Stable Diffusion (SD) 文生圖的加速算法,讓SD這項技術,可以在筆電達到即時(Real Time)運算等級,讓我們一起來了解這項技術,期許未來能在各種應用上使用,或是看到源碼也不陌生。
本文帶你三分鐘內跑通"文字生圖片"的網頁APP,使用最頂尖生成技術,LCM-Lora-SDXL模型,能夠在短時間內生成符合文字描述的高解析圖片。屬於免費開源模型(License Link),請不要產生有害內容,進行合理的使用。
隨著人工智慧高速發展,許多重複單調的工作,以肉眼可及的速度,不斷的能夠被機器人取代,許多人因此活在焦慮之中,甚至認為自己該躺平。本文就是針對這個問題來的,論說人之所以為人的波瀾壯闊與慷慨激昂,冥冥之中能夠指引一條道路。
本文帶你在3分鐘內跑通基本範例,用llamaIndex 串接Excel,經過爬蟲與Mistral 7B整理的資料,讓GPT4成為國際政治經濟大師,每天為您自動產生經濟分析報告。
相信替影片配字幕是許多人心中的痛,本文帶你在三分鐘內能夠用你的電腦,寫出一個使用AI將聲音轉成字幕srt檔案的互動操作網頁,可以連接麥克風測試,也可以上傳聲音檔案或是MP3來測試。目前的多國語言版本,能自動辨別語言,不用特別指定,經實測,中英文混雜也能夠正確輸出。
相信大家要能完全理解ROPE編碼與YaRN插值手法,需要較長的時間,導致收穫感沒有這麼強。算法背後其實隱含了宇宙自然運行的道理,旋轉位置編碼,最早的形式出現在古代中國易經,繞完一整圈表示一個階段的結束,預示下一個階段的開始。
北京清華大學改進了傳統Stable Diffusion (SD) 文生圖的加速算法,讓SD這項技術,可以在筆電達到即時(Real Time)運算等級,讓我們一起來了解這項技術,期許未來能在各種應用上使用,或是看到源碼也不陌生。
本文帶你三分鐘內跑通"文字生圖片"的網頁APP,使用最頂尖生成技術,LCM-Lora-SDXL模型,能夠在短時間內生成符合文字描述的高解析圖片。屬於免費開源模型(License Link),請不要產生有害內容,進行合理的使用。
隨著人工智慧高速發展,許多重複單調的工作,以肉眼可及的速度,不斷的能夠被機器人取代,許多人因此活在焦慮之中,甚至認為自己該躺平。本文就是針對這個問題來的,論說人之所以為人的波瀾壯闊與慷慨激昂,冥冥之中能夠指引一條道路。
本文帶你在3分鐘內跑通基本範例,用llamaIndex 串接Excel,經過爬蟲與Mistral 7B整理的資料,讓GPT4成為國際政治經濟大師,每天為您自動產生經濟分析報告。
相信替影片配字幕是許多人心中的痛,本文帶你在三分鐘內能夠用你的電腦,寫出一個使用AI將聲音轉成字幕srt檔案的互動操作網頁,可以連接麥克風測試,也可以上傳聲音檔案或是MP3來測試。目前的多國語言版本,能自動辨別語言,不用特別指定,經實測,中英文混雜也能夠正確輸出。
相信大家要能完全理解ROPE編碼與YaRN插值手法,需要較長的時間,導致收穫感沒有這麼強。算法背後其實隱含了宇宙自然運行的道理,旋轉位置編碼,最早的形式出現在古代中國易經,繞完一整圈表示一個階段的結束,預示下一個階段的開始。
你可能也想看
Google News 追蹤
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在某些情況下,別人提供的 Pretrained Transformer Model 效果不盡人意,可能會想要自己做 Pretrained Model,但是這會耗費大量運
Thumbnail
前言 讀了許多理論,是時候實際動手做做看了,以下是我的模型訓練初體驗,有點糟就是了XD。 正文 def conv(filters, kernel_size, strides=1): return Conv2D(filters, kernel_size,
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 下游任務是一個 Fine-Tuned 的 Transformer 任務,它從預先訓練的 Transformer 模型繼承模型和參數,故,下游任務是運行微調任務的預訓練模
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
機器學習領域的專業人士可以從這篇文章中獲得寶貴的見解。 追求更大的數據集和更強大的模型一直是提升性能的核心策略。 以下是我在機器學習領域工作7年後的三個重大體悟。 ▋體悟1 - 大數據的重要性 自2009年ImageNet問世以來, 數據集的規模和質量對機器學習的影響越
Thumbnail
不知道大家會不會有這種感覺,在使用現今的一些預訓練模型時,雖然好用,但是實際在場域部屬時總感覺殺雞焉用牛刀,實際使用下去後續又沒有時間讓你去優化它,只好將錯就錯反正能用的想法持續使用,現在有個不錯的方法讓你在一開始就可以用相對低廉的成本去優化這個模型,讓後續使用不再懊悔。
Thumbnail
前期先針對整體流程模仿 可以快速理解一個主題如何拆解成不同的要素 快速取得一個學習的利基點 一個好的方式就是以完成專案為目的下去學習 為何要做Project Based的學習,而非一步一步完成課程? 因為直接做專案可以最快的碰到問題,知道自己還缺少哪方面的認知 人類無法用抽象的事物把事情
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
Thumbnail
小語言模型SLM急起直追 這次財報上,我關注到了這個陌生的詞,SLM。查了一下,原來是Small Language Model。 我們還持續創新,為客戶提供最好的前沿模型和開源模型、大型語言模型和小型語言模型的選擇。
Thumbnail
ChatGPT 是 OpenAI 開發的大型語言模型,以其強大的生成能力和對話能力而聞名。 ChatGPT 的訓練過程主要分為兩個階段:預訓練和微調。 微調使用了 RLHF(Reinforcement Learning from Human Feedback)技術,可以有效地提高模型生成內容的質量。
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在某些情況下,別人提供的 Pretrained Transformer Model 效果不盡人意,可能會想要自己做 Pretrained Model,但是這會耗費大量運
Thumbnail
前言 讀了許多理論,是時候實際動手做做看了,以下是我的模型訓練初體驗,有點糟就是了XD。 正文 def conv(filters, kernel_size, strides=1): return Conv2D(filters, kernel_size,
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 下游任務是一個 Fine-Tuned 的 Transformer 任務,它從預先訓練的 Transformer 模型繼承模型和參數,故,下游任務是運行微調任務的預訓練模
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
機器學習領域的專業人士可以從這篇文章中獲得寶貴的見解。 追求更大的數據集和更強大的模型一直是提升性能的核心策略。 以下是我在機器學習領域工作7年後的三個重大體悟。 ▋體悟1 - 大數據的重要性 自2009年ImageNet問世以來, 數據集的規模和質量對機器學習的影響越
Thumbnail
不知道大家會不會有這種感覺,在使用現今的一些預訓練模型時,雖然好用,但是實際在場域部屬時總感覺殺雞焉用牛刀,實際使用下去後續又沒有時間讓你去優化它,只好將錯就錯反正能用的想法持續使用,現在有個不錯的方法讓你在一開始就可以用相對低廉的成本去優化這個模型,讓後續使用不再懊悔。
Thumbnail
前期先針對整體流程模仿 可以快速理解一個主題如何拆解成不同的要素 快速取得一個學習的利基點 一個好的方式就是以完成專案為目的下去學習 為何要做Project Based的學習,而非一步一步完成課程? 因為直接做專案可以最快的碰到問題,知道自己還缺少哪方面的認知 人類無法用抽象的事物把事情
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
Thumbnail
小語言模型SLM急起直追 這次財報上,我關注到了這個陌生的詞,SLM。查了一下,原來是Small Language Model。 我們還持續創新,為客戶提供最好的前沿模型和開源模型、大型語言模型和小型語言模型的選擇。
Thumbnail
ChatGPT 是 OpenAI 開發的大型語言模型,以其強大的生成能力和對話能力而聞名。 ChatGPT 的訓練過程主要分為兩個階段:預訓練和微調。 微調使用了 RLHF(Reinforcement Learning from Human Feedback)技術,可以有效地提高模型生成內容的質量。