我們在「【MLOps - MLflow】AI模型實驗管理的超入門簡介」有介紹到模型實驗的追蹤管理平台, 雖然可以幫助我們自動化記錄實驗參數、模型…等數據, 但我們也會希望模型的訓練可以更加的自動化, 而Airflow正好就具備流程設計與管理的功能, 我們可以彈性的設計在某個時間點從某個數據集自動訓練一個模型, 這正是讓我們的模型生產工業化的重要工具之一。
付費限定
【🔒 MLOps - Airflow】工作流自動化平台的超入門簡介
更新 發佈閱讀 5 分鐘
以行動支持創作者!付費即可解鎖
本篇內容共 1810 字、0
則留言,僅發佈於🔒 阿Han的軟體心法實戰營你目前無法檢視以下內容,可能因為尚未登入,或沒有該房間的查看權限。
留言
阿Han的沙龍
150會員
324內容數
哈囉,我是阿Han,是一位 👩💻 軟體研發工程師,喜歡閱讀、學習、撰寫文章及教學,擅長以圖代文,化繁為簡,除了幫助自己釐清思路之外,也希望藉由圖解的方式幫助大家共同學習,甚至手把手帶您設計出高品質的軟體產品。
阿Han的沙龍的其他內容
2024/12/11
我們在「【🔒 MLOps - Airflow】使用docker compose架設Airflow」教您如何使用docker compose架設一個Airflow環境, 接著我們要教您如何進到容器內開發DAG, 正所謂工欲善其事必先利其器, 就是要先把事前先把工具給整治好, 讓後續的作業順利進行,

2024/12/11
我們在「【🔒 MLOps - Airflow】使用docker compose架設Airflow」教您如何使用docker compose架設一個Airflow環境, 接著我們要教您如何進到容器內開發DAG, 正所謂工欲善其事必先利其器, 就是要先把事前先把工具給整治好, 讓後續的作業順利進行,

2024/11/13
我們在「【🔒 MLOps - Airflow】使用docker compose架設Airflow」有教您如何使用Docker來架設Airflow的環境, 而這個章節我們準備在DAG的流程中設計一個呼叫Docker去執行作業的節點, 這對於我們容器化的工作流會非常有幫助, 而且運行過程中也減少對主機

2024/11/13
我們在「【🔒 MLOps - Airflow】使用docker compose架設Airflow」有教您如何使用Docker來架設Airflow的環境, 而這個章節我們準備在DAG的流程中設計一個呼叫Docker去執行作業的節點, 這對於我們容器化的工作流會非常有幫助, 而且運行過程中也減少對主機

2024/10/30
為什麼我們只推薦docker的環境? 因為透過容器化可以讓我們各個組件安裝的套件各自獨立, 不會發生早期常常衝突的狀況, 當然我們也可以用conda來隔開, 但它的層面僅限於python環境, 我們需要的是整個os環境, 因此docker會是我們優先考慮的選項之一。
👉 在我們開始之前…

2024/10/30
為什麼我們只推薦docker的環境? 因為透過容器化可以讓我們各個組件安裝的套件各自獨立, 不會發生早期常常衝突的狀況, 當然我們也可以用conda來隔開, 但它的層面僅限於python環境, 我們需要的是整個os環境, 因此docker會是我們優先考慮的選項之一。
👉 在我們開始之前…

你可能也想看
























在 vocus 與你一起探索內容、發掘靈感的路上,我們又將啟動新的冒險——vocus App 正式推出!
現在起,你可以在 iOS App Store 下載全新上架的 vocus App。
無論是在通勤路上、日常空檔,或一天結束後的放鬆時刻,都能自在沈浸在內容宇宙中。

在 vocus 與你一起探索內容、發掘靈感的路上,我們又將啟動新的冒險——vocus App 正式推出!
現在起,你可以在 iOS App Store 下載全新上架的 vocus App。
無論是在通勤路上、日常空檔,或一天結束後的放鬆時刻,都能自在沈浸在內容宇宙中。

vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。

vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
Transformers 將逐漸接管大多數複雜的自然語言處理任務,然而,人類的干預仍然是必不可少的,正確的方法是訓練一個 Transformers,實現它,控制輸出,並

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
Transformers 將逐漸接管大多數複雜的自然語言處理任務,然而,人類的干預仍然是必不可少的,正確的方法是訓練一個 Transformers,實現它,控制輸出,並

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
先列出目前擁有的材料:
微調 GPT 模型引言:AI說書 - 從0開始 - 229 | 微調 GPT 模型引言
微調 GPT 模型的前置步驟:AI說書 - 從0開始

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
先列出目前擁有的材料:
微調 GPT 模型引言:AI說書 - 從0開始 - 229 | 微調 GPT 模型引言
微調 GPT 模型的前置步驟:AI說書 - 從0開始

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
先列出目前擁有的材料:
微調 GPT 模型引言:AI說書 - 從0開始 - 229 | 微調 GPT 模型引言
微調 GPT 模型的前置步驟:AI說書 - 從0開始

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
先列出目前擁有的材料:
微調 GPT 模型引言:AI說書 - 從0開始 - 229 | 微調 GPT 模型引言
微調 GPT 模型的前置步驟:AI說書 - 從0開始

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
先列出目前擁有的材料:
微調 GPT 模型引言:AI說書 - 從0開始 - 229 | 微調 GPT 模型引言
微調 GPT 模型的前置步驟:AI說書 - 從0開始

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
先列出目前擁有的材料:
微調 GPT 模型引言:AI說書 - 從0開始 - 229 | 微調 GPT 模型引言
微調 GPT 模型的前置步驟:AI說書 - 從0開始

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
隨著此列表和數量的不斷發展,定期驗證該列表以及 OpenAI 的文檔(模型和棄用頁面)是一種很好的做法:
import pandas as pd
model_dat

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
隨著此列表和數量的不斷發展,定期驗證該列表以及 OpenAI 的文檔(模型和棄用頁面)是一種很好的做法:
import pandas as pd
model_dat

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
整理目前手上有的素材:
準備資料集:AI說書 - 從0開始 - 162 | 準備Pretrain模型需要的資料
準備必備函數庫:AI說書 - 從0開始 - 163

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
整理目前手上有的素材:
準備資料集:AI說書 - 從0開始 - 162 | 準備Pretrain模型需要的資料
準備必備函數庫:AI說書 - 從0開始 - 163

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
整理目前手上有的素材:
準備資料集:AI說書 - 從0開始 - 162 | 準備Pretrain模型需要的資料
準備必備函數庫:AI說書 - 從0開始 - 163

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
整理目前手上有的素材:
準備資料集:AI說書 - 從0開始 - 162 | 準備Pretrain模型需要的資料
準備必備函數庫:AI說書 - 從0開始 - 163

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
整理目前手上有的素材:
準備資料集:AI說書 - 從0開始 - 162 | 準備Pretrain模型需要的資料
準備必備函數庫:AI說書 - 從0開始 - 163

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
整理目前手上有的素材:
準備資料集:AI說書 - 從0開始 - 162 | 準備Pretrain模型需要的資料
準備必備函數庫:AI說書 - 從0開始 - 163

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
整理目前手上有的素材:
準備資料集:AI說書 - 從0開始 - 162 | 準備Pretrain模型需要的資料
準備必備函數庫:AI說書 - 從0開始 - 163

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
整理目前手上有的素材:
準備資料集:AI說書 - 從0開始 - 162 | 準備Pretrain模型需要的資料
準備必備函數庫:AI說書 - 從0開始 - 163

在數據科學和機器學習中,特徵工程是提高模型性能的關鍵步驟之一,通過創建新特徵或轉換現有特徵,我們可以更好地捕捉數據中的信息,提高模型的預測能力。然而,當處理大數據集時,特徵工程可能變得耗時,而且若是在研發階段,特徵其實是需要快速迭代去產生並且做後續的實驗,這也是近期遇到的問題,因此想在這篇文章實作多

在數據科學和機器學習中,特徵工程是提高模型性能的關鍵步驟之一,通過創建新特徵或轉換現有特徵,我們可以更好地捕捉數據中的信息,提高模型的預測能力。然而,當處理大數據集時,特徵工程可能變得耗時,而且若是在研發階段,特徵其實是需要快速迭代去產生並且做後續的實驗,這也是近期遇到的問題,因此想在這篇文章實作多


