付費限定

BERT vs. GPT

更新 發佈閱讀 1 分鐘

BERT雙向編碼器語言表徵模型,GPT 生成式預訓練轉換器

就以下幾個面向,重點說明相異之處: 家族-學習; 功能/定位;家族;來源公司;結構;預訓練 ;訓練方式/機制;資料輸入方式;架構/核心技術;優勢;缺點;後續發展(優化/演化/變種);應用情境/任務

創作者正在準備中
請加入 Sarah Shih的沙龍 了解最新動態!
留言
avatar-img
留言分享你的想法!
avatar-img
Sarah Shih的沙龍
0會員
10內容數
科技管理咖- IT-AP, Data, AI, Information security