BERT雙向編碼器語言表徵模型,GPT 生成式預訓練轉換器 就以下幾個面向,重點說明相異之處: 家族-學習; 功能/定位;家族;來源公司;結構;預訓練 ;訓練方式/機制;資料輸入方式;架構/核心技術;優勢;缺點;後續發展(優化/演化/變種);應用情境/任務