我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
Google Brain 開發了 Tensor2Tensor(T2T),讓深度學習開發變得更加容易,T2T 是 TensorFlow 的擴展,包含深度學習模型庫,其中包含許多 Transformer 範例。
儘管 T2T 是一個好的開始,但 Google Brain 隨後又推出了 Trax,一個端到端的深度學習函式庫,Trax 包含一個可應用於翻譯的 Transformer 模型, Google Brain 團隊目前維護 Trax。
我們將使用預處理的英語和德語資料集來闡述 Transformer 架構。
Google Brain 使 Trax 易於安裝和運作,我們將導入 Trax,它可以在一行中安裝:
import os
import numpy as np
!pip install -q -U trax
import trax