2024-08-06|閱讀時間 ‧ 約 23 分鐘

AI說書 - 從0開始 - 116 | Google Trax 進行推論

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現在可以執行 Decode 任務了:

tokenized = tokenized[None, :] # Add batch dimension
tokenized_translation = trax.supervised.decoding.autoregressive_sample(model, tokenized, temperature = 0.0))

tokenized_translation = tokenized_translation[0][:-1]
translation = trax.data.detokenize(tokenized_translation, vocab_dir = 'gs://trax-ml/vocabs/', vocab_file = 'ende_32k.subword')

print("The sentence:", sentence)
print("The translation:", translation)


輸出結果為:



分享至
成為作者繼續創作的動力吧!
從 Google News 追蹤更多 vocus 的最新精選內容從 Google News 追蹤更多 vocus 的最新精選內容

作者的相關文章

Learn AI 不 BI 的其他內容

你可能也想看

發表回應

成為會員 後即可發表留言
© 2024 vocus All rights reserved.