我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
整理目前手上有的素材:
繼 AI說書 - 從0開始 - 171 | 模型參數探索,繼續更深入的模型參數探索:
LP = list(model.parameters())
for i, tensor in enumerate(LP):
print(f"Shape of tensor {i}: {tensor.shape}")
總共有 106 組,節錄部分結果如下:
舉出幾組參數來說明: