我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
回顧目前手上有的素材:
今天來窺探 Embedding 模型訓練後的參數內容:
from IPython.display import display
import ipywidgets as widgets
model = Word2Vec.load("descartes_word2vec.model")
attr_widget = widgets.Dropdown(options = ['wv', 'vector_size', 'train_count', 'total_train_time', 'epochs', 'sg'],
value = 'wv',
description = 'Attribute:')
display(attr_widget)
當中的關鍵參數為: