我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
回顧目前手上有的素材:
Adding an index to the words creates a dictionary. The embeddings are the representation of the words in the dictionary,Embedding 後的詞彙與其 ID 的映射關係,可以透過以下方式窺探:
for word, index in model.wv.key_to_index.items():
print(f"Word: {word}, Index: {index}")
結果為: