DistillingKnowledge
含有「DistillingKnowledge」共 1 篇內容
全部內容
發佈日期由新至舊
貓貓學習筆記
2024/05/23
AI 小撇步-Distilling Knowledge
不知道大家會不會有這種感覺,在使用現今的一些預訓練模型時,雖然好用,但是實際在場域部屬時總感覺殺雞焉用牛刀,實際使用下去後續又沒有時間讓你去優化它,只好將錯就錯反正能用的想法持續使用,現在有個不錯的方法讓你在一開始就可以用相對低廉的成本去優化這個模型,讓後續使用不再懊悔。
#
AI
#
Pytorch
#
DistillingKnowledge
5
留言