我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
回顧一下目前手上有的素材:
我們現在已經完成 BERT 模型的微調了,此模型可以預測一個句子的文法是否是正確的,這屬於分類問題,那我們曾在 AI說書 - 從0開始 - 83 中介紹一種 Matthews Correlation Coefficient (MCC) 指標,其輸出範圍介於 - 1 和 1 之間,1 表示正向預測,- 1表示反向預測,0 表示隨機預測,現在我們來看看怎麼使用 MCC 進行衡量:
from sklearn.metrics import matthews_corrcoef
matthews_set = []
for i in range(len(true_labels)):
matthews = matthews_corrcoef(true_labels[i], predicted_classes[i])
matthews_set.append(matthews)
也可以用整個資料集來統計 MCC 分數:
true_labels_flattened = [label for batch in true_labels for label in batch]
predicted_classes_flattened = [pred for batch in predicted_classes for pred in batch]
mcc = matthews_corrcoef(true_labels_flattened, predicted_classes_flattened)
print(f"MCC: {mcc}")
結果為:
效果還不錯!