04 GPT-3/4对比其他模型胜在哪?

2023/07/31閱讀時間約 29 分鐘

大家好,我是茶桁。

在前两节课中,我们一起体验了 OpenAI 提供的 GPT-3.5 系列模型的两个核心接口。一个是获取文本的 Embedding 向量,另一个是根据提示语生成补全的文本内容。通过这两种方法,我们可以在零样本或少样本的情况下进行情感分析任务。然而,你可能会有两个疑问。首先,Embedding 不就是将文本转换为向量吗?为什么不直接使用开源模型(如Word2Vec、Bert)而要调用 OpenAI 的 API 呢?在我们的情感分析任务中,我们进行了一些简化处理。一方面,我们排除了相对中性的评分(3分);另一方面,我们将1分、2分和4分、5分合并,将原本需要判断5个分类的问题简化了。那么,如果我们想要准确预测多个分类,是否也能如此简单呢?

以行動支持創作者!付費即可解鎖
本篇內容共 11646 字、0 則留言,僅發佈於从零开始接触人工智能大模型
茶桁
茶桁
80后,先后在多家大厂担任数据产品经理,中台产品。
留言0
查看全部
發表第一個留言支持創作者!