大家好,我是茶桁。
在前两节课中,我们一起体验了 OpenAI 提供的 GPT-3.5 系列模型的两个核心接口。一个是获取文本的 Embedding 向量,另一个是根据提示语生成补全的文本内容。通过这两种方法,我们可以在零样本或少样本的情况下进行情感分析任务。然而,你可能会有两个疑问。首先,Embedding 不就是将文本转换为向量吗?为什么不直接使用开源模型(如Word2Vec、Bert)而要调用 OpenAI 的 API 呢?在我们的情感分析任务中,我们进行了一些简化处理。一方面,我们排除了相对中性的评分(3分);另一方面,我们将1分、2分和4分、5分合并,将原本需要判断5个分类的问题简化了。那么,如果我们想要准确预测多个分类,是否也能如此简单呢?