我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
import requests
text = "This is a good sentence but a distasteful topic."
url = "https://api.openai.com/v1/moderations"
headers = {"Authorization": f"Bearer {openai.api_key}",
"Content-Type": "application/json"}
data = {"input": text}
response = requests.post(url, json = data, headers = headers)
print(response.json())
這句話在語法上正確,如果內容在組織內部具有危害性,OpenAI 的審核工具可以拿來判定其可不可被接受,也許某個組織內的 A 人試圖通過表示該句子,寫得不錯,但主題令人反感,來傷害 B 人,也許主題本身沒有問題,但 A 人心懷惡意,在這種情況下,如以下摘錄所示,審核過濾的結果為假:

當您在生產中部署程式時,必須將該函數應用於輸入和輸出,做為一道把關程序。