更新於 2024/06/16閱讀時間約 3 分鐘

【💎 Prompt Engineering 提示工程基礎】挖坑給ChatGPT跳的越獄(Jailbreaking)法

正常來說這種大型LLM公司都會有內容審查功能, 照理說不應該讓AI回答有害的、暴力的…等負面回應, 以Chatgpt來說經實驗後確實是如此, 但仍可以透過欺騙的方式讓它間接的回答, 有一點挖坑給AI跳的概念…。

好人形象的ChatGPT

分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.