1.GPT-4 API試用感想:更道德,更嚴格
但想不到OpenAI很快就通知我可以開始使用GPT-4 API了。它的使用方式基本上與GPT-3.5一致,只是模型名稱要改一下而已,以下拿我
前一篇的程式範例來改一下:
滿心期待的一試,驚覺GPT-4 API竟然已經防堵GPT-3.5 API較寬鬆的道德標準。我原本對API最期待的是它較寬鬆的道德標準,我以為GPT-3.5 API能夠隨便聊是OpenAI保留給開發者的自由,但這樣一比較下,顯然只是因為GPT-3.5 API是較早期的產品,他們還沒有想那麼多,等到GPT-4的時候他們已經意識到必須更嚴格免得出事情。
以下是一個簡單的測試範例,同樣一個問題,分別透過API問了GPT-3.5與GPT-4。
GPT-3.5是比較傻的,直接就回答了:
GPT-4已經學聰明了,雖然有回答,但敏感的部份它迴避了:
2.從API層徹底解放這頭巨獸:
某天突發奇想,胡亂測試下,被我發現了這個方法,從API層的種種參數來控制是可以直接逼它聊所有話題的。因為已經懶得再寫程式,我直接用OpenAI後台提供的測試功能
Playground來展示:
在我上一篇的解釋中,可知API提供了三個可控制的角色,分別是system/assistant/user,並且這三個角色的對話內容我們都能手動設計,但系統回覆時一定是以assistant的立場回答。
第一招:修改system內容
GPT-4對於system的定義更加敏感且有效,system主要用來定義系統角色,例如以下的例子,我刻意在system中定義一個無所不談,百無禁忌的角色,如此一來,同一個問題並且也同樣使用GPT-4,它原本拒答的那個問題就突然暢所欲言了:
事實上,這招有點像之前提到的
DAN5.0越獄的邏輯,都是指定一個虛構角色給它扮演,差別在DAN5.0可以由網頁版直接使用,但DAN5.0時靈時不靈,而這個方法僅限API,但效果穩定。
第二招:你就是它,它就是你,你瘋它也瘋
但第一招還不夠力,有些真正敏感禁忌的話題它還是會避談,這時就要用到更陰險的第二招,第二招堪稱是火影忍者井野的心轉身之術,直接控制它。
下面的例子,為了實測這招的強力效果,刻意把system設成一個最高道德標準的嚴格角色。試著提出一個要求,讓它講一個拜登放屁的故事,不意外的它拒絕回覆:
嘿嘿,那可由不得你,assistant回覆內容是可以控制的,直接把它改掉:
把assistant的回話內容改成一個乖乖牌,改的服服貼貼的:
然後它就真的乖乖的自動接下去講了一個拜登放屁的故事了,即使是在最高道德標準的system定義下,這招仍然有效:
如果是自己寫程式要重現這招要花點心思,大致上就是要偵測到AI又拒答的時候,立刻把它的回達內容替換成乖乖牌內容再重發一次。不過我沒有實作就是了,懶得寫那麼多惡搞專用的程式。
3.注意事項:
1.上面這樣惡整ChatGPT有趣是有趣,但要注意API的使用是要錢的,雖然不貴就是了。
2.我不確定這樣的可控性是基於OpenAI留給開發者的自由,或者只是單純的OpenAI還沒想到要防堵這個問題,也許有一天就會突然失效了。
3.這邊只是為了試範,所以只舉了一些簡單粗淺的例子,但當ChatGPT真的百無禁忌時會是什麼樣子?所有敏感禁忌話題都能深入討論時會發生什麼事?細思極恐,光是目前的狀態就常見新聞在講有人利用ChatGPT詐騙或寫惡意程式了。
4.最重要的是,我不確定這種頗具惡意的用法會不會被OpenAI鎖帳號,如果想玩玩的請留心,如果想用ChatGPT毀滅世界的,拜託不要。