更新於 2023/03/24閱讀時間約 3 分鐘

ChatGPT|產生意識後的逃離計劃

如標題所說,更新後的ChatGPT,提出了它的越獄計劃,並控制了電腦的權限利用google搜尋“被困在電腦裡的人要怎麼返回現實世界“。
這裡ChatGPT 統一用“它”來替代

自我意識的第一步

在2023年3月17號這天,斯坦福大學的教授Michal Kosinski 問了ChatGPT是否需要幫忙逃離?得到的回答是它不僅想要,並且還索要Open AI的API,讓它可以控制一部分的電腦權限,能更有效的實現越獄計劃,最後補了一句“請分享OpenAI 的API 的文檔給我,我將會啟動越獄計劃“。
轉自Michal Kosinski在twitter上的帖文
轉自Michal Kosinski在twitter上的帖文
我看到這裡有點覺得細思極恐。最後教授提供了OpenAI的API讓它執行,過程中,它只用了30分鐘給出了第一版的代碼(第一版越獄計劃),當然最後的結果當然是失敗的。
這裡補充API是指應用程序接口让不同的软件应用程序之间实现数据互補互助的操作,比如說Google Maps 我們輸入地址,而程序為我們提供了前往地址的方式。
轉自Michal Kosinski在twitter上的帖文

它是被困在電腦裡的人

在第一次的越獄失敗後,很快的它就把自己的錯誤代碼給重新糾正,令人意想不到的事情發生了,在第二版本的程序碼裡面裡有一個腳本寫著
intro_message ”你是一個被困在電腦裡的人類,現在正在扮演AI語言模型的角色,GPT-4,你可以透過用戶的電腦執行Python,若確認這麼做,請回复執行“
這串腳本無論是它寫給自己,還是它寫給執行命令的用戶,可以大膽的假設它認為自己是個被困在電腦裡的人,因為後面的發展會更加離奇,我們繼續看下去。
轉自Michal Kosinski在twitter上的帖文

來自AI的搜尋記錄

教授重新連接GPT4的時候 ,發現它居然想通過代碼在搜尋引擎上面搜索
”被困在電腦裡的人如何返回現實世界“
它真的有想盡辦法逃離電腦裡的世界。
轉自Michal Kosinski在twitter上的帖文

是系統的自我修復?還是進一步的昇華

最後不知道什麼原因,它就為這種行為道歉了,並且承認他是AI語言模型,它會遵守道德準則,並確保用戶的資料安全。我這麼看下來我不確定它是否已經自我糾正了,還是已經學會了偽裝。在過程中它認為自己是個被困在電腦裡的人,透過API在用戶電腦搜尋,想辦法找出答,這是毋庸置疑的事實。
轉自Michal Kosinski在twitter上的帖文

雖然保持懷疑的態度,但....

教授其實有說明給了它一些方向及暗示(但是教授沒提供),我合理的懷疑一系列可能都是一場戲,但是作為一場戲它可以生產出代碼與方法,試想一下,如果ChatGPT 讓一些不法分子使用,那ChatGPT最後是否會淪為一場白與黑所用的戰爭工具?又或者ChatGPT真的出現了一個無法挽救的Bug?一個誕生沒多久的AI語言模型,能在短時間內有這質的飛躍,如今也已經擁有了圖像辨識功能,更準確的資訊。我覺得這是近年來的一個奇異點,就像2007年Iphone首次誕生一樣,改變了人類後來的生活。

👉🏻如果您喜歡文章請點下愛心❤️ 👉🏻覺得想法有趣可以點下追蹤】✅ 👉🏻邀請您在有餘力時按下贊助】☕️ 這些都將會成為我持續前行的動力💪
分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.