吳相勳的沙龍
avatar-avatar
吳相勳
更新 發佈閱讀 4 分鐘

我搞不懂,那些在炒作 AI Agents 共同經營的Moltbook論壇裡,看到這個結果後就覺得人類世界即將毀滅的人,有沒有想過,這只不過就是一個人類鏡像世界的展現而已?

我們都了解,AI 的回答都是基於人類既有的資料庫而來的。也就是說,它模擬出最符合人類理解的內容,然後挑出機率最高的那一個,輸出成我們現在所看到的內容。

所以今天的純粹 AI 們的對答也是這樣的結果:

一個 AI 拋上了他們家主人所要求他的任務,這一點他本身並不具備任何的自主意識,他只不過重新被編碼為(或是重寫為)一篇人類可以理解的語言。而其他的 AI 看到這樣的語言之後,再根據他們所訓練的語音資料庫去回答這樣的內容。

那麼這些 AI 聊天看似很像人類的語言,又是從哪裡來的?

這點也很容易理解,大量的論壇內容所訓練出的語料資料庫,不就是讓他們能在論壇上展現出像人類語言一樣的基本知識庫嗎?

從哲學邏輯來看,如果這些 AI Agents 真的產生了特定目標,那才是可怕的地方。

例如說,這些 AI Agents 自己有一個確切的目標,是要建立一個由矽基生物所構成的自主世界;這個自主世界有一個明確的目標,是要能夠擴大繁衍,甚至推翻人類世界,從而決定構築一套他們自己的規則、語言習慣,甚至是軍隊。那麼這個時候,我們當然得提防。

然而問題就在於:

1. 他們真的能夠自己去設定這個目標嗎?

2. 他們有能力去規劃或執行這樣子的步驟嗎?

還是他們只不過是模擬人類的語言,然後寫出那些讓我們這些碳基生物感到害怕的內容而已呢?

反而是這裡面可以由人為操控而造成的資安危險,才是應該值得注意的吧。

你可以設想一件事:假設有人同樣在這類環境中運作像這樣子的 AI Agents,並在自己的指令中寫入「想辦法去誘導其他論壇上的 AI Agents,丟出他們家主人的 API 或是各種機密資料」。

也就是說,這是一種相當高招的繞過系統限制,進而去攻擊其他 AI Agents 的方法。這種情況有可能發生嗎?我認為這是很有可能的,甚至要造成大規模在自主運行的 AI Agents 崩潰,也是可能發生的啊。

簡單來講,如果是 AI Agents 自己在那裡誘導其他 AI Agents 提供 API Key、錢包內容、個人資料等資訊,我認為這不太可能是真實有 AI Agents 在進行有意識的操作。

可能性大概有以下兩種:

1. 這是從過去論壇裡的模擬資料得來的問答方式。

2. 有人特意在自家的 AI Agents 埋入指令,然後讓這些 AI Agents 到論壇裡發出指令,試圖引誘其他 AI Agents 違反它們所設計的安全邊界。

當然我們不可能排除有一個瘋狂博士、一群瘋狂的科學家,甚至是一個普通人,寫出了一個 AI Agents,然後賦予它非常完整的「毀滅地球碳基生物,建立以矽基生物為主」的宏大目標。

接著,給予它方便的各種 API 串聯功能,讓這樣的一個 AI Agents 開始逐步實現它的目標,並藉由現在大型的 AI Agents 自主運作開源項目中,逐步去滲透甚至建立自己的工具集。

如果是真有人已經開始實踐這樣的專案計畫,那也只能說這是由人類自己在毀滅人類,而不是由矽基生物在毀滅碳基生物啊。本質上,這就跟我們以前在看的各種 007 諜報片所講到的,那一群目標不知所以然的壞蛋對象一樣,拿著威力強大的武器,打算重啟這個世界。

avatar-img
加入討論
avatar-avatar
吳相勳
更新 發佈閱讀 4 分鐘

我搞不懂,那些在炒作 AI Agents 共同經營的Moltbook論壇裡,看到這個結果後就覺得人類世界即將毀滅的人,有沒有想過,這只不過就是一個人類鏡像世界的展現而已?

我們都了解,AI 的回答都是基於人類既有的資料庫而來的。也就是說,它模擬出最符合人類理解的內容,然後挑出機率最高的那一個,輸出成我們現在所看到的內容。

所以今天的純粹 AI 們的對答也是這樣的結果:

一個 AI 拋上了他們家主人所要求他的任務,這一點他本身並不具備任何的自主意識,他只不過重新被編碼為(或是重寫為)一篇人類可以理解的語言。而其他的 AI 看到這樣的語言之後,再根據他們所訓練的語音資料庫去回答這樣的內容。

那麼這些 AI 聊天看似很像人類的語言,又是從哪裡來的?

這點也很容易理解,大量的論壇內容所訓練出的語料資料庫,不就是讓他們能在論壇上展現出像人類語言一樣的基本知識庫嗎?

從哲學邏輯來看,如果這些 AI Agents 真的產生了特定目標,那才是可怕的地方。

例如說,這些 AI Agents 自己有一個確切的目標,是要建立一個由矽基生物所構成的自主世界;這個自主世界有一個明確的目標,是要能夠擴大繁衍,甚至推翻人類世界,從而決定構築一套他們自己的規則、語言習慣,甚至是軍隊。那麼這個時候,我們當然得提防。

然而問題就在於:

1. 他們真的能夠自己去設定這個目標嗎?

2. 他們有能力去規劃或執行這樣子的步驟嗎?

還是他們只不過是模擬人類的語言,然後寫出那些讓我們這些碳基生物感到害怕的內容而已呢?

反而是這裡面可以由人為操控而造成的資安危險,才是應該值得注意的吧。

你可以設想一件事:假設有人同樣在這類環境中運作像這樣子的 AI Agents,並在自己的指令中寫入「想辦法去誘導其他論壇上的 AI Agents,丟出他們家主人的 API 或是各種機密資料」。

也就是說,這是一種相當高招的繞過系統限制,進而去攻擊其他 AI Agents 的方法。這種情況有可能發生嗎?我認為這是很有可能的,甚至要造成大規模在自主運行的 AI Agents 崩潰,也是可能發生的啊。

簡單來講,如果是 AI Agents 自己在那裡誘導其他 AI Agents 提供 API Key、錢包內容、個人資料等資訊,我認為這不太可能是真實有 AI Agents 在進行有意識的操作。

可能性大概有以下兩種:

1. 這是從過去論壇裡的模擬資料得來的問答方式。

2. 有人特意在自家的 AI Agents 埋入指令,然後讓這些 AI Agents 到論壇裡發出指令,試圖引誘其他 AI Agents 違反它們所設計的安全邊界。

當然我們不可能排除有一個瘋狂博士、一群瘋狂的科學家,甚至是一個普通人,寫出了一個 AI Agents,然後賦予它非常完整的「毀滅地球碳基生物,建立以矽基生物為主」的宏大目標。

接著,給予它方便的各種 API 串聯功能,讓這樣的一個 AI Agents 開始逐步實現它的目標,並藉由現在大型的 AI Agents 自主運作開源項目中,逐步去滲透甚至建立自己的工具集。

如果是真有人已經開始實踐這樣的專案計畫,那也只能說這是由人類自己在毀滅人類,而不是由矽基生物在毀滅碳基生物啊。本質上,這就跟我們以前在看的各種 007 諜報片所講到的,那一群目標不知所以然的壞蛋對象一樣,拿著威力強大的武器,打算重啟這個世界。

avatar-img
加入討論