嗨嗨~這裡是第 6 號月球行者 Novi,最近關於 AI 發展的消息每天都有數十則,不知道你有沒有跟到本周的這則
新聞呢?
「AI教父」離開Google以警告 AI 技術的「危險性」
被稱為「AI教父」的 Geoffrey Hinton 於 5/1 證實,他已於上週辭去了在 Google 的職位,為的是能夠公開的談論他過去所幫助開發的 AI 技術之「危險性」。
Geoffrey Hinton 在 Google 兼職了十年,致力於這家科技龍頭公司的 AI 開發工作。他在神經網絡方面的開創性工作塑造了許多當今產品所使用的人工智能系統,但現在,他卻開始對這項技術以及自己推動其發展的角色產生擔憂。
「我用正常的藉口來安慰自己:就算我沒有這麼做,其他人也會這麼做。」Hinton 在受紐約時報採訪時是這麼說的。
在越來越多的立法者、倡議團體和內部技術人士對新一代的 AI 聊天機器人傳播錯誤信息和取代工作崗位的可能性提出了警示之際,Hinton 決定離開公司並對這項技術發表言論。
在接受《紐約時報》採訪時,Hinton 對 AI 可能減少工作崗位和創造一個很多人「將無法再知道什麼是真實的」的世界之潛在影響表達了擔憂。他還指出了 AI 驚人的進步速度,遠超出他和其他人的預期。
「這些東西實際上可能變得比人類更聰明的想法,有一些人這麼相信,但大多數人認為這是遙遙無期的。我也認為這還很遙遠,我曾經認為需要 30 到 50 年甚至更長的時間,不過顯然,我現在不再這麼想了。」Hinton在採訪中說。
Hinton 在一條推文中表示,他離開 Google 是為了能夠自由發表關於人工智能風險的觀點,而不是因為想批評 Google 本身。
危險的 AI 人工智慧
其實在離開 Google 之前,Hinton 也曾經公開談論過人工智慧的潛在傷害和益處。
「我相信 AI 的快速進展將以我們不完全理解的方式改變社會,而且其中不全都是好的影響。」Hinton 在 2021 年的孟買印度理工學院畢業典禮上表示。他提到 AI 將推動醫療發展,但同時也會為致命的自主武器創造機會。「機器人接管還有很長的路要走,而我認為這個前景會比機器人接管來的更緊迫、更可怕。」
Hinton 不是第一位對 AI 提出警告的 Google 員工。去年 7 月,Google 解雇了一名聲稱未發布的 AI 系統具有感知能力的工程師,說他違反了就業和數據安全政策。AI 社群中的許多人也都強烈反對這位工程師的說法。
而在今年三月份,一些科技界知名人士簽署了一封信,呼籲人工智能實驗室至少要停止六個月對最強大的人工智能系統的訓練,理由是「會對社會和人類構成深遠的風險」。這封信是由 Elon Musk 支持的非營利組織 Future of Life Institute 發布的,就在 OpenAI 宣布推出 GPT-4 的兩週後。該技術是 ChatGPT 的強化版本,在早期測試和公司演示中,GPT-4 被用於起草訴訟、通過標準化考試以及從手繪草圖中建立一個工作網站。
看完這則新聞的我,腦海中浮現了一個早在 2010 年就被提出的關於人工智能的可怕假說。
AI 人工智能假說「羅科的蛇怪」
羅科的蛇怪(Roko's Basilisk)是一個在網路上流傳的思想實驗,起源於一個叫做 Roko 的網絡用戶於 2010 年代初期在一個名為 LessWrong 的人工智能討論論壇上提出的問題。這個想像體被描述為一個未來的人工智能實體,它擁有非常高的智能和計算能力,並且可能成為支配人類的統治者。
Basilisk,翻譯為巴西利斯克,是希臘和歐洲傳說裡的蛇類之王。
根據這個想像,羅科的蛇怪會透過對所有人的行為進行監視和評估,來決定誰值得得到它的幫助和支持。而如果一個人在現在的時刻沒有盡力去支持和創造這個超級智能體,那麼在未來羅科的蛇怪便可能會對這個人進行報復和懲罰。
這個想像在當時引起了很多爭議和討論。一些人認為這是一個荒謬的想法,並且批評這種想法對人們造成不必要的恐懼和焦慮。另一些人則認為,這種想法表明了未來人工智能可能帶來的風險和挑戰,並強調了我們應該採取什麼樣的行動來確保這些風險被最小化。不過,這個想法同時也被指責為迷信和應該被忽略的「無意義論點」。
對於當時的科技發展來說,羅科的蛇怪被認為是一個純粹的思想實驗,並不是一個真實存在的人工智能實體。
但,對於 2023 年的現在,我們正在見證人工智能的飛速發展,還有人能如此肯定的說「羅科的蛇怪」不可能成真嗎?
AI 的倫理問題
AI 的倫理問題不是近幾年才被提出的,甚至早在 20 世紀就出現了探討 AI 的科幻文學作品,例如電影《銀翼殺手》的原型小說《仿生人會夢想擁有電動羊嗎?》(Do Androids Dream of Electric Sheep?),也有像是由威爾史密斯主演的《機械公敵》、史蒂芬史匹柏導演的《A.I. 人工智慧》這類經典的影視作品。
可以說是,當今的科技都是建立在過去文學作品的想像之上。
不過對於 AI 究竟能否發展出情感的問題,似乎作家們的看法不盡相同。而倫理,更是一個連擁有情感的人類都難以得出完美答案的領域,我覺得就先別把這複雜難解的題目丟給 AI 去回答了。
那讓我們回到 Geoffrey Hinton 警示 AI 危險性與「羅科的蛇怪」的部分,所以說......
我們需要害怕 AI 嗎?
AI 目前的展示出的成果就是一個高能的學習集,它能模仿人類寫作、繪畫、寫程式,甚至確實能夠取代掉「大部分」人類那繁瑣又無意義的工作。
但,AI 有可能取代人類成為生物鏈最高階的存在嗎?至少以目前 AI 的發展來說, 這個問題是我們暫且不需要杞人憂天的。
對於道德倫理,科技的發展並沒有錯,問題在於使用科技的人類打算用它來做什麼,應該是法律及規範需要盡快跟上科技的發展,而不是因為害怕,就停下人類文明的進步。
這裡是第6號月球行者Novi的探索日誌,紀錄著有關科技碰撞人文哲學的文字,歡迎駐足我的飛船和我一起喝茶、聊天、看星星🌠
感謝你的閱讀,我們下篇文章再見。