2019 年,機遇號火星車向噴氣推進實驗室發送信息:“我的電池電量低,天快黑了。”在整個互聯網上,人們對火星車的“死亡”做出了情緒化的反應。
在科學界之外,機會漫遊者的“損失”影響了極少數人,但這並沒有阻止每個人對機器人對人類的遺言感到激動。
很容易對這些無生命的物體產生某種感覺,就像您對寵物的感覺一樣。我們想認為他們在思考和行動時有感知力。事實仍然是,這些機器用我們的語言對我們說話並模仿我們的舉止,但這並不能使它們成為人類。事實上,在過去的二十年裡,從《瓦力》到《她》到《機械姬》再到《銀翼殺手 2049》,都充斥著探索這種焦慮的電影。我們想要相信我們正處於真正的人工智能的風口浪尖。到目前為止,這個概念仍然存在於小說中。
本週,在 Google 工程師Blake Lemoine 向華盛頓郵報談到 LaMDA 聊天機器人項目後,智能機器人的故事成為了大新聞——Lemoine後來被請假。“當我與一個人交談時,我就認識一個人,”Lemoine 解釋說,儘管谷歌一直擔心他們的數字產品的擬人化。
幾十年來,聊天機器人讓普通的互聯網用戶覺得機器裡可能有鬼。Cleverbot是較老、更受歡迎的聊天機器人之一(它也恰好激發了 Spike Jonze 的Her的靈感),它仍在運行和聊天。它的整個電子生命都在向人類學習與人類交流並創建對查詢的行為響應。它非常聰明。它也不是人類。
Lemoine 談到這個項目時,大膽地告訴記者,這個機器人是一個人。一個有知覺的人,就像一個人。但是在谷歌工作的真正的計算機工程師怎麼會出錯呢?好吧,正如Clive Thompson 所寫,原因可能很簡單:“脆弱性”。
就像 Caleb 在Ex Machina中凝視著 Ava想知道她的外表是否是根據他的色情搜索歷史設計的一樣,Lemoine 很可能通過結合他的投影和個性以及他認為屏幕後面的存在是一個脆弱的主題的感覺來使機器人人性化。
即使我們支持機器人是真實的,現在跳到“我們做到了!”還為時過早。感嘆或陰沉的“但她被困在那裡”的心態。今天宣布機器有知覺將是一個大錯誤——不僅在技術上,而且在文化上。
是 是 是 是 是 是 是 是 是 是 是 是 是 是 是 是 是 是 是 是
機器人的代碼和算法一樣,都是人類編寫的;有偏見的人。
Lemoine 正在與 LaMDA 一起做重要的工作。他確保 LaMDA 不會受到數字激進化或仇恨言論的影響,以避免出現類似微軟 Tay 聊天機器人的問題。但在與機器人如此接近的情況下,Lemoine 的聯繫可能有點過於緊密。如果 LaMDA 今天要具有感知能力,它將是一個具有盲點的機器人版本,例如偏見(種族或性別)甚至訪問問題(語言和細微差別)。
想到我們即將跨越事件視界進入超級人工智能和有感知的聊天機器人,這令人興奮,但我們需要首先研究矽谷的運作方式,並在我們過於依賴之前弄清楚如何讓科技行業更加公平離開。我們可能會在有生之年體驗機器人的感知能力,但在接觸機器人之前,讓我們先以人為本。