2019-06-20|閱讀時間 ‧ 約 10 分鐘

區塊鏈如何阻止企業為 AI 寫規則


本文首發關鍵評論網
科技逐漸影響了我們的生活習慣,不管是食衣住行,各方面都有顯著的改變。 淘寶取代必須親自去實體店購物的習慣;Uber 省略了以前在街上用手攔出租車的動作;UberEAT 取代上餐館用餐;民眾開啟 Youtube 的次數勝過看電視所佔的比重;Airbnb 取代原來依賴旅行社敲定住宿相關事宜; Google 取代我們尋找知識的管道。
不要用 Google 搜尋結果來質疑我的專業
不要用 Google 搜尋結果來質疑我的專業
改變我們生活最多的是我們與他人互動的方式。大多數人早上起床第一件事,就是打開社交軟體,如 Line。我們經常在社交活動中看到人們在低頭用手機上。 在 2019 年,超過 2.3 億人每天都在使用 Facebook。
然而 Facebook 前用戶增長副總裁 Chamath Palihapitiya 承認"我們製造了一件撕裂社會的工具"。Palihapitiya 表示他不使用 Facebook,也不允許他的孩子使用社交軟件,因為 Facebook 平台上的許多功能可以操縱並控制人們尋求快速回報的心理弱點。
“我們創造了一個令社會撕裂的東西,那就是一個短暫刺激多巴胺的按讚機制。完全不涉及任何討論、合作,充斥著錯誤訊息和虛假的東西。” - Chamath Palihapitiya
拜大數據所賜,這些科技產品得以誕生。現今存在的許多商業模式都仰賴大數據堆疊出的人工智能模型。 雅馬遜訓練其 AI 算法根據其購買和瀏覽歷史記錄提出購買建議以增加銷售額。Uber 使用 AI 模型估算到達時間並根據當前的交通狀況計算出乘車費用。 Google 調整其 AI 算法以確定頁面排名並通過其廣告系統賺錢。 沒有 AI 模型,這些產品都不復存在。 然而,因為技術的發展,這些技術巨頭的真實存在的,並且他們擁有無限權力來調整他們的 AI 模型。

技術巨頭可以對他們的 AI 模型做什麼遠遠超出了你的想像力
我們的決定時常受到他人的影響,像是我們在購物時會瀏覽產品評測文章或觀看評測視頻。 因此,許多公司會找寫手來讓網路上充斥著正面的評測文。而搜尋引擎的自動完成建議功能也有異曲同工之著。加利福尼亞州的美國行為與技術研究所的心理學家--愛潑斯坦,隨機對 661 位不熟悉澳大利亞政治的美國人進行了實驗並對結果進行分析,實驗內容根據搜索引擎結果讓參與者在兩位候選人中選擇自己支持的候選人。該研究指出,搜尋引擎中自動完成建議功能的積極與消極建議比例,將對中間選民的偏好造成影響,且對其有近 80% 的改變。
上面的場景只是一個實驗,但足以說明環境所接觸到的信息對人類是有巨大影響的。那麼如果這樣的情景發生在我們現實生活中呢?在2016 年美國總統大選中, Google 被指控改變候選人對其搜索引擎的自動完成建議,轉而支持共和黨的希拉蕊·柯林頓。 當你在 Google 搜索引擎中輸入"希拉蕊·柯林頓"時,"希拉蕊柯林頓獲勝"一詞將出現在自動完成建議中。 然而在雅虎和微軟的搜索引擎中,自動填充建議的結果是"希拉蕊柯林頓是騙子"和"希拉蕊柯林頓是罪犯"。 眾人相信 Google 修改其搜索建議算法來幫助柯林頓從大選中脫穎而出。
2016年總統大選時,希拉蕊·柯林頓的自動完成建議
像民主黨也是美國現任總統的川普一樣有爭議的公眾人物也遭受了 Google 的自動完成建議的影響。川普認為 Google 在搜索結果中隱藏了一些保守派的消息,其中“ 96% 的 Google 搜索結果中的”川普“是來自左派網站的文章。”
川普在推特上質疑 Google 搜尋

人工智能--操縱人類的注意力和情感
Facebook 的數據科學家認為,人類情緒在社交網絡上具有傳染性。 研究人員選出 689,003 名 Facebook 用戶,然後將他們分成兩組,其中一組刪除了用戶的負面帖子,另一組刪除了正面帖子。 該研究發現,當用戶看到來自朋友的正面情緒帖子較少時,用戶的正面帖子數量也會減少,負面帖子數量則會增加,反之亦然。
我們的情緒也受到他人情緒的影響,就像我們依賴別人做出決定一樣。 大家應該都有這樣的經歷, 當您打開 Line 或 Facebook 等社交軟體並閱讀其中一位朋友的帖子後,你的心情忽然因為看的某個文章或圖片而好轉或是變差。
社交平台微小的調整 AI 模型可以對我們的情緒產生巨大的影響。然而,更值得我們深入討論的是,這論文中進行的實驗是在用戶不知情或未經同意的情況下篡改了接收到的貼子,這意味著你可能無形間也變成 Facebook 的白老鼠,只是你不知道。

我們是否應該信任中心化的企業來引領並塑造未來的人工智能模型
擁有高度知名度與資金的大公司掌握 AI,無疑是巨大威脅。 由於算法是針對反映社會不平等的現有數據進行訓練的,因此除非人們有意識地設計反補貼措施,否則這些舉動只會增加社會偏見,進而使得不公正系統性被永久化。例如,用於預測累犯的人工智能系統可能包含對黑人和白人社區的差別監管,或者基於歷史數據評估求職者可能取得的表現,但一切是建立在性別偏見上的結果。
在算法黑匣子裡面,社會偏見變得不可見和不負責任。當僅為盈利而設計時,算法必然偏離公共利益 - 信息不對稱,議價能力和外部性遍及這個市場,人工智能與人類未來的發展息息相關, 其巨大的潛力意味著雙面刃的特性:既可以增加社會的不平等,也可能使我們迎向更方便美好的未來。 從目前的人工智能研究數據可以看出,短期內發展依舊傾向於權力和金錢的集中,這意味著人工智能的發展將會更加壟斷,甚至可能為下一代的孩子帶來學習及認知上的阻礙。
因此,只有對商業模式根本上的改變才能夠降低 AI 資本與權力過度集中的問題風險。為了避免生活在資訊不對稱的世界,AI 需要比現在更容易被使用,更可靠,更直觀的方式。 區塊鏈可能就是那個答案。

區塊鏈與代幣經濟
區塊鏈的分佈記事帳本特性可以支持沒有第三方機構的介入下直接進行交易。 它讓我們可以除去第三方機構的成本直接與對方互動,因為資訊的透明公開,以一個更安全和分散的方式接受公眾的管理。
而區塊鏈技術還融合了一套新的商業模式--代幣經濟,代幣經濟是區塊鏈可以實現去中心化的主要原因之一。代幣經濟是一套獨特的商業模式,設計起源於創造一種能觸發良好行為並遏止不良行為的激勵形式,激勵機制讓更多人願意參與進來。
Infographic by blockchainhub
每個區塊鏈平台都有自己獨特的代幣經濟形式。 比特幣的設計可以通過區塊獎勵來增加流通量,在礦工成功驗證區塊之後,BTC 會被分配為區塊獎勵。比特幣的最大供應量為 21,000,000 比特幣,區塊獎勵的數量會隨著時間減半。 以太幣的代幣經濟類似於比特幣,但以太幣沒有最大供應數量,並切可以用代幣於 DApp 以及智能合約之中。
代幣經濟的設計可以使我們在沒有中心實體的情況下相互通信,因此是 AI 民主化的最佳溫床。AI 融合區塊鏈可以讓開發者在鏈上貢獻模型及開源代碼,解決現有的中心化的集中及作惡問題。
SingularityNet 允許共享和貨幣化 AI 服務。用戶可以通過 SDK 和 API 並且支付 SingularityNet 代幣 AGI 來使用 AI 模型。Cortex 是一個允許 AI 在區塊鏈上運行的公有區塊鏈,利用區塊鏈技術實現人工智能民主化,每個人都可以輕鬆訪問 AI 模型並結合在智能合約和 DApp 之中。 Cortex 認為單純開源 AI 模型是不夠透明的,AI 運行的結果在處理時仍然可以被竄改。因此區塊鏈上的執行 AI 也是相當急迫的一個功能,通過實施與 AI 模型兼容的區塊鏈平台,用戶可以提交模型,在智能合約中使用模型,達成推斷共識,並創建自己的 AI DApps。
Cortex 生態系統
Cortex 的設計與比特幣類似,但增加了獎勵 AI 模型提供商的激勵機制。每次通過智能合約調用模型時,模型所有者將獲得 Cortex 代幣 CTXC 為報酬。其獨特的代幣模型和激勵機制將激發高質量的 AI 模型並有助於AI研究的民主化。
Google 標語「不作惡」
像許多科技技術一樣,AI 算法是一把雙刃劍。 問題是,科技巨頭是否真的能遵照不做惡的原則來制定所有規則?不要忘記 Facebook 允許其數據科學家在沒有取得同意的情況下操縱用戶體驗和收集數據,且於今年 1 月份,在德國慕尼黑技術大學的道德和人工智能中心投資了 750 萬美元。慕尼黑技術大學報告稱,Facebook 的資金支持沒有要求任何應履行的義務或條件,也不會在該學術中心的顧問委員會中佔有一席之地。考慮到這種利益層面及後續影響,風險和對不正當影響的可能性仍然太大。
區塊鏈技術賦予用戶權力,有機會對技術未來走向擁有發言權。區塊鏈的分散性質為人工智能算法的民主化提供了潛在的解決方案,致力於確保人工智能是公平和有益的組織必須得到更多的關注。培養人工智能技術和相關數據開放的世界是當務之急,通過分散和民主,儘可能地創建給下一代平等的機會。
區塊鏈與 AI 的結合尚屬於行業早期,需要大量的共識來實現人工智能的公平性,這只是一個劃時代的開始,改寫規則的鑰匙在我們手上。

分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.