《誰偷走了你的專注力?》閱讀筆記(十):改變制度與誘因,讓科技公司從用戶體驗出發

《誰偷走了你的專注力?》閱讀筆記(十):改變制度與誘因,讓科技公司從用戶體驗出發

前圖紙-avatar-img
發佈於公民社會 個房間
更新於 發佈於 閱讀時間約 7 分鐘

〈《誰偷走了你的專注力?》閱讀筆記(十):改變制度與誘因,讓科技公司從用戶體驗出發〉2025-03-31

 

  在前面的章節,我們談到了「監控資本主義」。由於「準確的廣告」所能帶來的經濟效益,科技企業會想盡辦法讓我們把時間花在他們的網站或app上,並在過程中蒐集我們所有行為的足跡,甚至包括我們自己都未曾注意到的「數位皮屑」。

 

  由於這樣的行為充滿經濟誘因,所以縱使外部專業人士告訴科技公司他們這些行為對用戶的壞處與道德問題,他們也不會改變這個榨取更多用戶時間的目標。而為了做到這一點,演算法會向我們推送那些令我們感到憤怒、情緒激動的內容,這不只傷害了每一個個別的用戶,也讓全球各地的社會都面臨前所未見的分裂與極化。

 

  科技設計師尼爾.艾歐認為,這個時代裡面,科技公司員工的工作就是如此,在那個職務上的人,讓我們上鉤就是他們的專業。但我們要為我們自己的人生負責,主動地關掉這些設備、控制自己花在網路上的時間,就像為了維持好的體態與健康,你必須運動、控制飲食一樣。

 

  但同樣有科技背景的阿薩和崔斯坦認為,我們所能做的不只如此。如果這已經成為一個具規模的社會問題,那我們就應該拿出對等的--社會規模的解決方案。

 


禁止「監控資本主義」的提議

 

  「我們可以禁止『監控資本主義』。」阿薩指出,政府應該禁止任何在線追蹤使用者,找出其弱點,並將之轉賣的商業模式,因為它根本上是「反民主、反人性」、對所有人有害的。雖然「監管」或「禁止」聽起來令人有些疑慮,且感覺不太可行。但海利指出,歷史上並非沒有這類「曾經被大量使用,但因為知道對人有害,所以完全禁止」的例子。

 

  其中一個是鉛。在很長一段時間中,大多數美國人一整天都活在充滿鉛的環境裡。在1980年代的一次研究中,學者布魯斯.蘭菲爾(Bruce Lanphear)發現羅徹斯特鎮上有三分之一的孩子都鉛中毒(黑人兒童鉛中毒的比例更是高達一半)。

 

  在他進入鎮上做研究之前,當地的衛生單位一直將鉛中毒的問題歸咎於清潔問題,他們要求主婦們更勤奮地打掃,以及要孩童多洗手。然而,隨著更多的研究之後,科學家們發現問題出在油漆和汽油,大量的家戶使用了含有鉛的塗料、汽車使用的油也都含有鉛。

 

  每個人呼吸的每一口空氣都包含一定量的鉛,無論多常洗手、房屋打掃得再乾淨,其實一點用也沒有。在經過了多年努力之後,含有鉛的汽油和油漆都被禁止,這項問題才得到改善。

 

  如今,監控資本主義對人--尤其是孩童與青少年--的危害並不比當時的鉛來得少。就像我們並未禁止油漆和汽油,而是禁止其中的有害成分,手機和網路提供我們方便,但我們同樣也需要禁止它們之中會危害大眾的部分。

 


  那麼,如果當前的這種模式被禁止了,這些社群網站會變得怎麼樣呢?阿薩認為,它們或許會經歷一段小小的危機時期,但實務上,一但禁令實施,這些公司會立即找到其他為自己籌集資金的形式。

 

  其中一種可能是訂閱制。用戶必須每個月可能需要支付幾十塊台幣的訂閱費用才能使用社群網站。但好處是,這些社群平台不必再為了廣告商工作,可以專心為用戶提供一個能創造優良互動的平台。

 

  由於這個時候,用戶成為了平台真正的金主,它們第一次開始思考怎樣會讓用戶開心,而不是只考慮怎麼讓廣告商滿意。

 

  另一種方式是像「公共電視」一樣,由國家與國民出資,打造一個公有但獨立於政府的公共社群平台。就像公共下水道一樣,既然社群網路已經成為現代生活的基礎設施,如果能由政府和民間專業人士共同維護,我們才更容易有一個不發臭的網路環境。

 


讓科技工具真正為我們所用

 

  事實上,從技術上來說,拿掉或減少那些會讓我們分心的功能並不困難。譬如說,臉書和Gmail可以改變通知模式,讓我們一天只會收到一次統一的通知,告訴我們今天誰傳了訊息給我們。以當前的技術來說,甚至可以結合AI,幫我們彙總這些消息。

 

  又或者,它們可以關閉無限滾動,當我們每一次滑到頁面最底時,就跳出一個彈出式視窗,詢問我們「是否想看到更多動態」,我敢保證,這些彈出視窗會大大降低我們繼續看社群網站的欲望。

 

  影音平台也一樣,它們完全可以關閉推薦引擎。事實上,在幾年前沒有這個東西的時候,我們也從來不曾覺得自己沒有影片可看,我們會自己去尋找自己想看的東西,而不是被動地接收這些愈來愈極端的內容。

 

  甚至,阿薩舉例:「有一個按鈕寫著『查看附近今天想見面的所有朋友』」,只要加入這樣一個簡單的按鈕,社群媒體就可以讓我們和我們的朋友產生更多真實的連結。

 

  這麼做的其中一個後果是:我們會更少活在數位世界、更多地活在現實之中。而如果網站已經改為訂閱制或變成公共平台,我們和科技公司的利益就不再因此衝突。

 


  崔斯坦和阿薩認為,設計與編寫一套「肯定生命」的臉書,並不比設計當前這套「耗盡生命」的臉書來得困難。而且他們相信,大多數的人都更想要「肯定生命」的那種,而不是現在的這種。「基本上,沒有人喜歡以目前的技術來花時間或做決定。另一邊的山丘更好。」而法規,能讓我們更輕鬆地穿越山谷,將我們的科技生活導向我們想要的那種。




前篇:

〈(一):我們的行為已經被科技產品給重塑〉

〈(六):以控制注意力為目的的設計〉

〈(七):無限滾動與監控資本主義〉

〈(八):演算法鼓勵我們憤怒,民粹惡棍因此受益〉

〈(九):對抗數位成癮,不只是個人習慣的問題〉



延伸閱讀:

〈那些被奪取的時間:前Google員工崔斯坦的反省〉

〈手機育兒的危害與忙碌家長的困境〉

〈科技巨頭的目標是:讓你積極主動交出自己〉

〈多帶孩子去公園,大人也要跑起來!〉

〈真實世界的「電幕」:短影音與被重塑的認知框架〉

〈你使用科技,還是科技在使用你?〉

avatar-img
前圖紙的沙龍
102會員
849內容數
一個寫作實踐,關於我看到和思考中的事情。
留言
avatar-img
留言分享你的想法!
前圖紙的沙龍 的其他內容
  就像崔斯坦在參議院作證時說的:「你可以嘗試自我控制,但螢幕另一邊有1000名工程師與你作對。」這些工程師很多都讀過尼爾的書,或者聽過他受邀到科技公司發表的演說。如今尼爾卻說:你應該對你的人生負責,按下按鈕、關掉app。這顯然是強人所難與不負責任的。
  如果有一些言論和行為,他的目的或效果是破壞國家主權和法治,這樣的言論就有可能不屬於言論自由保護的範圍。或者我們反過來說,國家沒有義務去保護一個人說「反對或羞辱國家主權與法治」的言論,尤其,對方本就沒有本國公民權的時候。
  既然知道了人類有這項「弱點」,社群網站的演算法當然不會輕易放過。演算法意識到,當用戶看到令他們感到平靜、愉悅的貼文時,他們比較有辦法看完就關掉設備;而會引發憤怒、焦慮、難過等負面情緒的貼文,則更容易讓人們留在網站上。
  聊天型AI也存在著相同的邏輯。而且,AI的用戶往往會更主動地嘗試讓AI理解自己。我們巴不得AI對我們的想法瞭如指掌,這樣它才可以快速且充分地為我們服務。然而,我們根本無法避免這些數據被人拿去「破解我們」。就算山姆.奧特曼的團隊不會這麼做,馬斯克或祖克伯的團隊會、威權國家的政府部門也一定會這麼做。
  尤其,這關於「女性身體如何使用」、「女性希望/不希望自己如何被對待」,連這樣的話題你都不願意去停下來聆聽,不願真正試著理解反對代孕的女性在反對什麼,只會說著能將自己行為合理化的「樂於協助別人創造家庭」個案故事。再多的漂亮話,只會讓人愈看愈氣憤而已。
  阿薩解釋,我們可以把這件事情理解為,在臉書、Google等企業的伺服器裡「有個小巫毒娃娃,『它』是你的模型」。一開始,每個人的模型都是一些沒有明顯特徵的通用模型,但它們會不停紀錄、蒐集你的點擊軌跡、搜尋內容、使用偏好、在網站上停留的時間等你自己都不在意的小細節,用它們來調整這個娃娃。
  就像崔斯坦在參議院作證時說的:「你可以嘗試自我控制,但螢幕另一邊有1000名工程師與你作對。」這些工程師很多都讀過尼爾的書,或者聽過他受邀到科技公司發表的演說。如今尼爾卻說:你應該對你的人生負責,按下按鈕、關掉app。這顯然是強人所難與不負責任的。
  如果有一些言論和行為,他的目的或效果是破壞國家主權和法治,這樣的言論就有可能不屬於言論自由保護的範圍。或者我們反過來說,國家沒有義務去保護一個人說「反對或羞辱國家主權與法治」的言論,尤其,對方本就沒有本國公民權的時候。
  既然知道了人類有這項「弱點」,社群網站的演算法當然不會輕易放過。演算法意識到,當用戶看到令他們感到平靜、愉悅的貼文時,他們比較有辦法看完就關掉設備;而會引發憤怒、焦慮、難過等負面情緒的貼文,則更容易讓人們留在網站上。
  聊天型AI也存在著相同的邏輯。而且,AI的用戶往往會更主動地嘗試讓AI理解自己。我們巴不得AI對我們的想法瞭如指掌,這樣它才可以快速且充分地為我們服務。然而,我們根本無法避免這些數據被人拿去「破解我們」。就算山姆.奧特曼的團隊不會這麼做,馬斯克或祖克伯的團隊會、威權國家的政府部門也一定會這麼做。
  尤其,這關於「女性身體如何使用」、「女性希望/不希望自己如何被對待」,連這樣的話題你都不願意去停下來聆聽,不願真正試著理解反對代孕的女性在反對什麼,只會說著能將自己行為合理化的「樂於協助別人創造家庭」個案故事。再多的漂亮話,只會讓人愈看愈氣憤而已。
  阿薩解釋,我們可以把這件事情理解為,在臉書、Google等企業的伺服器裡「有個小巫毒娃娃,『它』是你的模型」。一開始,每個人的模型都是一些沒有明顯特徵的通用模型,但它們會不停紀錄、蒐集你的點擊軌跡、搜尋內容、使用偏好、在網站上停留的時間等你自己都不在意的小細節,用它們來調整這個娃娃。