2020-10-08|閱讀時間 ‧ 約 10 分鐘

Netflix《智能社會:進退兩難》—資訊科技如何分裂現代社會

Source: Netflix <the Social Dilemma>
Source: Netflix the Social Dilemma
如果你沒有為使用產品而付出金錢,那麼你本身就是產品。
你有想過為什麼你能免費使用Google、Facebook、Instagram等這麼棒的服務嗎?
個人資料被拿來當作籌碼,賣給廣告商,這也許早就不是什麼新鮮事了,但這個紀錄片《監視資本主義:智能陷阱》告訴你,事情可沒有那麼簡單,這背後的影響和嚴重性,可能正在侵蝕、破壞世界和社會的平衡。
社群媒體讓人們夠輕易地互相連結等,帶來了許多好處,但於此同時,我們是不是過於輕忽於負面影響了呢?

上癮、憂鬱、焦慮

Source: Netflix the Social Dilemma

社群媒體本來就是設計來讓人上癮的
說到社群媒體帶來的負面影響,很多人可能第一個聯想到的是上癮。有些人可能會對自己感到失望,為什麼就是沒有辦法控制,總是忍不住去拿手機,看通知,看別人的動態等。
這其實一點也不稀奇,甚至可以說是再正常不過了。因為社群媒體本來就是要設計來讓你上癮的。
片中舉了一個例子,如果你有使用Facebook或Instagram,應該會發現在聊天室裡,對方在輸入訊息時,你可以看到「⋯」或是「正在輸入中」等字眼。(或者你根本沒有留意過,不知不覺地中計了)這個看似「貼心」的小提示,其實就是想將你留住而耍的小手段。如果沒有這樣的提示,也許你打完訊息,就會跳出畫面了,但當你看到「正在輸入中」,心裡便會忍不住想看看對方的回覆,而選擇留在聊天室中,延續對話。

連設計師也難逃上癮命運
Source: Netflix the Social Dilemma
紀錄片中採訪了Google、Facebook、Pinterest、Instagram等現今主流社群媒體的重要人物們。其中,Pinterest的前總經理就談到,他下班回家後,仍會忍不住地拿起手機,滑Pinterest。
這真是太諷刺了。我白天去工作,然後製造出一個把我當作獵物的東西。 然而有時候,我真的情不自禁地使用⋯⋯
這聽起來多麽的可怕,即使是這些設計師、創造出這些產品的人,他們知道背後是用了什麼樣的心理學原理,如何地操弄、運用人心脆弱的那一面來使人上癮,但還是無法自拔地陷入其中。

美國青少女的自殺率攀升
Source: Netflix the Social Dilemma
除了上癮問題,有數據顯示,美國青少女的自殺率自從社群媒體出現之後,有逐漸攀升的趨勢。雖然並不能百分之百地將自殺率的升高怪罪於社群媒體,但許多研究說明了多少是有關聯性的。
片中的女孩,將自己的照片修成大眼睛、小臉等,都只是為了換取更多的讚,上傳照片後發現讚數不理想,便馬上刪除貼文,而即使有十個人留言稱讚「你好美」,但當中只要出現一則負面留言,眼裡便只剩下那則留言而陷入負面情緒。
諷刺的是,一開始Facebook的開發人員其實是希望社會上能多一些正面能量,讓大家能夠更容易地傳遞愛而發明「讚」這個功能的,無奈後來卻帶了很多反面效果。

假新聞,混淆事實

假新聞在Twitter的傳播速度比事實快6倍。
假新聞也是一個現今社會當中很嚴重的問題。新冠疫情剛爆發時,英國網路上瘋傳著關於COVID-19的陰謀論。「疫情全都是5G造成的,是5G的信號塔在散播病毒」於是,就有好幾處的5G信號塔被人給縱火燒毀了。
這讓我想起,三月多,全台陷入新冠疫情恐慌時,我也曾收過媽媽轉傳的訊息:「喝鹽水可以有效防止新冠病毒進入體內⋯」我一看就覺得,「嗯⋯感覺很像時常出現的網路謠言⋯」便查證了一下,果然又是不知道從哪裡傳出來的沒有根據的說法。
這樣的訊息,其實也不是第一次從長輩那裡收到了,而我也相信許多人也有相同的經驗。長輩們可能也只是出於好意與熱心,卻沒有意識到自己正在成為網路謠言或假新聞的散播者。雖然說目前看起來大部分的資訊,都是這種生活上的小知識,但很難說未來不會被有心人士拿來操作,演變成「燒掉5G信號塔」那樣荒謬又或者更嚴重的情況。

同溫層越來越厚,社群媒體造成社會對立

Source: TED Eli Pariser-Beware Online Filter Bubbles

為你量身打造的客製化內容,有益無害?
你知道即使用一樣的關鍵字,在Google上進行搜尋,每個人看到的結果是不一樣的嗎?現在的數位服務,幾乎都會提供客製化內容,不論是Youtube或是Spotify上的推薦影片、音樂,購物網站上的「你可能也會喜歡」,Facebook上精準投放的廣告等,演算法幫你從資訊海中撈出對你有用的東西,看似一切好像理所當然有益無害。
然而當吸收到的資訊,全部都是基於你喜歡的、你想看的、你有興趣的而量身打造時,是很危險的。這會讓你聽不見,也看不見那些和你持相反意見的聲音。
當大家都選擇被動接受片面資訊,而沒有人主動願意跨出去看看外面的世界,所有人堅守自己的立場,能夠靜下來和平且理性溝通的人,似乎也漸漸地越來越少,取而代之的是各種衝突。

美國的政治兩極化現象
下圖顯示,近年來,美國的政治兩極化現象越趨嚴重,極左派和極右派的選民越來越多。
Source: Netflix the Social Dilemma
Source: Netflix the Social Dilemma
在2016年的美國總統大選中,Facebook淪為了操弄政治的工具之一。當時,川普團隊和一間名為劍橋分析的數據公司合作,劍橋分析聲稱他們有非常厲害的技術,能夠精準地分析數據並投放廣告,在與川普合作之前,他們早已在很多的國家做過實驗,成功地影響了當地的政治。
劍橋分析對他們從Facebook上非法取得的個資進行分析,向立場比較不堅定的中間選民們進行廣告投放,根據他們的性格或是重視的價值觀等客製化廣告內容,每天在各大平台上不斷放送,直到他們動搖。
而對於本身立場就比較明確的選民,其實並不需要特別的投注心力,因為他們社群媒體的資訊牆上,早就都只充斥著被演算法過濾過的內容了,而那些內容,也幫助了他們更加確立、堅守自己的立場。
Source: Netflix the Social Dilemma
(關於川普團隊如何利用社群媒體來影響大選,可以參考另一個Netflix紀錄片:《個資風暴:劍橋分析事件》)

令人意外的同性婚姻公投結果,其實一點也不值得意外
關於同溫層太厚這件事,我在2018年台灣的同性婚姻公投時有深刻的體悟。當時自己是站在支持方,而身邊的朋友幾乎也全是站在支持方,打開社群媒體,看到的全部都是支持的貼文,所有的資訊都告訴我,「大家都支持,穩了穩了!」
然而最後卻被結果狠狠地打臉。直到這時,才意識到原來我一直活在自己的同溫層裡,而且是很厚很厚的同溫層。那些相反意見、不想看到的東西,早已被自己給封鎖掉,或是被演算法給移除掉,看不見了,也難怪我只聽得見自己的聲音,天真地以為全世界都站在我這邊。
我們曾以為網路出現,取代立場偏頗的傳統媒體,讓我們看見了全世界,殊不知所看到的,只是另一個守門人—演算法想讓我們看見的世界。

台灣的未來,親中?反中?
現在的台灣社會,有兩種主流勢力,親中與反中。而近年來,我也確實地感覺到就像美國政治兩極化越趨嚴重一樣,這兩種勢力的對立越演越烈。
親中的人繼續地在自己的網路世界中不斷接收著「中國好棒棒」的訊息,反中的人也持續地接收著「中國多麽惡劣」的訊息,並且互相認為對方無腦,然而他們很多人都沒想過,打從一開始,他們吸收到的資訊就是不一樣的,而只會一味的指責對方,很少人願意坐下來談,了解彼此眼中的世界。
說真的,這個年頭根本不需要發動什麼武力攻擊,利用網路世界的特性,也許就足以讓一個社會或國家分裂、崩解。

現代人總是擔心著未來可能工作會被AI取代,甚至某一天AI會聰明到威脅人類的文明或生命,而感到害怕不已。然而在不知不覺當中,這場人類社會與科技資訊的戰爭,早已開始了。希望大家能理解到個資問題,不只是電腦被駭,被有心人士拿來騙騙錢這麼簡單而已,影響到的可能是世界的穩定。
雖然這個紀錄片確實點出了目前世界上正在發生,很重要卻不被重視的問題,不過片中還是有一些地方蠻值得吐槽的。例如,譴責Facebook利用演算法,不斷地奪取我們的注意力,但我正在看的Netflix大大,您不也是嗎?心中不免小小地吐槽了一下。
紀錄片讓人感覺好像只是純粹在敘事事情,看似中立,但每個紀錄片導演,一定都有自己的立場,以及想要傳達的信念。因此對任何事物抱持懷疑態度、求證精神、不隨波逐流、尋求相反意見的聲音等,在現在這個被資訊所主導的社會中,顯得十分重要。
最後,雖然這部紀錄片揭露了很多科技醜陋的一面,但我仍相信數位科技的進步,不是為了衍生出仇恨,而是為了讓世界變得更美好的。

參考資料

分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.