正在閱讀文章的你,如同現代社會的每個人都深陷在一個無法逃避的數位環境中。透過智慧手機和各類社交平台,如:TikTok、WeChat 等等,我們隨時隨地接觸資訊、分享生活,並獲取新聞。然而,認知操控的風險也正逐漸顯現。演算法、大數據分析,以及背後隱藏的商業利益與政治意圖,讓數位世界不再是中立的資訊來源,而是成為影響我們思維與行為的操控工具。
#成為數位世界中的青蛙
社交平台除了蒐集個資及個人使用者行爲、喜好、政治傾向、宗教信仰等資料,伺服器所採用的演算法透過大數據分析,針對推送給每一位使用者的內容進行過濾,以「置入式行銷」方式投遞訊息。久而久之,用戶自然就形成了「濾過泡泡」(FilterBubble) ,類似現實世界中「近朱者赤、近墨者黑」的人際群聚關係。網路世界中的「資訊同溫層」,讓多數人在「溫水煮青蛙」的數位環境裡,難以察覺自己已經逐漸陷入某種「認知操控」的陷阱。
#身為青蛙的風險與隱性危機
根據 2023 年 Statista 的報告,全球有超過 37% 的人口使用社交平台,這代表著數十億人的認知和決策過程都可能受到演算法驅動的內容而影響,尤其是在年輕人身上尤為明顯。身為「數位原住民」,幾乎每天都依賴這些平台來獲取信息。這樣的現象使得一個令人擔憂的問題浮現:我們是否真正能夠自主思考,還是早已在不知不覺中被這些平台主導了我們的認知?
哈佛大學網路心理學教授肖莎娜.祖博夫(Shoshana Zuboff)於 2020 年出版的新書《監控資本主義時代》(The Age of Surveillance Capitalism)中指出,大型科技公司正利用「監控資本主義」模式來實現商業目標,這不僅僅是廣告推送而已,更是一種「數位洗腦」的潛在風險,當我們習慣於接受經過篩選的信息時,是否還具備足夠的能力去分辨事實與虛假?
「監控資本主義」:(原書所提及之定義)
我們所熟悉的各類資訊科技(社群媒體、普及運算、穿戴式裝置等等),藉由收集使用者的行為與經驗數據,進行所謂的「行為剩餘」的榨取,實現從中獲利的新商業模式。因為監控資本主義企業在榨取行為剩餘的過程中,往往宣稱其作為是讓使用者在表面上經驗到的是更精確、有效率的服務,而使用者在「更有確定性」的舒適環境中,也就經常不會察覺異狀。
#青蛙該如何應對認知操控
中研院院士李德財教授於遠見雜誌的文章(數位環境「近朱者赤,近墨者黑」的風險)中提及,早期在美國推動提高民眾資安意識的運動「停、想、連」(Stop, Think,Connect)。希望民眾在接收到訊息或瀏覽被推薦的網路內容時,要謹償、能思辨、不輕信、不亂點選不明的網站。
我們在面對這樣的風險,需要尋求更多解決方案,以確保我們不會被演算法和數據洪流所左右。例如:在數位環境中建立「資訊營養標籤」,借鑒食品包裝中「營養標籤」的概念,對於網路平台上推送的內容進行標註(是否存在廣告商資助、政治組織的支持或演算法的推薦),讓使用者能夠直觀地看到該內容背後的來源、所使用的數據和推送依據,這樣的透明度將有助於用戶更好地評估其所接觸的資訊。同時,資安與數據隱私問題已經超越國界,各國政府在國際間應合作制定數據治理的相關規範,對演算法的透明度和數據使用方式進行更嚴格的監管。例如:歐盟的《通用數據保護法案》(GDPR,General Data Protection Regulation)來提升國際上的監管力度。
#我的看法
在這個信息爆炸的時代,我們的注意力與時間已被各大平台瓜分殆盡,在個人的認知自主性更面臨著前所未有的挑戰。因此,我們需要積極尋求創新的政策與方法,來抵禦數位世界中潛在的威脅。我認為「培養個人的資訊素養」、「政府的合理監管制度」,以及「成為科技公司的社會責任」,三者是建立一個更加透明和安全的數位環境所缺一不可的條件。在資訊產業中企業該落實的 ESG,不該是停留在「環境保護」之上,其演算法與大數據的濫用何嘗不是對於這個社會造成重大的影響呢?我們身為數位世界的青蛙之一,除了提升自我的認知意識與警覺性,也該監督企業追逐商業利益的同時,落實自身的「社會責任」。
【2024《遠見》前進校園·人才培育計畫】
哈囉~ 我是 2024《遠見》校園領袖,來自國立中興大學的柏毅,感謝您閱讀本篇文章,歡迎與我聯繫交流和分享回饋。
《遠見雜誌》由高希均教授、王力行發行人共同創辦,始終傳播進步觀念、提供社會前進的動力。由「遠見·天下文化教育基金會」公益贊助校園人才培育計畫,提供來自全臺各校的校園領袖 12 期《遠見》雜誌,期許透過校園領袖的影響力,讓知識能夠更廣為傳播,並帶領讀者關注全球通膨危機、科技、醫療等影響全球政經情勢、臺灣社會的議題。
#遠見雜誌 #2024 #人才培育 #校園領袖 #10月號 #第460期