人類大腦往往是先做了決定,再找理由來解釋。人類有個擅長說故事的大腦,要為自己的行為編出一套理論並不難。心理學家發現,人類大腦會傾向為自己的選擇辯護,也會喜歡尋找、閱讀跟自己相同立場的資訊。這叫做「選擇性接觸假說」(selective exposure theory)。

在社交網站如臉書等掌握全世界有上網能力的人的「眼球」後,民主國家政黨政治的兩極化越來越激烈,在歐洲更因此造就一些民粹激進小黨壯大。傳統媒體的守門人角色式微,社交網站成為新聞資訊最大來源,而這些資訊已不再由傳統大報寡占。政治立場鮮明的網紅可以快速聚集相近立場的支持者,引領著網民越來越往政爭的兩極化分歧。
人們思考:先有雞,還是先有蛋?是社交網站的機制撕裂人心,還是因為人類大腦本來就會不斷為自己的選擇找理由,然後選擇自己喜歡的資訊、排斥不同的意見?
答案看起來是:人類大腦本就如此,只不過社交網站讓資訊流從特定階層掌握的主流媒體釋放出來,各種極端化的言論現在都可以自由流通,拉扯著政治人物也必須往兩端跑鞏固基本群眾。
同溫層效應(echo chamber effect),加上總是有些充滿怒火的人會跑來挑戰不同意見的發言者----尤其當這些憤怒的人發現這裡是個跟他沒有什麼交集、不需顧慮人情的異溫層時----使得許多人越來越喜歡待在同溫層裡互相取暖。不少人擔心,這會讓不同政治立場的人,彼此間越來越難了解、敵視與仇恨越來越大。
有些善心人士就建議啦,我們是不是要走出同溫層,多看看別人的想法?臉書、推特等網站,是不是要改變演算法,讓異溫層的訊息多多散佈出去?
杜克大學學者Christopher Bail就做了這麼一個實驗。他找來1652位推特使用者,其中901位支持民主黨,751位支持共和黨,然後再把兩黨支持者隨機分成實驗組跟對照組。實驗組會得到11美金,配合要求追隨(follow)一個推特機器人,然後再拿到18美元,只要能完成每週一次的問卷。拿到錢的代價還包括,要「再推」(retweet)推特機器人的政治性發言,一天24次,連續一個月(這29美金還真難賺!)。
想也知道,在研究裡,民主黨支持者追隨的是保守派機器人,而共和黨支持者追隨的是自由派機器人。這些人連續一個月共觀看了720則政治立場不同的推文,有沒有讓他們稍稍調整自己的想法呢?
答案當然是,沒有,完全沒有。跟對照組比起來,保守派更保守了,自由派也更加解放。單純暴露在「敵對陣營」的訊息,並不會讓熱情的支持者產生同理心,思考對方為什麼這麼想,反而催化了「逆火效應」(backfire effect),引發更強烈的防衛之心(也或許是更加為自己的選擇辯護)。
這研究告訴我們,單純靠社交網站散佈異溫層資訊,可能無法改變不同政治陣營的對峙。「逆火效應」與「選擇性接受」形成一道保護牆,護衛著我們脆弱的心靈:我們先前的選擇是沒錯的,錯的一定是其他人。但也不需要太過擔心這世界在政治上一定會變成雙極化,以台灣為例,我們可以清楚看到,台灣的政治版圖,可以在兩年內產生巨大的震盪。畢竟,政治立場並不是只有兩端,還有些人在中間擺盪、兩邊都不太喜歡、不見得會每次都出來投票。藍綠「鐵粉」或許只有15-20%,主要政黨還是得爭取難討好的「中間選民」的支持。
要改變一個人的想法,比要鞏固一個信念難上一百倍。人類演化出這樣的大腦機制,或許是要讓人的行為容易預測、讓團體運作不要有太大變數。古代部落間的爭戰,如果族群裡有許多人很容易被外人說服,那恐怕很快就會變成屍體、俘虜與奴隸了。古老的演化機制,注定會糾纏我們,讓我們以一個個固著僵硬的大腦繼續活下去。




















