更新於 2024/09/23閱讀時間約 5 分鐘

選美賽局(Beauty Contest Game)

在介紹選美賽局之前,要先尊請凱因斯大神降駕,因為這個概念應該是他最先提出(Keynesian beauty contest)。這個概念其實發生在我們生活週遭,例如要選結婚對象,你喜歡巷口賣麵的小美,但你媽覺得隔壁村的小芸比較有空…(不是,不要又亂湊時事題);你爸覺得樓下雜貨店的美麗比較好,你阿公喜歡家裡開歇門的珠珠,你阿嬤說要就要找像郵局3號櫃檯的阿珍這種。一堆人給你出一堆意見,每個人喜歡的都還不一樣,你要怎麼選?結婚對象當然就選你自己覺得好的最重要,但如果是要選股票呢?

你是要選自己覺得好的公司股票來買?還是買你覺得大家會覺得好的公司股票?

選美賽局最初的概念,即在描述這類「別人的喜歡會影響到你的喜歡」的決策行為。再進一步刻劃這種「不能只管自己想選什麼,而是要猜別人想選什麼再來決定自己要選什麼的概念」,設計了一個選美賽局(不確定是誰提出來的),它的遊戲規則如下。假設有100位參賽者: 


STEP1:每位參賽者寫下一個0~100的整數,100位參賽者就有100個數字

STEP2:算出100個數字的平均數再乘以2/3=X

STEP3:100位參賽者當中,所寫的數字與X的差距最小者獲勝 


非傳統賽局理論的解法大概是這樣:大家都是隨機從0~100中選一個數字,不知道別人選什麼,假設大家很高的機率會從0~100的中位數50去猜,整體的平均數很高機率就會是50,然後50的2/3是33.33(即X),所以猜33應該最有可能接近X。但如果大家思考的方式都一樣,每個人都選33,選33還會最接近X嗎?Level-k Reasoning在這裡的應用:

 

Level 1:0~100大家隨機猜,中位數是50,所以應該要猜33

Level 2:大家都猜33時,33的2/3是22,所以應該要猜22

Level 3:大家都猜22時,22的2/3是14.67,所以應該要猜15

Level 4:大家都猜15時,應該要猜10…

……..同樣的過程,可以再往更多層(Level)推算下去,k可代表任何一層。Level-k Reasoning即是在講這套一層推一層的關係。應該也不難理解一直推算下去最後會得到0這個答案。


#####


其實第一次在網路上看到這個賽局時,看完遊戲規則後答案大概呼之欲出,便沒有再去留意到有上述這種解法。後來在課堂上又遇到,是以實驗經濟學的角度在探討這個賽局,記得當時還蠻震驚的,想說這個東西不是一下就解完了,怎麼有辦法再去挖到後續這些東西。

與上述解法不同,若改以傳統賽局理論角度來看選美賽局解法大概是這樣:對每位參與者(Players)而言,優勢策略都是重複淘汰劣策略後會剩下一組純策略的Nash均衡。說明如下: 

對每位參與者,能出的策略是0~100;規則是全部人平均的2/3=X,最接近X者贏,所以策略空間對應出可能的X值就會是0~66.67。

這意思是每個人最大頂多只能猜100,當每個人都猜最大值100時,X的值最大頂多也才66.67;當你都知道X不可能比66.67更大時,是不是選67就好,何必去選100? 選99? 選98?...

賽局裡面講的「劣策略」的概念,在這裡即是,如果要選68~100,結果都不會比選67來的好,68~100就是個該被67淘汰掉的劣策略。(補充說明:如果當中有人選比100小的數,會讓X的值更小,這雖會造成67與X的距離變大了,但68~100與X的距離也同步變大,選67還是會比選68~100更接近X,淘汰劣策略的推論仍然成立)

 

接著策略空間變成是0~67,同樣淘汰劣策的過程再走一次,策略空間會變成0~45…再一直重複淘汰劣策略後,大家都選0便是純策略的Nash均衡。在這個狀態下,對所有人而言,假定當其他人都選0時,我隨便背離到一個1~100的數字,反而會讓我離X更遠(人數越多背離者會離X越遠,用只有2個人的例子試算也會得到相同結果),所以沒有人有動機改選1~100而不選0。

 

#####

同樣一個賽局,傳統賽局理論似乎沒有太多可以在裡面作文章的地方,最大關鍵應該是傳統賽局理論假設人是又理性又有超強推理能力(可參考這裡的另一篇文章:Common Knowledge)。

超級人腦的假設是否合理與有其必要性?這個也算是百年大辯論的其中一題,如果問我,我的答案是It depends…,有時真的需要有時反而太強的假設什麼也做不了,什麼也做不了當下就只剩學術價值,要等未來看哪個天賦異稟的練武奇才參透後才能轉化為實體應用;像AI近幾年跳躍式的發展,尤其在應用端,便是有一群人參透了深度學習,但它的基礎,神經網絡在1950當時也只是學術文章而已。 

Level-k Reasoning即是在放寬人類大腦有超級運算能力的假設下衍生出來能實際應用的產物,例如它的推理邏輯運用在AI模型裡就相當契合,一來是程式邏輯向來喜歡有層次的東西,二來是AI的學習演算法,可以運用歷史行為資料推斷對方是那個思維層次的生物,再調整應對策略後生成出一些有價值的結果。

但我覺得最重要的,還是用Level-k的概念描述人類真實行為其實一點都不違和。同樣一個事件,有些人只看表面,輕易就被糊弄過去還會跟你上街頭;有些人卻能看出事件背後的問題與真相;有些人不僅看懂了背後的隱情,甚至已經想好對策;還有些人,不僅早有對策,鐮刀都已經磨好準備要收割了。


我們其實就是處在一個Level-k的世界,這裡都還沒有談到資訊不對稱的問題,但即使大家知道的東西都一樣,還是很多人會幹傻事。所以,結論就還是同樣的同樣,大腦很好用,看可不可以盡量不要在Level 1時就被草草擊敗!

分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.