小時候,正是國共對立最嚴重的時期,當時盛傳當時中共治理人民的一種手段就是讓每一個人都是「監視者」,任何人只要發現身邊的人有異心,就可以通報,這個可疑的「異心者」就會被調查或是懲處,也就是建立了嚴密的資料搜集站點,足夠的資料,就有機會排除異己,達到治理的目的.
社會福利的發展,從中央到地方、從部會到縣市,從社福機構到鄰里長,建立綿密的通報系統,舉凡獨居老人、弱勢家庭、受虐婦孺等,通過嚴密的網絡情蒐系統,可以提供更多的溫暖、預防更多的悲劇.
同樣的制度、手段,一個讓人產生猜忌、心生恐懼;一個讓人備感關懷、心生溫暖.所以制度、手段不是善惡的原因,設計制度與實施手段背後的「目的」才是決定善惡的動力.
科技執法是 AI 技術成熟可以應用的領域,但是「執法」的目的是什麼呢?罰錢、處罰沒有符合「規則」的(不是犯錯喔),是我目前想到的.當然,一定有人會說,不是啊,是讓人知道他做「錯」了,罰錢心會痛,他就不會再犯錯了.合理的因果,一台機器運行時會撞到東西,發現運行軌道做太長,超出機器運行的安全範圍,所以軌道做錯了,把軌道縮短,機器就不會再撞到東西了.機器的運行是固定不變的、是單一目的的,所以只要不符合原來設定固定不變的原則、要完成的功能目的,可以說機器「錯」了,只要找到「因」(不符合的地方),修正使符合,結果必然是「對」的,就是符合機器存在的價值.
人,是單一不變、功能導向的存在嗎?依據因果邏輯,修理好一台機器,其邏輯必然符合只要當錯誤因修正,結果必然正確.人適用因果邏輯嗎?
想像一下如果有一天,人完全符合因果邏輯了,叫人往東,人就會往東,似乎太好了,統治者、老闆、父母都開心了,但人民、員工、子女開心嗎?任何一個人都扮演多種角色,當你希望別人依據自己所願時,多希望人是因果論,當扮演的是被控制者,我們都理解人不是倚賴因果而存在的.
法律必須存在,因爲法律定義一個「規範」讓在這個法律治理的社會中,所有人有所依據,法律不是代表「對」,沒有依據法律而行事不是代表「錯」,這只是「落差」,兩個端點間的落差告訴我們「預期」與「實際」有差異,差異不是錯誤,只是一個指標數值,告訴我們目前的狀態,提醒我們如果不接受這樣的落差,需要檢視目前的做法是否有可能修正的方向,調整預期目標或是執行方法再次進行嘗試,並不斷進行這樣的循環.這其實就是管理循環 PDCA理論 的體現,i.e. Plan 計畫、Do 執行、 Check 檢視落差、Action 修正計劃. 現在普世價值觀視法律為真理,只要偏離法律就是錯誤、是異己,這似乎在復辟「集權」控制的體系,難道制定法律的目的在利用「恐懼」治理,設置監視器、舉報者制度,就是建立的監控的網絡嗎?
法律是我們對所處社會想要或是不想要結果的預期規範(就是計劃 P),執行(Do)發生在日常生活與治理制度的互動中,執法結果,例如罰單數,是檢視(Check)的落差,所以理應修正的是治理制度的背後邏輯,也就是「處罰因果」這個邏輯真的有效嗎?科技執法(目前修正計劃是利用AI來強化執行)的結果是發單的增加,這是放大落差,以管理、治理的角度,這不但不是提升,反而是凸顯治理的無效.
制度、工具、方法等無善惡,是如何使用他們背後的邏輯與目的決定結果的善惡,民主制度的目的應是追求關懷與溫暖的幸福社會,切勿再讓錯誤的邏輯,用恐懼治理.
人不是機器,人是充滿變數的複雜系統,人有理性與非理性的特質,人同時是治理的主體與客體,因此單純的因果邏輯,無法有效的解決人的問題,AI (至少目前的AI)是可以放大效果的手段,所以善用AI的前提是有效的計劃,目的與邏輯.
蜘蛛人的名言:「能力越大、責任越大」,AI 放大人的能力,意謂人承擔更大的責任,而這一份責任是我們設定的願景.在交通的願景上,更方便、安全、有效率的交通聽來合理;更多的罰單聽來就有點啼笑皆非了吧.














