「我們將擁有一種比我們所有人都聰明的智能,而我們對發生了什麼毫不知情。」
ChatGPT背後推動者OpenAI 的CEO Sam Altman在向《經濟學人》總編輯談論人工智慧的未來形勢時,提到GPT的設計思考在於它能完成多少比例的人類任務,如GPT-4能完成10%,那GPT-5要想的是,它能完成12%、15%還是20%人類工作或生活的任務呢?
事實表明,許多人的工作流程中能透過這個工具提高生產力,這就是AI的威力。
也許不是每件事情都那麼令人滿意,但它終究是知識工作的伴侶、會成為使用電腦的一種方式。
隨著AI仰賴愈來愈大的數據集,例如OpenAI的ChatGPT或微軟的Bing。它們接受好幾千億以上數據的訓練,從網路各處抓取資料進行訓練,讓它可以根據先前或周圍的脈絡來預測某個東西發生的「機率」(某個字元、單詞或詞串,甚至是某個圖像,或不同音調的聲音)。
它不僅是訓練數據的規模大小而已,演算法也在自我學習;隨著取得更多的數據和使用者回饋,並在過程中增加新的參數,它們也不斷改進自己的預測能力。
這使得我們難以分辨這種預測的準確和不準確。
然而,人類的認知遠比不上技術的進步,就像Altman說的「當你參考過去關於技術革命的紀錄,會發現專家的預測總是錯誤的。你必須對你的觀點保持一些彈性,看看與世界相應的反饋是如何。」
好在就像過去任何新技術的萌芽,政府將對任何技術發展的規定表達意見,雖然規範會使進步有一定程度的受限與阻礙,同時也讓我們有更多時間去判斷什麼是準備好投入使用的,什麼的準備還不夠、什麼被允許,或者拒絕;要如何預測未來的風險、如何降低風險,又要如何設定這個新的價值...?
簡單來說,隨著AI系統提升到新的通用操作標準,作為一個使用者,我們需要良好的判斷力來因應。又根據經驗法則,我們都知道光強化技能並不足以培養更好的判斷力,判斷力不僅是在評估數據和資訊時做出決定的那一刻行使的,它始於問對問題且有更廣泛的範圍,是連續的。
必須從根本重新思考如何看待和部署判斷力,才能夠在缺乏清楚明確的相關資料或明顯路徑的情況下,做出健全的選擇以調整適應變動的步調。
在〈改善你的決策品質,精進判斷力六大要素 〉這篇文章中,整理出構成良好判斷力的六項因素,分別是:學習、信任、經驗、超然、選擇、實施。
一、學習
在資訊超載、「假消息」一詞很普遍的現代,我們必須特別注意看到和聽到的資訊品質,尤其是他人過濾後的資訊,或透過搜尋引擎和社群媒體交流而取得的資訊。
去學習如何聽讀出弦外之音,留意別人提供的內容漏洞和肢體語言。思考數據資料來自何處,以及提供這些資料的人可能的利益所在。如果可以的話,向多個不同立場的支持者徵求意見。
最後,確保我們仰賴的資料所採取的標準都是正確無誤的;尋找指標中的不一致之處,並且設法了解它們,同時要留意自己做法可能阻止不同論點出現的防禦性或侵略性態度。
二、信任
培養可信任的建議來源,這些人會告訴我們一些必須知道的事情,而不是想聽到的事情。
在做決定的時候除了本身的技能和經驗,也可以借重他人的技能和經驗。這些顧問是誰,以及我們信任他們的程度,攸關後續所作判斷的品質。且透過先篩選出可信任的來源來作為輸入源,可以省去很多從他們之口得到資訊的過濾流程。
三、經驗
經驗給我們情境脈絡,並協助我們找到潛在的解決方案,以及預料到可能會有哪些挑戰。
適時檢視過去做過的重要決斷,對的和錯的判斷都記錄下來。復盤完可以去和他人分享你的結論,他們對相同的經驗可能會有不同的看法。也請試著找一位聰明的朋友來提出中立的批評。
再來,繼續努力拓展自己的經驗。
四、超然
在知性和感性上保持超然的能力,是良好判斷力的重要組成部分。
但這是很難精通的技能。近年來行為經濟學、心理學和決策科學方面的研究都已指出的,錨定(anchoring)、確認和風險規避、過度的風險偏好等認知偏誤,對於人們所做的選擇有普遍的影響。
五、選擇
領導人在做決策時,通常會被期望在至少兩個選項之間做選擇,而這些選項是由它們的提案人擬定和提出的。但聰明的領導人會相信還有其他選項,例如,什麼都不做、延遲決定直到可取得更多資訊時、進行有限定時間範圍的測試做法或實施試辦計畫。
事後來看,許多糟糕的決斷是不可避免的,只因為人們甚至從來沒有考慮過一些重要的選擇,以及發生不想要的後果的風險。這種情況會發生,有很多不同的原因,包括提供潛在答案的人規避風險。
六、實施
你可能做出所有正確的策略選擇,但仍因沒有運用判斷力去決定如何執行、由誰去做,而以失敗收場。
要記得每個目標、計畫,都是自己透過判斷力去選擇後的「結果」,需要恰到好處的執行才會成真。
-
當我們努力實現人類與科技緊密協作、促進創新和進步的未來時,無論道德倫理、任務執行、風險管理、日常生活等等,大大小小的輸入、決策與行動,無時無刻不需要依靠大量的判斷力。
我相信,擁有良好的判斷力會是面對科技時代的一大競爭力,也是一項我們很好掌握與培養的技能。