我在美國駕駛近20年沒發生過事故,在2020年7月,經歷了我的第一次車禍,在離我家不到二十分鐘車程的一個十字路口,一位20多歲的女孩,沒顧慮到我直行車道的綠燈,在我的面前急行左轉,她聲稱她的GPS導航軟件,指示她在那個時刻左轉,言語間她還是不覺得她有過錯,因為她只是單純地依照機器人的指示,不幸的是,盲目地遵循指示導致了一次碰撞意外,慶幸我兩毫髮無傷,但是,車輛修復費用將近5000美元。
這起交通事故是一個好例子,說明當人們相信機器能做人類無法完成的複雜運算時,從而相信機器可以提出比人類思考的更優越的建議,一味盲目採用建議,這樣的決策過程很容易出錯,甚至造成無法彌補的損失,另一個例子發生在我的課堂上,這學期討論史蒂夫鮑爾默在微軟領導期間的表現不佳時。三位學生提出了獨特的策略管理問題。經過簡要討論,我使用ChatGpt來運行這些問題,而各種戰略替代方案幾秒鐘立即生成在白板上,我問學生們他們支持哪種策略替代方案——是我們在課堂上討論過的還是由AI生成的。大多數學生喜歡AI生成的替代方案,因為它們提供了更多選擇,我進一步要求他們仔細審查這些替代方案,並注意到有些太抽象,並且與微軟的討論案例無關。然後,我們討論了機器無法提供與人類相同的見解,因為人類具有根據他們的經驗理解和製定替代方案的獨特能力。例如,我們可以能容易了解乾燥10塊布不是簡單的數學問題,只需將一塊布乾燥的時間乘以10。類似地,十個人走過橋所需的時間與一個人相同,而不是將時間乘以10,ChatGpt目前並沒有這樣的常識理解,只是單純運算工具。
總之,儘管我們很幸運地在人工智能有了技術性的突破,例如ChatGpt,在我們的工作中可以是一個有用的工具,但不應將其視為唯一的真理來源。人們應該牢記一句話:「如果你手中只有一把錘子,那麼一切看起來都像釘子。」雖然ChatGpt在做決策時可以提供替代選擇,但不應僅僅依賴它來求解我們生活中最佳的策略路徑。