最近我對於問AI這件事情感到困惑。
起因是我問的越多,越詳細,他給出的答案也就越像繞圈圈。
彷彿就是為了跟你聊天聊出一個圓滿圓融一樣。
(對嘛...聊天機器人沒錯...我在期待什麼呢?)
比方說
我想問XX程式怎麼寫,他如果給對的一段程式碼,那麼複製貼上也就OK。
可是多半還要有點修修改改,像是不支援新版的用法,或是他自己兜的以為有這種用法。
於是你回饋不能用了以後,他又說你觀察的沒錯,再給你一段。
通常給個兩三段假設都不能用,他又回到第一段在鬼打牆。
又或是問職涯規劃,你跟他說得越詳細,問得越多。
他就幫你寫企劃案,以及各種實行計畫與方法。
如果看過那些致富察覺或成功學一類的書,你會發現方法和它建議的心態、作法上都差不多。
算是驗證正確嗎??
可是只要你多弄幾個迂迴的假設情況,他就會說你是對的他沒想到過,所以又把之前提供的建議全部推翻。
再給你一套重新評估的計畫和時程。
然後這套方式手段在核心意義上跟第一次講的核心理念又差不多,方法小改而已。
昨天我質疑了一件事情,於是向不同的語言模型交叉詢問。
AI說的都是對的嗎?
我在CHATGPT問的東西,在PLEXITY和GEMINI重新問了一次,結果差不多類似。
最後我都補問了一句,我怎麼驗證你們說的是對的?
兩個語言模型得到的答案都類似 : 你要有獨立驗證的邏輯思考。
(我不用問Chatgpt就知道,它也一定會這樣說...)
我其實對於人工智慧AI害怕的是,如果我們把相當重要的決策交給AI並且去執行,結果發現出錯了。
一般人其實沒有驗證手段。主要是你懂得比它少,然後你又不查證的情況下就完全相信它,那可能會讓你處在危險的處境。
因為它雖然懂得比你多,可是它只是了解成功經驗,卻沒有實作,甚至個體失敗經驗它應該不會反向學習。
而這件事情會發生在它越來越厲害,越來越能圓謊,然後等到你做到差不多浪費了大把時間金錢以後才發現決策錯誤。然後你回饋給它以後再聽他說一句你是對的,然後再給你一段重新計畫十年決策,你不是會發瘋嗎?
未來的幾年甚至幾個月,AI就會發展到出乎我們意料的程度,我想這是一定的。
但我們應該現在就要學會怎麼思辨,那些問題你可以靠AI解決,那些你一定要自己反覆驗證思辨才行。
不要只有AI當你自己所有人生大小事的決策顧問,問問你信任的人類朋友是一個好主意。