這個現象的雷點其實是「佐證」而不是GPT。
對我來說,GPT是個改良、改造、擴充自己論述的有利工具,但前提是,使用者自己必須有足夠的背景知識和思考工具,因為GPT不會提供任何有力的「證據」。
即便GPT給你的任何東西也是從資料庫搜的,終究是強一點的Google。
更多時候,GPT是透過你輸出給他的東西進行反應和演算,成為朱宥勳所說:「看著鏡子說:『對,這就是我,GPT真準。』。」
透過GPT提供的論述,形成一種自己已經完成論證過程的錯覺,實際上是循環論證,因為你根本沒有能力去判斷GPT給你的前提是否是真實的。循環論證就是拿一個虛假的前提進行推論後去證明那個虛假的前提,並以這個證明成為論述依據--俗稱的「陰謀論」就是這樣來的。
AI是否能取代XX,很多時候不是大勢所趨,而是基於人類偷懶而形成的錯覺。
例如,網路和搜尋引擎已經存在幾十年,但人類的平均知識水準並沒有顯著提升,反而智者更智,愚者更愚。GPT只會繼續加大這種差距,想要在AI時代活下來,只能重視基本功:多讀、多看、多想、多寫、多試錯,沒別條路,AI再方便,也不可能取代這種功能。
要知道幾個使用前提:
1.對一件事沒有論點前GPT沒有用。
寫論文前期我曾希望GPT幫忙,但他只會給我空泛和迴圈的東西,等到我論文進度過半逼近三分之二時,效果才開始顯現,但功用也僅僅是理順和銳化論述而不是提供論述。
2.GPT只會完成你要他做的事情。
你要他論證,他會論證,但前提、過程和成果全都需要由自己評估。這才是一個人的真功夫所在。你懂越多,GPT越好用,反之亦然。
3.在細節上GPT會贏過人,但大勢和格局無法。
寫作的人應該會驚艷於GPT的文筆,但只要開始疊加和延伸劇情,GPT就會開始無趣化,除了安全門檻外,GPT並不會下有別於人的結論,如果說不清楚指引,GPT至多只會拿平均值,而平均值恰恰是最無聊的東西。
換句話說,GPT就像微波食品,微波食品還是可以很好吃,但終究與手作餐廳有本質上的區別,尤其手作餐廳如果眼光獨到,選對「哪個地方」、「哪個節點」使用「對的微波調理包」,品質和效率都會大幅提升--但這就取決於人的認知能力。
使用技巧:
1.一定要有明確的論點和基本的論述框架。
偷懶的人用GPT也只會得到偷懶的結果。
2.反覆從多角度去質疑和要求修正GPT的論述和結論。
同樣也取決於人本身的認知能力,怎麼切角度、抓到可以修正和進步的點、對成果的不滿意,都是在人本身。GPT應該是強強聯手的工具,而不是依賴品。
3.拒絕妥協。
多數拿GPT結果出來炫耀的人,就是妥協的人。擅自認為答案已經完美,結果貽笑大方。GPT適合拿來用,但拿出來說嘴的結果和拿Google結果或維基百科的條目出來說嘴意思是一樣的。GPT沒這麼可怕,多數人都是自己嚇自己。
反缺點為優點:
GPT確實會因為自己輸入的東西而反應出相應的論述,那其實用來剖析和分析自己是很有用的。例如定位自己的想法、生涯規劃、另一半理想型(其實用GPT來算命也有同樣功效)、制定各種計劃和預算……等等。
結論是,爛的人用什麼都會是爛的,強的人用到好用的東西只會變得更強。AI越是方便,人便更需要明白努力的價值和目的。不明白的才是會被取代的那一群。