帶著結果找答案很危險 帶著答案找問題更危險

「 你怎麼不問 Chat GPT 」
這是今天我在心裡憋著不想回答的問題。
因為我過去當過 Prompt Engineer 的工作我並沒有公開。一方面當初那間是一間陸資。
一方面我也已經離開一陣子,現在 AI 精進技術那麼快,我擔心過去所知道的知識以為已經過時了。( 其實有很大一部分是怕能者過勞 )
然後我就察覺一個趨勢 - 很多人把 AI 當成萬能的答案機器,丟個問題進去,就把得到的回饋當作標準答案。
但答案真的就正確嗎?
核心問題:AI 答案的常態分佈陷阱
當你問 AI 一個自己不熟悉的問題時會發生什麼?
AI 給出的是「常態分佈」的答案:網路上容易找到、多人搜尋的內容。
但這裡有個關鍵問題:容易找到的結果是正確的嗎 ?
多數人的搜尋是可以代表自己要搜尋的嗎 ?
有問題出現,絕對不要帶著結果找答案。
所得的答案,確定真的是答案嗎 ?
AI 模型是基於大量網路資料訓練出來的,它會給出統計上最常見的答案,而不一定是最正確的答案。
這就像是問一群人某個專業問題,得到的往往是最普遍的誤解,而不是專業的見解。
風險放大:錯誤答案的病毒式傳播
更可怕的是錯誤答案的傳播機制:
第一個人用 AI 得到答案,不知對錯就傳給下一個人。
第二個傻呼呼的,就直接拿來用,好一點的,就會再用 AI 驗證。
然後得到的結果是,有問題的答案,竟然被確認是正確的。
拜託大哥 !!! 你知道你跟前面那個人抄的作業答案是同一個人的嗎。
然後錯誤答案就又被丟上網路訓練,然後這樣被反覆訓練,三人成虎之後,其實本來就有點問題的答案,越來越趨近於「標準答案」。
這種惡性循環讓錯誤資訊不斷被強化,最終可能成為網路上的「主流觀點」。
什麼是 Prompt Engineering?
就前面提到的,我曾經也是幹過兩年的 Prompt Engineer。
有沒有人好奇 Prompt Engineering 是在做什麼?
那 Prompt Engineering 跟一般人又有什麼關係?
可能沒有人想問,但我就想講 🤣
我想大家應該都有一個概念 ,Prompt 就是一個輸入,那 Prompt Engineer 主要就是研究要怎麼下這個 Prompt 讓 input 的質量提高。
概念有點像是,我們都知道人的身體需要好燃料,所以吃進去的食物很重要。
在中醫有種概念是食補,比如減少身體發炎,就應該少油少鹽少糖。
那就會有人研究說那要給什麼食物,對身體比較好。
比如說可以吃原型食物取代米飯,還有對於素食者要補充蛋白質,可以吃毛豆或者杏鮑菇。
那 Prompt Engineer 就是研究怎樣的資料會被拿來訓練,然後要下怎樣的指令才會得到使用者預期使用的結果。
Prompt Engineering 跟 IPO 違背 ?
奇怪, Joker ,你之前不是說要 IPO 嗎?
沒錯,如果我們知道 P 怎麼做當然就可以對 P 做描述,但 Prompt Engineering 追求的就是我只要輸入不管過程我就可以得到輸出。
而 IPO 的概念是做事情流程的框架,不是指 Prompt Engineer 的工作內容核心。
這種感覺就像是以前用 Google 搜尋某個問題,過程都一定會需要自己看很多篇文章,然後統整以後再輸出個結果。
但是現在 AI 的時代是,我下指令,然後就馬上得到一個結果。
以至於現在會有什麼關於叫「AI 幻覺」的名稱出現。
但倘若有辦法把要給 AI 的輸入指令,把事情說清楚,就一定會有一定的可能,讓 AI 不再會有幻覺。
核心的概念就是一定要餵給 LLM 你所知道的東西,並且說清楚
。
為什麼要分享這個系列?
因為看到朋友還有同事到現在還不太會對 AI 下指令,所以想說統整一下,做一個經驗分享。
看有沒有機會被他們,或是其他人看到我的分享,希望能夠幫助他們好好的使用 AI 看看。
希望可以解決更多工作遇到的麻煩,解決生活很多的問題。
預告:Prompt Engineering 技法系列
總之,我打算接下來用大約十幾篇文章將分享,我從當初到現在還記得的 Prompt Engineering 技法,預計從 M0 基準測試到 MX 多代理系統,目標是提高 AI 使用的一致性,然後大幅地降低幻覺。
然後倡導在學習 AI 以前,先建立正確心態:對 AI 的答案保持懷疑,把它當作工具而非權威。
最好只把你熟悉領域的內容丟給 AI 處理,用它來找靈感、輔助決策,而不是帶著結果找答案。
Just share to you ~ 我是 Joker 咱們下回見。