既然 SEO 文章都建議這種編排格式,這次來友善一下 Google 的爬蟲
本文記載的是 2023 年 3~4 月期間,由於當時沒怎麼鑽研提問邏輯,隨意向語言模型問過的其中三個蠢問題。實在有夠廢以至於單獨列出來,寫文紀念但不拉低整個 AI 越快這裡則慢系列文章的格調。
俗話說得好:解釋笑話就像解剖青蛙,你將弄清楚它的內容,然後它就死掉了。
冷笑話本來就是沒拿捏好會冷場的慎用聊天題材,在 2023 年春命令沒那麼懂人類社交邏輯的 AI 講,還要 AI 自己解釋笑點,這樣只要一句提問,就能一口氣將笑話殺死三遍,讓人愉悅啊 ChatGPT~
雖然大語言模型是將文字轉換為數字向量,依據其空間中特徵來辨識敘述含義,gpt 不需要將我們輸入的中文提問先翻譯成英文才能理解,卻不代表不同語言間沒有差異性。
重點在於美國科學家開發 gpt 系列獲取英語系資料較容易,導致當時 ChatGPT 英文回應相較其他語言回應,具備較優異的表現。但當我用中文要求 ChatGPT 提供冷笑話範例,將產生幾個不確定因素:
AI 解釋完人類不會比較懂這個冷笑話笑點在哪,笑話不明不白地死了三次,人類還沒弄清楚它的內容......
日本漫畫家芥見下下在 JUMP 週刊連載的漫畫作品咒術迴戰,作品中反派為了封印正派最強角色五條悟,機關算盡在萬聖夜渋谷車站周圍設下圈套,正反方交鋒引發故事中途高潮。
於是我一時無聊,簡單記述了渋谷事件反派圈套設計、封印方式、最後五條被封印的結果,讓 ChatGPT 續寫正方如何應對、這段大戰如何結尾。
AI 生成結果千篇一律,五條既然最強,必定能無視我輸入的設定自行突破封印,略過戰鬥過程直接戰勝眾反派與咒靈,“總的來說”,ChatGPT 喜歡畫蛇添足最後多寫一段大家決定同心協力、合作讓世界變得更美好,充滿積極正向的論說文賞析結論。
倘若我讓 AI 輔助創作,這種廢到笑的產出可能讓我勃然大怒,因為現實可以沒有邏輯,創作鋪陳總該有邏輯,這導致我挺重視起承轉合的「轉」,如何寫得情理之中、意料之外,賦予讀者恍然大悟的新奇體驗,是繼開頭與結局後我第三個思考的重點。
而 ChatGPT 的產出在我能簡單處理的部分著墨太多,卻把該斟酌的重點直接略過,我還得修剪它生成的敘述、補足它省略的劇情,那我為啥不直接自己寫?當時 AI 寫的東西頂多能當大綱,略掉戰鬥過程直接寫戰鬥結果,我認為戰鬥題材連載漫畫是不可能採用這種,無法填充頁數的編排的。
直到我看了咒術迴戰 236。
不是 ChatGPT,是現在改名為 Copilot 的 Bing Chat。在 2023 年 4 月網頁版還有每日對話數量限制的當時,浪費次數跟它講這些,簡直廢到無以復加。
連AI自己都看不下去了,呵呵。
實際上直到 2023 年 4 月,GPT-4 問世的當下,網上依舊討論著大語言模型究竟是否具有智慧,當時人們提出好幾項驗證它們解題思路的問題,例如經典的渡河問題──
人、狼、羊、白菜要從河的此岸藉由一艘船渡河至另一岸,其中只有人會劃船,每次人只能帶一件東西搭船渡河, 且狼和羊、羊和白菜不能在無人監視的情況下放在一起。 在這些條件下,在最小渡河次數下如何才能讓大家都渡河至另一河岸?
AI 或許學過了這項經典題型,因此研究者發現簡單更動題幹敘述 : 人 不 需要將所有東西送過河、搭船能帶 超過 一件東西......大語言模型們依舊按照原始題目的邏輯去分析。
對真實世界而言,增減一兩個字會造成整體邏輯上的顛覆,但對解讀人類輸入敘述進行分析的 AI 來說,這一點差異比例遠遠低於敘述整體,而 AI,是靠當前整體來推斷接下來出現機率最高的文字。因此人們詢問渡河問題的「變題」時,大語言模型們按照原典的「慣例」生成回應了。
換句話說,當時 AI 厲害的原因在於,開發者們餵養了遠超個人能吸收的大量專業資料來學習,如果今天 AI 被我餵了「XD」意指「.xlse delete」這概念,它有辦法提前辨認出謬誤而避免學習嗎? 別忘了人工智慧所學習的資料,都是人類選擇後提供的 !
將 AI 有限的記憶容量與學習資料,視為無限。
將被動接納人篩選餵食資料的 AI ,視為萬能。
然而 2023 年春天,人們還在琢磨如何與大語言模型互動,此時產出的文稿依然看得出 GPT 生成的蛛絲馬跡。誠如人類也是透過學習積累經驗,在現有知識中發現新的突破,生成式 AI 也正慢慢嘗試著融入工作與生活。倘若模型越來越強,要保持對人工智慧的距離感與質疑也越來越難,因為錯誤率降低,意味著人類越來越難透過檢查發現錯誤......
......但那是 2024 年後才有更多事例可以談的主題了。
恭喜你又學到了 3 件,因為 AI 對話模型迭代以及提問方式精進,在今天基本上很難重現的 GPT 提問小訣竅 ! 把這些小知識分享給大家,讓大家一起成長吧 !