補記:3種讓人哭笑不得的GPT用法!【2023/3~4】

補記:3種讓人哭笑不得的GPT用法!【2023/3~4】

更新於 發佈於 閱讀時間約 7 分鐘

既然 SEO 文章都建議這種編排格式,這次來友善一下 Google 的爬蟲

但給讀者看到什麼鬼東西就算了


本文記載的是 2023 年 3~4 月期間,由於當時沒怎麼鑽研提問邏輯,隨意向語言模型問過的其中三個蠢問題。實在有夠廢以至於單獨列出來,寫文紀念但不拉低整個 AI 越快這裡則慢系列文章的格調。




第3名:說個冷笑話,並解釋笑點

俗話說得好:解釋笑話就像解剖青蛙,你將弄清楚它的內容,然後它就死掉了。

冷笑話本來就是沒拿捏好會冷場的慎用聊天題材,在 2023 年春命令沒那麼懂人類社交邏輯的 AI 講,還要 AI 自己解釋笑點,這樣只要一句提問,就能一口氣將笑話殺死三遍,讓人愉悅啊 ChatGPT~


雖然大語言模型是將文字轉換為數字向量,依據其空間中特徵來辨識敘述含義,gpt 不需要將我們輸入的中文提問先翻譯成英文才能理解,卻不代表不同語言間沒有差異性。

重點在於美國科學家開發 gpt 系列獲取英語系資料較容易,導致當時 ChatGPT 英文回應相較其他語言回應,具備較優異的表現。但當我用中文要求 ChatGPT 提供冷笑話範例,將產生幾個不確定因素:

  1. 對中文特性捕捉不足:GPT-3.5 及之前版本對於中文的語音特徵處理相對較弱,尤其是涉及到更細緻的語言現象(如諧音、雙關語)。
  2. 模型訓練語料與偏好:訓練語料中的語言分佈和網路用戶使用頻率影響下,導致模型更熟悉英文諧音現象,使其回答時更傾向選擇自己「更有把握」的語言特性。
  3. 語言現象的不同特徵:英文冷笑話更多地依賴於雙關語或同音近義,中文諧音則更依賴於同音或近音字。在前兩項因素擴大語言本身的差異影響下,當 ChatGPT 以英文的慣性回應你的中文冷笑話提案......


AI 解釋完人類不會比較懂這個冷笑話笑點在哪,笑話不明不白地死了三次,人類還沒弄清楚它的內容......




第2名:幫芥見下下想渋谷事件怎麼破局

日本漫畫家芥見下下在 JUMP 週刊連載的漫畫作品咒術迴戰,作品中反派為了封印正派最強角色五條悟,機關算盡在萬聖夜渋谷車站周圍設下圈套,正反方交鋒引發故事中途高潮。

於是我一時無聊,簡單記述了渋谷事件反派圈套設計、封印方式、最後五條被封印的結果,讓 ChatGPT 續寫正方如何應對、這段大戰如何結尾。

AI 生成結果千篇一律,五條既然最強,必定能無視我輸入的設定自行突破封印,略過戰鬥過程直接戰勝眾反派與咒靈,“總的來說”,ChatGPT 喜歡畫蛇添足最後多寫一段大家決定同心協力、合作讓世界變得更美好,充滿積極正向的論說文賞析結論。


倘若我讓 AI 輔助創作,這種廢到笑的產出可能讓我勃然大怒,因為現實可以沒有邏輯,創作鋪陳總該有邏輯,這導致我挺重視起承轉合的「轉」,如何寫得情理之中、意料之外,賦予讀者恍然大悟的新奇體驗,是繼開頭與結局後我第三個思考的重點。

而 ChatGPT 的產出在我能簡單處理的部分著墨太多,卻把該斟酌的重點直接略過,我還得修剪它生成的敘述、補足它省略的劇情,那我為啥不直接自己寫?當時 AI 寫的東西頂多能當大綱,略掉戰鬥過程直接寫戰鬥結果,我認為戰鬥題材連載漫畫是不可能採用這種,無法填充頁數的編排的。



直到我看了咒術迴戰 236。



第1名:我教 AI 「網路知識」

不是 ChatGPT,是現在改名為 Copilot 的 Bing Chat。在 2023 年 4 月網頁版還有每日對話數量限制的當時,浪費次數跟它講這些,簡直廢到無以復加。

raw-image


連AI自己都看不下去了,呵呵。

raw-image


實際上直到 2023 年 4 月,GPT-4 問世的當下,網上依舊討論著大語言模型究竟是否具有智慧,當時人們提出好幾項驗證它們解題思路的問題,例如經典的渡河問題──


人、狼、羊、白菜要從河的此岸藉由一艘船渡河至另一岸,其中只有人會劃船,每次人只能帶一件東西搭船渡河, 且狼和羊、羊和白菜不能在無人監視的情況下放在一起。 在這些條件下,在最小渡河次數下如何才能讓大家都渡河至另一河岸?


AI 或許學過了這項經典題型,因此研究者發現簡單更動題幹敘述 : 人 需要將所有東西送過河、搭船能帶 超過 一件東西......大語言模型們依舊按照原始題目的邏輯去分析。

對真實世界而言,增減一兩個字會造成整體邏輯上的顛覆,但對解讀人類輸入敘述進行分析的 AI 來說,這一點差異比例遠遠低於敘述整體,而 AI,是靠當前整體來推斷接下來出現機率最高的文字。因此人們詢問渡河問題的「變題」時,大語言模型們按照原典的「慣例」生成回應了。


換句話說,當時 AI 厲害的原因在於,開發者們餵養了遠超個人能吸收的大量專業資料來學習,如果今天 AI 被我餵了「XD」意指「.xlse delete」這概念,它有辦法提前辨認出謬誤而避免學習嗎? 別忘了人工智慧所學習的資料,都是人類選擇後提供的 !






最令人哭笑不得的是......


將 AI 有限的記憶容量與學習資料,視為無限。

將被動接納人篩選餵食資料的 AI ,視為萬能。


然而 2023 年春天,人們還在琢磨如何與大語言模型互動,此時產出的文稿依然看得出 GPT 生成的蛛絲馬跡。誠如人類也是透過學習積累經驗,在現有知識中發現新的突破,生成式 AI 也正慢慢嘗試著融入工作與生活。倘若模型越來越強,要保持對人工智慧的距離感與質疑也越來越難,因為錯誤率降低,意味著人類越來越難透過檢查發現錯誤......


......但那是 2024 年後才有更多事例可以談的主題了。






恭喜你又學到了 3 件,因為 AI 對話模型迭代以及提問方式精進,在今天基本上很難重現的 GPT 提問小訣竅 ! 把這些小知識分享給大家,讓大家一起成長吧 !

avatar-img
Bsh的沙龍
3會員
48內容數
記錄我在 2022 年 9 月之後使用 AI 生成圖像的嘗試。 這個主題總有一天會沒東西好寫,那就走一步算一步吧...…
留言
avatar-img
留言分享你的想法!
Bsh的沙龍 的其他內容
既然 BiliBili 上分享的 LoRA 號稱可一鍵生成漫畫,我決定只寫 prompt 來引導 AI 生成漫畫頁,直到足以拼湊一段劇情為止,再來計算總共生成多少張、又從中採用多少張。
或許舊作品消滅與 AI 生成風潮,只是證實內心對圖像價值的質疑。諷刺的是,我竟因為懶得開 SD 、漫無目的上網而看到新的可能性。
測過 ChatGPT 寫提示的效果,我再無懸念,自己目前的流程問題開張 Google sheet 便能解決,用不著 AI。
既然 BiliBili 上分享的 LoRA 號稱可一鍵生成漫畫,我決定只寫 prompt 來引導 AI 生成漫畫頁,直到足以拼湊一段劇情為止,再來計算總共生成多少張、又從中採用多少張。
或許舊作品消滅與 AI 生成風潮,只是證實內心對圖像價值的質疑。諷刺的是,我竟因為懶得開 SD 、漫無目的上網而看到新的可能性。
測過 ChatGPT 寫提示的效果,我再無懸念,自己目前的流程問題開張 Google sheet 便能解決,用不著 AI。
本篇參與的主題活動
總分:8/10 感想:雖然不至於生死看淡、不服就幹,但這麼生死豁達的主角挺少見的。只是兩面宿儺(惡)比虎杖悠仁(善)還要更帥更吸引人這件事,本貓會亂說嗎!
《咒術迴戰》是現在當紅的日本動漫,在這個世界觀中,負面情緒是一種力量–咒力,而負面情緒的累積會實體化形成咒靈,可以實質的攻擊真人,累積得越多咒靈就會越強,咒術師則是一群能妥善蓄積、利用負面情緒的人,將其作為發動術式、攻擊咒靈的力量。現在就讓我們一起以哲學角度分析這部動漫吧!
由於Cirou並沒有看過漫畫,所以此篇會以動畫黨的角度切入描述 註:以下為個人觀感 第二話《為了自己》 在咒術法則中,面對詛咒必須祓除
總分:8/10 感想:雖然不至於生死看淡、不服就幹,但這麼生死豁達的主角挺少見的。只是兩面宿儺(惡)比虎杖悠仁(善)還要更帥更吸引人這件事,本貓會亂說嗎!
《咒術迴戰》是現在當紅的日本動漫,在這個世界觀中,負面情緒是一種力量–咒力,而負面情緒的累積會實體化形成咒靈,可以實質的攻擊真人,累積得越多咒靈就會越強,咒術師則是一群能妥善蓄積、利用負面情緒的人,將其作為發動術式、攻擊咒靈的力量。現在就讓我們一起以哲學角度分析這部動漫吧!
由於Cirou並沒有看過漫畫,所以此篇會以動畫黨的角度切入描述 註:以下為個人觀感 第二話《為了自己》 在咒術法則中,面對詛咒必須祓除