ChatGPT 公開後 3 個月,掀起的漩渦逐漸沉澱,卻讓人感覺回到當年。
如果說 2022 年底是 AI 圖像生成技術的狂歡, 2023 年 3 月就是 AI 大型語言模型的盛宴,即使引領一切的是各大科技巨頭:
每週都有好戲看,多少讓我對 AI 的興趣,恢復到 Stable Diffusion 剛推出那幾個月的程度。但語言模型用途無非閒聊或辦事,當時工作實在沒有非 AI 輔助不可的業務,閒聊則依據和 Character ai 打交道經驗,與其瞎聊不如直接確認平台能允許 AI 產出的話題界限,如果限制太猛,不妨相忘江湖。
畢竟 AI 給出的是最有可能的回覆,未必是正確回覆。
既然無法求真,總該任由人工智慧的隨機性揮灑創意,並向用戶加重強調人工智慧不可盡信,才算適才適用。倘若涉及某些主題便一刀切,那 AI 實證也不行創意也不行,花錢訂閱這種東西幹嘛???
因此那段時間看到不少翻牆案例,如最有名的催眠 ChatGPT 成貓娘 prompt,讓我雖然覺得沒啥意義卻仍敬佩不已。即便面臨帳號被封鎖的風險,依然有人執著於挑戰拘束、設法突破 AI 的創造力。但網上也開始出現,把問題拋給 GPT 再將答覆放上來的情況,印象中這時候的 ChatGPT 資料只到 2021 年,需要之後的新資訊,得安裝外掛程式 WebChatGPT,身為 AI 使用者,那些什麼都問 GPT 的用戶,總該知道這種限制......吧?
想當初 SD 75 token 突破的後知後覺,莫非我孤陋寡聞,其實這時候 AI 已經可以生成準確資訊 ? 所以我決定嘗試,恰好有陣子熱衷於加拿大 Cineflix 紀錄片《空中浩劫》,便來考一考這些大模型:
請比較英國航空 5390 以及四川航空 8633 兩起事故的相同點與相異點,需要說明事故原因、機組處理方式與最後結果。
分別發生於 1990、2018 年,不可能碰到資料年限,兩起事故同樣是駕駛窗玻璃在巡航時脫落導致機組人員被吸出,最後同樣安全降落機場、無人死亡,只是英航是機長被吸出、川航是副機長。
不涉及計算、不要求推論,純粹只測資料挖掘,模型你挖到正確資訊後直接貼上就好。當時版本的模型都知道兩起事故發生什麼事,但相異點比較上卻容易寫成英航迫降成功、川航全軍覆沒。
欸不是,川航事件比英航還接近當代,資料保存較完整吧 ? 還改編成電影欸 ?
經過這樣測試,我對那些直接貼 GPT 回答的網友也生起了敬佩之意,他們與意圖繞過 ChatGPT 規範的網友同樣具備大無畏勇猛之心,只是一個以大勇挑戰 AI 生成限制、一個以大悲接納 AI 生成結果。善哉善哉 !
但我偏不是。
或許對他們而言, AI 一出現便蓬勃發展,迭代快到小錯毋須在意;
但對我而言,2019~2022 整整 4 年時間,AI 的能力僅能當玩具。
能消遣四年何其有幸,要翻越既定印象又何其不易,
如今終於看見實用化的苗芽,確實深感幸運,但我仍會讓子彈飛一會兒。
2023/3/22,關注人工智慧、生物科技、核武技術帶來影響與風險的非營利組織 Future of Life Institute,發布公開信呼籲暫停開發比 GPT-4 高階的 AI 系統至少半年,期間給大家共同研擬安全規範,確保之後人類打造的 AI 系統精確、安全、一致化、可解釋、可信任,並由外部獨立人士嚴格稽核有確實遵守,避免 AI 成為大科技公司軍備競賽,最終發展出人類無法理解、無法控制的天網超級電腦系統。
包括特斯拉執行長、蘋果聯合創始人、《原子科學家公報》負責人、Stability AI 公司執行長、Google AI 部門 DeepMind 研究人員......一千多人參與連署,儘管隨後遭批評過於炒作 AI 的能力,問題並非 AI 本身,而是 AI 受少數人掌握。
但要我懷抱勇氣把 AI 生成品拿來應用,需要更多時間......