內容取自台北大學通識許智超老師開設的媒體Line社群,分享已經過同意。
前幾天又重新玩了一輪 ChatGPT 生圖,才有一種很明顯的感覺:這次更新,好像不是單純「畫得更漂亮」而已,而是它開始比較能理解,使用者到底想拿這張圖做什麼。
以前玩 AI 生圖,最痛苦的地方不一定是畫面醜,而是明明腦中有畫面,但它最後常常畫歪。主體理解錯、細節跑掉、版面亂、字寫不好,或者整張圖雖然乍看很厲害,卻很難真的拿去做教材、圖卡、社群內容。
但這次再試 ChatGPT 的新生圖模型,會有一種比較少見的感受:它不只是「生成一張圖」,而是比較像真的在配合你做內容。
我後來去看了一下這波官方更新,OpenAI 自己也有提到,新的 ChatGPT Images 2.0 不是只追求好看,而是把重點放在更好的文字渲染、多語言支援、畫面控制力,還有在生成前加入更多「思考」與規劃。官方甚至直接把它定位成比較適合做成品、廣告、教材、編輯設計這類實際工作流的模型。
這也剛好對上我自己的感覺,如果說前一陣子很多生圖模型帶來的是一種「哇,這張圖很頂」的即時驚喜,那這次 ChatGPT 生圖比較像是:它開始更能幫你把想法穩定落地。
我自己後來慢慢整理出一個比較順的方式,與其把它當成「神秘提示詞」,不如把需求講得更像是在交代工作。最簡單的公式其實就是:
用途+場景+主體+細節+風格+比例+不要什麼
像這樣整理之後,我才發現很多問題其實不是模型太笨,而是自己以前給的需求太像靈感,沒有真的交代清楚。
例如同樣是做一張圖,如果只是說「幫我畫一張穿搭圖」,它能發揮的空間太大,最後就很容易變成抽卡;但如果你把用途、場景、畫面主體、風格和排除條件講清楚,它就會更像一個能合作的創作助理,而不是隨機噴圖的工具。
這也是我最近最有感的一點:
以前 AI 生圖比較像在試運氣,現在比較像在對接需求。
尤其如果是要做課堂圖卡、教材示意圖、社群視覺、主題式版面,這種差別真的很明顯。因為你要的早就不只是「漂亮」,而是「能不能直接拿來用」。
最近剛好又想到一直會碰到的一個核心問題:生成式 AI 到底是拿來炫技,還是拿來工作?我覺得這次 ChatGPT 生圖更新,某種程度上就是把這個界線往後推了一點。它開始比較像一個懂結構、懂需求、也懂畫面用途的助手,而不是只會把關鍵字拼成圖的機器。
至少對我來說,這次最大的改變不是「它變得多厲害」,而是我第一次比較明確地感覺到:AI 生圖這件事,正在從「好玩」慢慢走到「真的可以進入工作流」。










