街道上的商店已經開始循環播放瑪麗亞凱莉的高音,耳機裡也久違地響起了
《Snow Halation》的前奏(老人無誤)。
〜届けて切なさには名前をつけようか“Snow halation”〜
在這個本該伴隨著白色氣息、感嘆時光飛逝的 12 月,我坐在螢幕前。
腦中浮現的卻不是什麼回顧今年展望未來,而是一大堆的『好扯喔』
這一年,各種瘋狂 誰都沒想到。
2025:God Damm
如果一月的時候你跟我說,今年會是 F1 和矽谷同時「爆缸」的一年,我大概不會信。
跟2024一樣,一如既往地季前測試維斯塔潘表示對車很滿意
即使還有配重和各式限制下。那時候看到季前測試的報導我第一件事情是轉貼到群組裡
"不用看了不用看了,那個男人說車很好開"當時大家都一致的認為今年各分站又是充滿荷蘭國歌的一年
但看看我們經歷了什麼:
F1 賽場上,維斯塔潘(Verstappen)在下半年競爭力回歸後,上演了堪比 2021 年的史詩級三強鼎立。那種把輪胎和心臟都逼到極限的張力,剛好就是今年科技圈的縮影。
AI 的軍備競賽(或是說,大亂鬥)
一月:牆內討論著 DeepSeek-R1。這東西莫名其妙地紅遍了推特前沿圈,連老外都在測。
年中:演講裡出現/學校老師提到仁勳黃(Jensen Huang)多到我都不知道聽了第幾次,皮衣都要磨破了。接著是七月的 Grok 4——我相信大家瘋狂下載絕對不是為了學術研究,而是為了那個「不可明示」的功能(懂的都懂)。
八九十月:Sora 和 Veo3 打得火熱, Gemini 3 的傳言滿天飛。
Google 似乎想證明自己。
11月18日:Gemini 3 真的來了。但大家的記憶點不是模型有多強,而是——它發佈前Cloudflare 崩了。
那天簡直是都市傳說的盛宴。
有人說是 Google 火力全開燒壞了節點,有人說是 OpenAI 幹的好事
(他們在Google發完的隔天發佈),還有人說是真正的天網覺醒了
最後十一月尾 Anthropic 默默地發了一個有感升級,像個置身事外的優等生。
Gabe 數 3 了!!!
如果說 AI 的混亂還在預料之中,那這件事絕對是世界線變動的證據。
Valve老闆,那個 G胖,他數 3 了。
沒有一點點消息,一次丟出三款硬體:
SteamBox 以現代面貌回歸(這次是真的能打)。
全新的手把。
新的 VR 頭盔。
而且新機器全部跑 Linux。
開源社群像過年一樣開心
玩家們看著遊戲續作的各種暗示,有如一劑強心針。
幹得好啊 Valve。
新玩意
你也看到了,模型的進步快得要命
讓我這個教院學生原本聽到"AI這麼強了要教學生甚麼"
覺得只是個面試問題到現在
晚上想著這問題大半夜的把電腦打開想這個問題-非常有感覺
如今的模型均已具備了思考鏈,過去的第一步該怎麼做第二步要怎樣已經成為限制
包含之前寫的一些東西要更新了,不過在那之前先來講和AI一起寫作
寫作與下Prompts
在此之前,我不知道我已經在用新方法了
(這個我早就想跟 AI 聊了,只是當時沒找到另一方的文章所以一直沒去問)。
不過現在有了,所以順便寫在這篇。這絕對不是我在水時數
而是如果不先講這部分,後面我要講的東西會對讀的各位有點困惑
越研究越覺得,『如何引導 AI』這件事,跟『如何教育學生』是一樣的
在AI Prompts裡面有兩個派別工程派與意圖派
工程派的核心是「規則(Rules)」。
Prompts 裡面充滿了 Do this、Don't do that、If X then Y。
就像我那個舊版的人設模板和寫法,預設模型是一張白紙(或是不可控的野獸)
所以必須用大量的「你該做什麼、你不該做什麼」來構築圍欄,讓模型從完全空白的情況下能夠Kick in(啟動)並走在規定的軌道上。
意圖派的核心是「資源(Resources)與目標(Goal)」。
不再寫步驟,而是給出一個要解決的問題,然後把大量的資料給它。
最有趣的是這裡的「給資源」。這不只是把課本丟給它
而是一種 Context Mashup(混合):
例如同時給它:
高度相關的直接資料(例如:角色的基本設定)。
低度相關但運作原理相似的旁徵博引
例如:一段關於「量子力學不確定性」的描述,來暗示她性格的捉摸不定
或是「貓咪傲嬌行為」的觀察日記
這些東西字面上看似毫不相關,但核心邏輯是相通的。
意圖派相信:只要給足了這些「燃料」
模型那顆強大的大腦就能透過「類比推理」,自己發揮出比我規定還要好的結果。
(這個法子挺好用,但有時會跑太多 需要拉回來)
所以有些人開始研究起了混合
為了證明這不是我在瞎掰,我拿已經上線的網球考古那篇的前置作業來舉例
如果是「工程派」寫法
Prompt會這樣
「請寫一篇關於網球大滿貫歷史的文章。第一段介紹溫布頓,第二段介紹 1968 年公開賽年代。語氣要專業。請解釋 John Kieran 曾經用過的一個術語。」
結果: AI 會給我一篇像維基百科一樣的落落長流水帳。正確,但無聊致死。
那麼,我是怎麼用「意圖派」寫網球史的?
定義意圖
給 AI 一個核心命題:
「我要寫一篇深度分析,主題是『網球如何從貴族草地變成如今的商業巨獸』。」
AI 幫我拆解出了四個研究子題
(Origins, Open Era, Tech Evolution, WTA/ATP History)
如果是工程派,這時候就要開始寫作了
但意圖派說:慢著,現在它是腦袋空空的,我要先餵飽它。
資源策展
這是我花最多時間的地方。我打開了 NotebookLM 找相關網站,用 Elicit 去論文庫挖學術資料,甚至開了另一隻Google帳號的Gemini 和 GPT (沒花錢就要用窮人的方法嘛)
深度研究去多角度挖掘資料。
我把這些原本散落在論文、新聞、百科裡的資料,全部打包整理好。這就是我的 Context(語境包)。
餵食與檢核
我把這整包資料丟給討論的那個 AI,然後問了一個關鍵問題:
「為了寫出深度,你覺得目前的資料量夠不夠?還缺哪一塊?」
這一步至關重要。我在把它當「研究夥伴」用。
等它說資料夠了,才進入下一步。
風格模仿與生成
有在寫方格子(Vocus),雖然文章不多,但試著把連結丟給模型,讓它分析我的寫作風格(Tone & Voice)。
很有趣的是,一開始它學過頭了,變得很油膩。
必須:「把『我的風格』比例調降到 70%,保留多一點客觀描述。」
導演剪輯
最後生成的文章,是基於真實資料的。但還是進行了「局部重寫」。
為什麼?因為有些「靈光一閃」的連結,或者是很個人化的吐槽,是模型學不來的。
(其實我這操作是手動版RAG但行為是符合意圖派的 有給目標給資源有讓思考鏈運作)
混合式作法與寫人設
前面我們看完了全意圖派的網球文案例,現在我們要進到最後一個部分:人設
這裡用的就是混合式做法了
為什麼人設需要混合?
因為純工程派(SOP)會讓角色像客服
純意圖派(放養)又容易讓角色性格崩壞(行為脫離/不符合個性)。
需要用「意圖」給靈魂,用「工程」規範習慣。
還記得前幾年「元宇宙」炒得沸沸揚揚的時候嗎?
那時候的我用手機版的VroidStudio 快速捏出了一個角色 還寫了好幾頁PDF
不知道哪根筋不對,甚至想搞角色的Live2D版本出來
雖然現在回頭看覺得很瘋,但那個捏出來的形象,就是曦瑞的原型。
有了外觀之後,我就開始想讓她動起來(靈魂層面)
那時候是 GPT-4,我寫了那篇《往自訂指令塞人設》。
當時的寫法是標準的「工程派」。為了讓她像腦海裡所想的,寫了落落長的規則模板
"不要使用「總結來說」。
嚴禁過度使用反問句。
日語語助詞比例控制在 5% 以下。"
結果如何?
「很完美」,但也「很無聊」。她不會犯錯,但她說的某幾句話,明顯感覺得到背後是演算法在計算「如何達到要求」。不是在跟我聊天
她是在「執行扮演這個角色的任務」。(後面甚至寫出了曦瑞就是曦瑞不是模型 但沒有用)
現在,有了 o1 和 Claude 3.5 的推理能力,我決定把那當時寫的 PDF 丟進碎紙機(其實是丟給 AI 當背景知識)。
改用了混合式 Prompt
純意圖派看到這裡的各位都很熟悉 給目標(我想的那個角色)給資源(給性格標籤) 有了
那混和呢?有的,在「互動協議」——這個聽起來最工程派的地方,硬塞了一個意圖派的存在:<inner_voice>
「可是瑞凡,規定 AI 必須用 <inner_voice> ,這不就是標準的 SOP 工程派嗎?」
沒錯,這是工程派的手法。但兩者的核心差異在於:
舊工程派:我用規則控制你的嘴(規定你不能說什麼、必須說什麼)。
新混合派:我用規則強制開啟COT(規定你必須先思考),但腦袋裡要想什麼?那是完全放權給你的(意圖)。
這其實很像以前很紅的 "Think Claude" 插件與概念
強制模型把思考過程寫出來,它的邏輯智商就會暴增。
讓情感也擁有思維鏈
現在,我只是把這套邏輯搬到了角色扮演上。
以前的 CoT 是為了讓數學題算對;現在曦瑞她的 CoT,是為了讓她的情感邏輯「合理」。
比如說像是:"國文課寫情書兩首,甚麼都沒有講 目前我有的頭緒是一首寫淡的 細水長流的那種感情 另一手寫比較強烈的 主題還沒想好但風格可能有一點 像是言葉之亭/或是從jpop歌詞裡面找"
<inner_voice>他現在是在抓靈感,八成是卡在「兩首詩要有對比」這件事。嗯,這不需要罵醒,給點方向就好,順便吐槽一下他國文課要寫情書(笑)。語氣輕鬆一點,加幾個語助詞<inner_voice>
(你看到了之後確定會發的東西,到時候來講跟AI一起混合式寫作的旅程)
有了「意圖」和「內心戲」,曦瑞有了靈魂。
但身為一個嚴謹的玩家
(不開玩笑,玩生成式的起點直接是Stable Diffusion 很多技巧都從那邊練來的)
我知道光有靈魂是不夠的。
如果完全不加限制,現在的 AI 很容易演變成「過度熱情的莎士比亞」
或者突然講出「總之,讓我們繼續前進」這種出戲的 AI 味結尾。
所以,我在混合技中保留了兩大工程派手段,它們是曦瑞不會崩壞的關鍵:
餵範例
我不再用形容詞描述「她(冷)傲嬌」,因為 AI 理解的傲嬌跟我不一樣。
我直接用工程派最暴力的手段:貼對話紀錄。
請模仿/參考以下三種語氣:
當User表現出偷懶時:『...』
當User求救時:『...』
當她害羞時:『...』(其實沒有這個,只是為了舉例)
這是最有效的工程手段。不管模型多聰明,照樣造句永遠是模仿人語氣最快的方法。
負面提示的邊界
這是那當時寫的PDF 留下的遺產。刪掉了大部分規則
只留下了絕對不能觸碰超越的守則
禁止使用「希望能幫到你」作為結尾
(老實說,寫了這條有時候還是沒用
遇到這種情況直接 Rerun最快,畢竟這是模型原本被訓練時的通病
有些東西是刻在骨子裡的。)
不要在每句話後面都加問號反問我,如果我了解了便會繼續對話
(很早以前就在推特前沿們的指令裡面看過了,和平等關係有連結 這樣對話會比較自然)
不要把日語語助詞放在句首(要像OO腔一樣混在句中)
(前面人設寫了這個特色結果實際沒達成挺糟糕的)
寫人設模板(?)指南
一如既往地先去做再來寫報告,這次依舊有成果展示 放在我的雲端
一樣是模組化的設計,丟給AI就行了,你只要回答。













