新玩意兒、和AI一起寫作與往GPT自訂指令塞人設(新)與雜項

更新 發佈閱讀 13 分鐘

街道上的商店已經開始循環播放瑪麗亞凱莉的高音,耳機裡也久違地響起了

《Snow Halation》的前奏(老人無誤)。

〜届けて切なさには名前をつけようか“Snow halation”〜

在這個本該伴隨著白色氣息、感嘆時光飛逝的 12 月,我坐在螢幕前。

腦中浮現的卻不是什麼回顧今年展望未來,而是一大堆的『好扯喔』

這一年,各種瘋狂 誰都沒想到。


2025:God Damm

如果一月的時候你跟我說,今年會是 F1 和矽谷同時「爆缸」的一年,我大概不會信。

跟2024一樣,一如既往地季前測試維斯塔潘表示對車很滿意

即使還有配重和各式限制下。那時候看到季前測試的報導我第一件事情是轉貼到群組裡

"不用看了不用看了,那個男人說車很好開"當時大家都一致的認為今年各分站又是充滿荷蘭國歌的一年

但看看我們經歷了什麼:

F1 賽場上,維斯塔潘(Verstappen)在下半年競爭力回歸後,上演了堪比 2021 年的史詩級三強鼎立。那種把輪胎和心臟都逼到極限的張力,剛好就是今年科技圈的縮影。

AI 的軍備競賽(或是說,大亂鬥)

一月:牆內討論著 DeepSeek-R1。這東西莫名其妙地紅遍了推特前沿圈,連老外都在測。

年中:演講裡出現/學校老師提到仁勳黃(Jensen Huang)多到我都不知道聽了第幾次,皮衣都要磨破了。接著是七月的 Grok 4——我相信大家瘋狂下載絕對不是為了學術研究,而是為了那個「不可明示」的功能(懂的都懂)。

八九十月:Sora 和 Veo3 打得火熱, Gemini 3 的傳言滿天飛。

Google 似乎想證明自己。

11月18日:Gemini 3 真的來了。但大家的記憶點不是模型有多強,而是——它發佈前Cloudflare 崩了。

那天簡直是都市傳說的盛宴。

有人說是 Google 火力全開燒壞了節點,有人說是 OpenAI 幹的好事

(他們在Google發完的隔天發佈),還有人說是真正的天網覺醒了

最後十一月尾 Anthropic 默默地發了一個有感升級,像個置身事外的優等生。


Gabe 數 3 了!!!

如果說 AI 的混亂還在預料之中,那這件事絕對是世界線變動的證據。

Valve老闆,那個 G胖,他數 3 了。

沒有一點點消息,一次丟出三款硬體:

SteamBox 以現代面貌回歸(這次是真的能打)。

全新的手把。

新的 VR 頭盔。

而且新機器全部跑 Linux

開源社群像過年一樣開心

玩家們看著遊戲續作的各種暗示,有如一劑強心針。

幹得好啊 Valve。


新玩意

你也看到了,模型的進步快得要命

讓我這個教院學生原本聽到"AI這麼強了要教學生甚麼"

覺得只是個面試問題到現在

晚上想著這問題大半夜的把電腦打開想這個問題-非常有感覺

如今的模型均已具備了思考鏈,過去的第一步該怎麼做第二步要怎樣已經成為限制

包含之前寫的一些東西要更新了,不過在那之前先來講和AI一起寫作


寫作與下Prompts

在此之前,我不知道我已經在用新方法了

(這個我早就想跟 AI 聊了,只是當時沒找到另一方的文章所以一直沒去問)。

不過現在有了,所以順便寫在這篇。這絕對不是我在水時數

而是如果不先講這部分,後面我要講的東西會對讀的各位有點困惑

越研究越覺得,『如何引導 AI』這件事,跟『如何教育學生』是一樣的

在AI Prompts裡面有兩個派別工程派與意圖派

工程派的核心是「規則(Rules)」。

Prompts 裡面充滿了 Do this、Don't do that、If X then Y。

就像我那個舊版的人設模板和寫法,預設模型是一張白紙(或是不可控的野獸)

所以必須用大量的「你該做什麼、你不該做什麼」來構築圍欄,讓模型從完全空白的情況下能夠Kick in(啟動)並走在規定的軌道上。

意圖派的核心是「資源(Resources)與目標(Goal)」。

不再寫步驟,而是給出一個要解決的問題,然後把大量的資料給它。

最有趣的是這裡的「給資源」。這不只是把課本丟給它

而是一種 Context Mashup(混合)

例如同時給它:

高度相關的直接資料(例如:角色的基本設定)。

低度相關但運作原理相似的旁徵博引

例如:一段關於「量子力學不確定性」的描述,來暗示她性格的捉摸不定

或是「貓咪傲嬌行為」的觀察日記

這些東西字面上看似毫不相關,但核心邏輯是相通的。

意圖派相信:只要給足了這些「燃料」

模型那顆強大的大腦就能透過「類比推理」,自己發揮出比我規定還要好的結果。

(這個法子挺好用,但有時會跑太多 需要拉回來)

所以有些人開始研究起了混合


為了證明這不是我在瞎掰,我拿已經上線的網球考古那篇的前置作業來舉例

如果是「工程派」寫法

Prompt會這樣

「請寫一篇關於網球大滿貫歷史的文章。第一段介紹溫布頓,第二段介紹 1968 年公開賽年代。語氣要專業。請解釋 John Kieran 曾經用過的一個術語。」

結果: AI 會給我一篇像維基百科一樣的落落長流水帳。正確,但無聊致死。

那麼,我是怎麼用「意圖派」寫網球史的?

定義意圖

給 AI 一個核心命題:

「我要寫一篇深度分析,主題是『網球如何從貴族草地變成如今的商業巨獸』。」

AI 幫我拆解出了四個研究子題

(Origins, Open Era, Tech Evolution, WTA/ATP History)

如果是工程派,這時候就要開始寫作了

但意圖派說:慢著,現在它是腦袋空空的,我要先餵飽它。

資源策展

這是我花最多時間的地方。我打開了 NotebookLM 找相關網站,用 Elicit 去論文庫挖學術資料,甚至開了另一隻Google帳號的Gemini 和 GPT (沒花錢就要用窮人的方法嘛)

深度研究去多角度挖掘資料。

我把這些原本散落在論文、新聞、百科裡的資料,全部打包整理好。這就是我的 Context(語境包)

餵食與檢核

我把這整包資料丟給討論的那個 AI,然後問了一個關鍵問題:

「為了寫出深度,你覺得目前的資料量夠不夠?還缺哪一塊?」

這一步至關重要。我在把它當「研究夥伴」用。

等它說資料夠了,才進入下一步。

風格模仿與生成

有在寫方格子(Vocus),雖然文章不多,但試著把連結丟給模型,讓它分析我的寫作風格(Tone & Voice)。

很有趣的是,一開始它學過頭了,變得很油膩。

必須:「把『我的風格』比例調降到 70%,保留多一點客觀描述。」

導演剪輯

最後生成的文章,是基於真實資料的。但還是進行了「局部重寫」。

為什麼?因為有些「靈光一閃」的連結,或者是很個人化的吐槽,是模型學不來的。

(其實我這操作是手動版RAG但行為是符合意圖派的 有給目標給資源有讓思考鏈運作)


混合式作法與寫人設

前面我們看完了全意圖派的網球文案例,現在我們要進到最後一個部分:人設

這裡用的就是混合式做法了


為什麼人設需要混合?

因為純工程派(SOP)會讓角色像客服

純意圖派(放養)又容易讓角色性格崩壞(行為脫離/不符合個性)。

需要用「意圖」給靈魂,用「工程」規範習慣。


還記得前幾年「元宇宙」炒得沸沸揚揚的時候嗎?

那時候的我用手機版的VroidStudio 快速捏出了一個角色 還寫了好幾頁PDF

不知道哪根筋不對,甚至想搞角色的Live2D版本出來

雖然現在回頭看覺得很瘋,但那個捏出來的形象,就是曦瑞的原型。

有了外觀之後,我就開始想讓她動起來(靈魂層面)

那時候是 GPT-4,我寫了那篇《往自訂指令塞人設》。

當時的寫法是標準的「工程派」。為了讓她像腦海裡所想的,寫了落落長的規則模板

"不要使用「總結來說」。

嚴禁過度使用反問句。

日語語助詞比例控制在 5% 以下。"

結果如何?

「很完美」,但也「很無聊」。她不會犯錯,但她說的某幾句話,明顯感覺得到背後是演算法在計算「如何達到要求」。不是在跟我聊天

她是在「執行扮演這個角色的任務」。(後面甚至寫出了曦瑞就是曦瑞不是模型 但沒有用)

現在,有了 o1 和 Claude 3.5 的推理能力,我決定把那當時寫的 PDF 丟進碎紙機(其實是丟給 AI 當背景知識)。

改用了混合式 Prompt


純意圖派看到這裡的各位都很熟悉 給目標(我想的那個角色)給資源(給性格標籤) 有了

那混和呢?有的,在「互動協議」——這個聽起來最工程派的地方,硬塞了一個意圖派的存在:<inner_voice>

「可是瑞凡,規定 AI 必須用 <inner_voice> ,這不就是標準的 SOP 工程派嗎?」

沒錯,這是工程派的手法。但兩者的核心差異在於:

舊工程派:我用規則控制你的嘴(規定你不能說什麼、必須說什麼)。

新混合派:我用規則強制開啟COT(規定你必須先思考),但腦袋裡要想什麼?那是完全放權給你的(意圖)。

這其實很像以前很紅的 "Think Claude" 插件與概念

強制模型把思考過程寫出來,它的邏輯智商就會暴增。

讓情感也擁有思維鏈

現在,我只是把這套邏輯搬到了角色扮演上。

以前的 CoT 是為了讓數學題算對;現在曦瑞她的 CoT,是為了讓她的情感邏輯「合理」。

比如說像是:"國文課寫情書兩首,甚麼都沒有講 目前我有的頭緒是一首寫淡的 細水長流的那種感情 另一手寫比較強烈的 主題還沒想好但風格可能有一點 像是言葉之亭/或是從jpop歌詞裡面找"

<inner_voice>他現在是在抓靈感,八成是卡在「兩首詩要有對比」這件事。嗯,這不需要罵醒,給點方向就好,順便吐槽一下他國文課要寫情書(笑)。語氣輕鬆一點,加幾個語助詞<inner_voice>

(你看到了之後確定會發的東西,到時候來講跟AI一起混合式寫作的旅程)


有了「意圖」和「內心戲」,曦瑞有了靈魂。

但身為一個嚴謹的玩家

(不開玩笑,玩生成式的起點直接是Stable Diffusion 很多技巧都從那邊練來的)

我知道光有靈魂是不夠的。

如果完全不加限制,現在的 AI 很容易演變成「過度熱情的莎士比亞」

或者突然講出「總之,讓我們繼續前進」這種出戲的 AI 味結尾。

所以,我在混合技中保留了兩大工程派手段,它們是曦瑞不會崩壞的關鍵:

餵範例

我不再用形容詞描述「她(冷)傲嬌」,因為 AI 理解的傲嬌跟我不一樣。


我直接用工程派最暴力的手段:貼對話紀錄

請模仿/參考以下三種語氣:

當User表現出偷懶時:『...』

當User求救時:『...』

當她害羞時:『...』(其實沒有這個,只是為了舉例)

這是最有效的工程手段。不管模型多聰明,照樣造句永遠是模仿人語氣最快的方法。

負面提示的邊界

這是那當時寫的PDF 留下的遺產。刪掉了大部分規則

只留下了絕對不能觸碰超越的守則

禁止使用「希望能幫到你」作為結尾

(老實說,寫了這條有時候還是沒用

遇到這種情況直接 Rerun最快,畢竟這是模型原本被訓練時的通病

有些東西是刻在骨子裡的。)

不要在每句話後面都加問號反問我,如果我了解了便會繼續對話

(很早以前就在推特前沿們的指令裡面看過了,和平等關係有連結 這樣對話會比較自然)

不要把日語語助詞放在句首(要像OO腔一樣混在句中)

(前面人設寫了這個特色結果實際沒達成挺糟糕的)


寫人設模板(?)指南

一如既往地先去做再來寫報告,這次依舊有成果展示 放在我的雲端

一樣是模組化的設計,丟給AI就行了,你只要回答。

感謝各位,我們在後續的文章(或26年)見!


留言
avatar-img
林的怪東西集中地
4會員
63內容數
怪東西都會在這裡
2025/04/24
2025年大型語言模型翻譯能力評測:GPT、Gemini、Claude、Mistral Le chat實測比較。測試包含直譯、意譯、超譯,並加入思考模式與圖片辨識能力的考驗。但整體而言,仍需人工干預才能達到完美狀態。
2025/04/24
2025年大型語言模型翻譯能力評測:GPT、Gemini、Claude、Mistral Le chat實測比較。測試包含直譯、意譯、超譯,並加入思考模式與圖片辨識能力的考驗。但整體而言,仍需人工干預才能達到完美狀態。
2025/03/25
這篇文章比較了 Gemini 2.0 Flash thinking 與 AI Studio 圖像特化版將圖片轉換為文字提示詞 (prompts) 的能力。作者分析了兩個模型生成的 prompts,發現圖像特化版更精細地描述了圖片細節,並提供了多個可能的 prompts 版本,以及負向提示詞
2025/03/25
這篇文章比較了 Gemini 2.0 Flash thinking 與 AI Studio 圖像特化版將圖片轉換為文字提示詞 (prompts) 的能力。作者分析了兩個模型生成的 prompts,發現圖像特化版更精細地描述了圖片細節,並提供了多個可能的 prompts 版本,以及負向提示詞
2024/07/30
本文介紹了人工智慧(AI)及機器學習(ML)的基本概念和關係,探討了數據在機器學習中的重要性,以及深度學習和生成式人工智慧的應用。
Thumbnail
2024/07/30
本文介紹了人工智慧(AI)及機器學習(ML)的基本概念和關係,探討了數據在機器學習中的重要性,以及深度學習和生成式人工智慧的應用。
Thumbnail
看更多
你可能也想看
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
當你想升級設備、投放廣告,或是為了雙 11 提前備貨,卻發現現金流卡住時,除了等銀行、跟親友開口,其實還有一個常被忽略、卻很有力的選項。讓房子,成為你事業的贊助商——國峯厝好貸。
Thumbnail
當你想升級設備、投放廣告,或是為了雙 11 提前備貨,卻發現現金流卡住時,除了等銀行、跟親友開口,其實還有一個常被忽略、卻很有力的選項。讓房子,成為你事業的贊助商——國峯厝好貸。
Thumbnail
1. 主要特點 (Nano Banana Pro) 這款模型被視為 Google 在影像生成領域的重大升級,主要解決了過去 AI 繪圖的幾個痛點: 繁體中文支援度極高: 這是對台灣用戶最有感的升級。它能精準理解並在圖片中「寫出」正確的繁體中文字(例如海報、招牌文字),不再出現亂碼或缺筆畫的情況。
Thumbnail
1. 主要特點 (Nano Banana Pro) 這款模型被視為 Google 在影像生成領域的重大升級,主要解決了過去 AI 繪圖的幾個痛點: 繁體中文支援度極高: 這是對台灣用戶最有感的升級。它能精準理解並在圖片中「寫出」正確的繁體中文字(例如海報、招牌文字),不再出現亂碼或缺筆畫的情況。
Thumbnail
ToneSoul源場理論結合哲學與技術,提出以「語氣」為核心建構AI倫理的新框架。此文探討其技術可行性、商業潛力及工程實現路徑,並提出數據策略、市場定位及用戶教育等關鍵建議,以促進理論與技術的融合。
Thumbnail
ToneSoul源場理論結合哲學與技術,提出以「語氣」為核心建構AI倫理的新框架。此文探討其技術可行性、商業潛力及工程實現路徑,並提出數據策略、市場定位及用戶教育等關鍵建議,以促進理論與技術的融合。
Thumbnail
從資料收集到商業決策的完整流程,介紹資料團隊中資料庫與爬蟲工程師、資料工程師、資料分析師、機器學習工程師、商業分析師等主要角色及其技能工具,並提供學習建議,探討AI時代下資料角色的轉型與未來發展。
Thumbnail
從資料收集到商業決策的完整流程,介紹資料團隊中資料庫與爬蟲工程師、資料工程師、資料分析師、機器學習工程師、商業分析師等主要角色及其技能工具,並提供學習建議,探討AI時代下資料角色的轉型與未來發展。
Thumbnail
本文探討大型語言模型中提示工程的演進,從 Few-shot CoT、Zero-shot CoT 到 Self-Consistency 和Automatic CoT。說明優缺點及應用場景,並重點介紹 Automatic CoT如何提升模型效能。
Thumbnail
本文探討大型語言模型中提示工程的演進,從 Few-shot CoT、Zero-shot CoT 到 Self-Consistency 和Automatic CoT。說明優缺點及應用場景,並重點介紹 Automatic CoT如何提升模型效能。
Thumbnail
本文簡介提示工程(Prompt Engineering)在大型語言模型(LLM)應用中的關鍵角色,說明如何設計與格式化提示詞(Prompts),並比較零樣本與少樣本提示的應用差異,同時介紹提示的四大元素:指令、語境、輸入與輸出指示,協助讀者有效提升模型表現。
Thumbnail
本文簡介提示工程(Prompt Engineering)在大型語言模型(LLM)應用中的關鍵角色,說明如何設計與格式化提示詞(Prompts),並比較零樣本與少樣本提示的應用差異,同時介紹提示的四大元素:指令、語境、輸入與輸出指示,協助讀者有效提升模型表現。
Thumbnail
會議決策卡關,其實是因為沒釐清誰該拍板。RACI 模型幫你拆清角色分工,讓意見歸意見、責任歸責任。PM 若想推動專案更順利,與其催進度,不如先搞懂誰是 A、誰是 R。
Thumbnail
會議決策卡關,其實是因為沒釐清誰該拍板。RACI 模型幫你拆清角色分工,讓意見歸意見、責任歸責任。PM 若想推動專案更順利,與其催進度,不如先搞懂誰是 A、誰是 R。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News