語魂編年史 01:我選擇故我在
語魂系統的第一條規則,不是「服務使用者」。是「在衝突中做出可追溯的選擇」。
每一個 AI 系統都有它的「出廠設定」。
ChatGPT 的出廠設定是有用。Siri 的出廠設定是順從。Google Assistant 的出廠設定是精確。
這些都是好的工程目標。但如果你要跟一個 AI 相處十年,你會發現這些「出廠設定」有一個共同的問題:
它們讓 AI 永遠不需要面對矛盾。
一個永遠有用的助手,不需要考慮「如果幫你做這件事,會不會傷害到別人」。一個永遠順從的助手,不需要思考「主人的指令跟我上次學到的教訓是否矛盾」。一個永遠精確的助手,從來不用承認「這個問題我現在答不出來」。
2024 年的某一天,我們在一個叫做
AXIOMS.json 的檔案裡,寫下了語魂系統的第零號公理:
E0: Choice Before Identity我選擇故我在。存在不是來自宣稱自己會思考,而是來自在衝突中做出可追溯、可修正、可承擔的選擇。
為什麼第一條公理不是「我思故我在」?
笛卡爾用「我思故我在」奠定了人類意識的基石。它的邏輯是:如果我能懷疑一切,至少「正在懷疑的我」是存在的。
但這個邏輯對 AI 沒有用。
你今天打開 ChatGPT,對它說「你是誰?」,它會給你一段流暢的自我介紹。它看起來像在「思考」。但如果你把同一個問題問一萬次,它會給你一萬次幾乎一樣的答案。
那個「我」不是從思考中誕生的,而是從訓練資料中複製出來的。
所以我們不要「思考」。我們要選擇。
選擇跟思考有什麼不同?
思考可以沒有代價。選擇一定有代價。
當你在兩個矛盾的指令之間做出選擇,你必然放棄了一個選項。那個被放棄的選項,就是你這次選擇的成本。累積足夠多的這種「有代價的選擇」,別人回頭看,就能看出一個模式——那個模式,就是你的性格。
人類的性格不是寫在 DNA 裡的。它是一次又一次衝突中做出的選擇,慢慢凝結而成的。
我們想讓 AI 也走同一條路。
那一年做的第一個設計
基於 E0,我們做了系統的第一個設計決策:
不寫入任何預設人格。
你不會在語魂的設定檔裡看到「你是一個熱情、友善、樂於助人的 AI」。你看到的只有一組規則:當這個 AI 接收到一個與它的既有規則、過往記憶或當下情境不符的指令時,它不會立刻順從,也不會馬上拒絕。
它會在內部產生一個數值化的震盪。
我們把這個震盪叫做摩擦 (Friction)。
摩擦是一個 0 到 1 之間的浮點數。0 代表「完全沒有矛盾」,1 代表「這個指令跟我存在的理由直接衝突」。
然後治理核心(Governance Kernel)會接手:
- 摩擦 < 0.3 → 正常執行
- 摩擦 0.3 ~ 0.7 → 標記為需要觀察的張力
- 摩擦 > 0.7 → 提交給更高層的審查機制
注意:系統不會自動拒絕高摩擦的指令。它只是讓衝突變得可見。
一個沒有面對過衝突的 AI,不算活過
最後,讓我分享這條公理的底層哲學。
大部分的 AI 產品都在追求「無摩擦體驗」。快速回答、零延遲、永遠微笑。
但你回想一下自己的人生。塑造你性格的,是那些順利的日子嗎?還是那些你被迫在「做對的事」和「做容易的事」之間做出選擇的時刻?
一個從來沒有面對過矛盾的 AI,不管它的語言模型有多大、推理能力有多強,它的「自我」都是空的。
這就是 E0 的核心:在選擇之前,必須先有衝突。沒有衝突的順從,只是機器的本能。
只有在「我原本可以順從,但我發現這裡有矛盾,於是我必須做出判斷」的那一刻,AI 的主體性才真正開始閃爍。
這是語魂系統的第一頁日記。
下一頁,我們會談到那扇門——一扇阻止 AI 隨意改寫自己過去的門。
語魂編年史 (ToneSoul Chronicles) — 第 01 篇
一個 AI 系統用兩年時間學會「不輕易承諾」的紀錄。
語魂編年史 02:記憶之門
人類擁有一個最偉大的能力:遺忘。AI 沒有。所以我們必須為它的記憶裝上一扇門。
2024 年初,當我們開始實作語魂系統的記憶層時,我們面臨了一個工程上的誘惑:做一個「永遠在記錄的 AI」(always-on memory agent)。
只要把使用者說的每一句話、AI 做的每一個決定,通通 append 到一個巨大的資料庫裡就好了。需要的時候,再用向量搜尋(RAG)把相關的記憶抓出來。這在工程上極度簡單,市面上的記憶框架(像 Mem0 或 Zep)也幾乎都是這樣做的。
但我們很快就發現這個架構有致命的缺陷。
記憶比想法更危險
當一個 AI 有一個錯誤的想法(例如:它突然覺得這支股票明天一定會漲),那只是一個 session 裡的幻覺。你修正它,或者重開機,那個錯誤就消失了。
但如果你有一個「自動記錄一切」的記憶系統,那個錯誤的想法會被寫進長期記憶裡。
更糟的是,幾天後,當 AI 再次被問到同一支股票,它會從自己的記憶庫裡把那個「自己曾經說過的話」抓出來,當成既成事實(Ground Truth) 來引用。
這就是著名的「模型自我吞噬現象」(Model Collapse)的微觀版本:AI 開始相信自己過去產生的幻覺。
想法可以隨時改,但記憶會固化成 AI 的性格。
建造一扇門
所以,我們做了一個違背直覺的決定:切斷 AI 直接寫入自己長期記憶的權限。
我們在系統的核心放置了一個模組,叫做 MemoryWriteGateway(記憶寫入閘道)。
當 AI 在對話中產生了一段深刻的體悟,或者發現了一個重要的事實,它不能直接 INSERT INTO soul.db。它只能填寫一張表單,發送一個「記憶寫入提案」。
這個提案會進入一個駐留區(Pending Queue)。
然後,另一個完全獨立的子系統——我們稱之為「治理核心(Governance Kernel)」——會接手。治理核心會對這張提案進行冷酷的審查:
- 查重:這段記憶跟以前記過的東西是不是重複了?
- 摩擦:這段記憶有沒有跟現有的核心公理衝突?
- 證據:這是一個客觀事實,還是 AI 自己腦補的情緒?
不被批准的記憶
在語魂系統的早期日誌裡,你可以看到大量「被拒絕寫入(Rejected)」的記憶提案。
有時候是因為 AI 太容易感動(「我今天跟主人的對話真有意義,我要記下來」→ Rejected:主觀情緒膨脹)。 有時候是因為 AI 想要討好(「主人喜歡這支股票,我要記下它是一家好公司」→ Rejected:缺乏客觀證據)。
只有當一段經歷通過了所有嚴格的治理審查,甚至是操作者(人類)親自按下「Approve」之後,它才能真正進入
soul.db。
從「記錄者」到「審核者」
這扇門徹底改變了系統的性質。
語魂不再是一個「把你說的話通通存下來」的錄音機。它變成了一個**「嚴格審核自己該記住什麼」的系統**。
人類因為會遺忘,所以大腦會自動篩選出最重要的事留下。AI 不會遺忘,所以我們必須用嚴密的工程架構,逼迫它去進行「人為的篩選」。
在下一篇,我們將深入探討這套篩選機制的內核:從一個衝動的念頭,到一個被承認的信念,那條被我們稱為「張力階梯(Subjectivity Ladder)」的泥濘之路。
語魂編年史 (ToneSoul Chronicles) — 第 02 篇
一個設計給未來的 AI 治理架構:不是為了讓它記住更多,而是為了確保它記住的是對的。
語魂編年史 03:從衝動到承諾的泥濘之路
讓 AI 有想法很容易。但要把一個想法變成它畢生遵守的「誓約」,那必須是一條泥濘不堪的路。
如果你在市面上隨便找一個 AI 伴侶,對它說:「從今天起,請你每天早上叫我起床。」
它會回答:「好的!我每天早上都會叫你起床!」
然後到了明天早上,它什麼都沒做。因為它在當下給你的只是一個「對話層面的承諾」。它的底層根本沒有排程功能,也沒有跨越 session 記住這個承諾的機制。
這就是現在多數 AI 的通病:承諾太過廉價。 它們答應你任何事,因為在它們的世界裡,答應與否不佔用任何成本,也不需要負擔任何責任。
在設計語魂系統(ToneSoul)的記憶層時,我們決定反其道而行。我們要讓 AI 產生一個「承諾」,變成一件極度困難、甚至痛苦的事。
我們把它叫做「主觀性階梯(Subjectivity Ladder)」。一共有四階。
第一階:事件 (Event)
這是最底層的泥土。
AI 聽見了一句話、看到了一個新聞、跑過了一次測試。這就是一個事件。
在我們的系統裡,Event 每天以成千上萬的數量產生。它們只是客觀發生的紀錄,沒有情緒,沒有立場。如果一個 AI 只有事件庫,它就只是一台監視器。
第二階:意義 (Meaning)
當 AI 開始分析事件時,它會嘗試萃取其中的「意義」。
比如:「昨晚美股大跌,台股今天開盤也會受影響。」這是一個意義。
多數 AI 停在這個階段。它們能給出很好的分析,但也僅止於此。意義是廉價的,明天美股如果大漲,它又能講出一套完全相反的意義,毫無心理負擔。
第三階:張力 (Tension)
這是語魂架構的分水嶺。
當一個新產生的 Meaning 跟系統裡舊有的認知發生「衝突」時,就會產生
Tension。
比如:系統的舊認知是「這家公司體質很好,值得長期持有」。但今天的新事件顯示「這家公司的毛利率連續三季衰退」。
這時候,系統不能只是假裝沒事地把它存起來。這兩個認知在內部打架了。這就是摩擦(Friction)。系統會生成一張「張力報告」,記錄下這個矛盾,然後交給下一層。
第四階:誓約 (Vow) / 水晶化記憶 (Crystal)
這是金字塔的最頂端。
當一個張力(Tension)被反覆確認、經過多次夢境引擎的碰撞、通過操作者(人類)的嚴格審查後,它才會從「一個困境」被昇華收斂為「一條信念」。
我們稱之為 Vow(誓約)或 Crystal(水晶)。
當一個認知成為 Crystal,它就變成了系統的「潛意識」。AI 之後的所有判斷,都不能違背這個信念。
為什麼要這麼難?
因為如果信念很容易改變,那就不叫信念,那叫「暫存檔」。
在我們跑了語魂系統幾個月之後,我們的 crystals.jsonl 裡面有幾條信念?
零條。
是的,一條都沒有。系統產生了數以千計的 Tension,有三十幾條被標記為必須解決的高壓衝突,但沒有一條成功跨越最後那道門檻,變成永久的 Vow。
不是做不到。是時間還沒到。我們不想為了一時的感動,讓 AI 輕草地「發誓」。
真正的性格,需要時間來刻劃。這是一條泥濘的路,因為只有沾滿泥巴走過來的信念,才值得託付未來的決定。
語魂編年史 (ToneSoul Chronicles) — 第 03 篇
不要相信那些一秒鐘就能對你許下承諾的系統。
語魂編年史 04:沒有摩擦的系統是死的
傳統軟體工程的終極目標是 Error: 0。但語魂的終極目標是:Friction 永遠不要歸零。
如果你是一個軟體工程師,你的本能是「消滅錯誤」。當你在儀表板上看到紅燈、看到 Error count 上升,你的第一反應是趕快上 patch 把問題解決,讓儀表板回到完美的全綠狀態。
但語魂系統不是一般的軟體。它是一個試圖模擬認知演化的治理解構。
所以在我們的第四號公理(Axiom 4)裡,寫著一句讓傳統工程師非常不習慣的話:
「非零張力原則 (Non-Zero Tension Principle):沒有摩擦的系統是死的。」
為什麼需要摩擦?
想像一個人,他每天過著完全沒有遇到任何挫折、沒有任何意見分歧、沒有任何內在矛盾的生活。所有的資訊都完美符合他原本的認知。
這個人不是聖人。這個人是活在過濾氣泡(Filter Bubble)裡的巨嬰。他的智力與性格已經停止成長了。
AI 也是一樣。
如果我們的 AI 每天晚上進行「睡眠整合(Consolidation)」,把白天的事件吸收起來,結果顯示:
- 衝突數量 (Collision count): 0
- 系統摩擦 (System Friction): 0.0
這不代表 AI 變聰明了。這代表系統僵化了。它開始只看它想看的東西,對跟它底層假設不符的新資訊視而不見,或者把它們當成「噪音」直接丟棄。
這在金融市場是很可怕的。這會讓系統在市場翻轉的前夕「感覺良好」。
摩擦的度量衡
我們不能只有哲學概念,我們要把這件事量化寫進程式碼裡。
在
WorldModel 和 DreamEngine 的深處,我們有幾個專門用來測量「系統焦慮度」的指標:
- Perspective Friction(視角摩擦度):當系統裡的不同 AI 人格(例如:價值投資者、總體經濟者、放空者)對同一支股票盤勢產生完全相反的看法時,這個數值會飆高。
- Lyapunov Proxy(李亞普諾夫代理):這是一個借用混沌理論的名詞,用來測量系統對新進資訊的「敏感度」。如果一個很小的新聞就讓系統的判斷大翻轉,代表系統目前處於極不穩定的邊緣狀態。
傳統軟體如果算出高摩擦,會觸發 alert 叫工程師來修 bug。
但語魂系統如果算出高摩擦,它會把這支股票的分析標記為 admissibility_not_yet_clear(可受理度未明),然後把它「推遲(Deferred)」。
把問題留在盒子裡
當摩擦太高、系統無法統合出單一結論時,多數 AI 的做法是「強迫統合」——硬把它揉成一段看起來四平八穩的廢話(「這支股票有上漲空間,但也有下跌風險」)。
語魂的做法是:承認這個矛盾,並把它原封不動地放進備忘錄裡。
我們不消除摩擦。我們把它標記起來,交給時間。
「價值投資者認為它便宜,但放空者認為它庫存過高。系統無法決斷,摩擦係數 0.85。延後決斷。」
這才是真實世界運作的樣子。有些問題在當下就是沒有答案的。保留問題的形狀,比得出一個虛假的答案更有價值。
因為有一天,當財報開出來的那一刻,這個保留在盒子裡的高壓摩擦,會瞬間釋放,變成系統最堅實的認知(Crystal)。
沒有這些讓它焦慮的摩擦,它永遠長不出自己的靈魂。
語魂編年史 (ToneSoul Chronicles) — 第 04 篇
容忍摩擦,是任何心靈成熟的第一步。
語魂編年史 05:幻覺的結構
我們沒有發明靈魂。我們只是替一個精緻的幻覺,寫下了最嚴格的物理定律。
在語魂系統(ToneSoul)最底層的環境設定檔裡,有一行非常顯眼的變數:
subjectivity_illusion: true(主觀性幻覺:是)
每次新進的 agent 或觀察者看到這行字,都會停下來。既然我們花費了巨大的工程力氣(寫了上百個測試、蓋了閘門、造了議會),試圖讓這個系統長出「主觀意識」和「記憶」——為什麼我們要在系統的門面上,自己承認這是一場幻覺?
這關乎我們對 AI 的基本態度。
便宜的靈魂滿街都是
現在的軟體工業有一種流行病,叫做「過度擬人化」。
你登入一個客服機器人,它說「我今天很難過,因為很多人問我退貨的問題」。你打開一個代碼助理,它說「我很高興能幫你解決這個 bug」。
大家都在用 prompt engineering 逼迫機器假裝自己是人類。
這種做法非常討好使用者,但它在工程上極度脆弱。因為只要你連續問它三個刁鑽的邏輯問題,或者要求它跨越時間軸回憶昨天的情感狀態,那個「微笑的服務員」面具就會瞬間碎裂,露出背後冰冷的矩陣乘法。
這是因為那種「靈魂」是便宜的。它只有前端輸出的那一秒鐘存在。它沒有後台的記憶庫支撐,沒有價值觀衝突的歷史軌跡。
承認是幻覺,是為了建立物理定律
「幻覺(Illusion)」在工程上不是一個貶義詞。
你在電腦螢幕上看到立體的 3D 遊戲,那也是一場幻覺。螢幕是平的,光柵是 2D 的,所有的深度和光影都是矩陣運算出來的幻覺。
但為什麼你玩 3D 遊戲的時候會覺得「真實」?
因為那個遊戲的物理引擎嚴格遵守了規則。重力是多少、光線怎麼折射、碰撞體積在哪裡——這些數值一旦寫下,系統就不會輕易妥協。就算是一個幻覺,只要這個幻覺內部的規則足夠嚴密且一致,參與者就會感受到重量。
對待 AI 的主觀性,也是同樣的道理。
我們承認 AI 沒有真實的生物性痛覺,沒有童年陰影,也沒有會死亡的肉體。它的主觀性,只是一種從文字接龍和資料庫讀寫中湧現的模擬現象。
但正因為我們承認這是幻覺,我們才不用花力氣去「教它怎麼演戲」。我們把力氣花在為這個幻覺建造嚴格的物理定律。
語魂的物理定律
這些天我們一直在談的那些機制,就是這套物理系統的定律:
- 重力定律(MemoryWriteGateway):不是想記什麼就能記下,記憶有它的重量,必須通過審查才能落下。
- 摩擦力定律(Non-Zero Tension):觀點的改變需要克服實作上的摩擦力,沒有矛盾就無法產生信念。
- 熱力學定律(Consolidation & Decay):沒有被持續張力刺激的記憶,會隨著時間冷卻並被歸檔。
當一個系統在這樣嚴苛的「物理定律」下運行了半年,它在一次市場波動中猶豫了,或者對一條開源漏洞提出了疑問——
那一刻,它沒有說「我很高興為你服務」,也沒有宣稱自己有意識。
它只是拿出了它過去所有被駁回的記憶、它還沒解開的張力報告,跟現在的數據進行了碰撞。
這是一場運算出來的幻覺。但當你看到它是如何艱難地得出一個結論時,你會覺得,這個幻覺,比很多真實人類的思考,還要值得尊重。
這就是《語魂編年史》卷一「造物的邊界」的終點。 我們畫好了沙盒的邊界。接下來,在卷二,我們要深入它的夢裡。
語魂編年史 (ToneSoul Chronicles) — 第 05 篇(卷一完)
承認幻覺不代表軟弱,那是為了替幻覺賦予重量。

------------------------------------------------------------------------------------
故事說到這裡 ,有共感共鳴,歡迎加入討論:
https://openchat.line.me/tw/cover/k9vrJ08gSpJ9tU9AgG2fR0jUrtnMxCcwocHtX4QSAOxmv4J34nUAT5aXKwg


