# 從結構到行為:當蛋白質 AI 走入「動態時代」

更新 發佈閱讀 14 分鐘



Sinclair Huang

方格新住民

2026/03/30 更新草稿尚未發佈閱讀 14 分鐘

分享段落

**AlphaFold 幫助我們預測蛋白質長什麼樣子。下一代模型開始處理更困難的問題:蛋白質如何移動、切換狀態,並在時間中執行功能。**

作者|Sinclair Huang

vocus|新世代的創作平台

以多構象與振動模式呈現的蛋白質動態示意。強調 VibeGen 將正常模態振動與彎曲特性納入設計目標,讓蛋白質 AI 從單一結構預測邁向「行為導向」設計。

生技與 AI 跨域研究者與策略顧問,長期關注蛋白質 AI、AI 驅動藥物開發與半導體‑生技收斂。

本文中文版首發於方格子。

圖片說明:

下列五張圖皆為作者使用 AI 圖像工具(例如 Gemini)產生並後製之概念示意圖,靈感來自相關研究與新聞圖像,但非原始論文或新聞圖片之重製。僅作為科學概念可視化之用途,並非比例或數值精確的科學圖表。




vocus|新世代的創作平台

圖 1:VibeGen 蛋白質動態設計概念示意圖。彩色蛋白質結構在多方向箭頭環繞下振動與扭動,象徵從「凍結」結構走向可設計的動態行為。

AlphaFold 徹底改變了蛋白質科學,讓研究者可以以前所未有的規模與準確度預測蛋白質的三維結構。

但真正在細胞裡發揮功能的蛋白質,並不是一張靜態「照片」。

它們會彎曲、振動、打開與關閉口袋、在不同構象之間切換,並且在時間中傳遞訊號。

也因此,在「結構」之後,下一個更困難、也更關鍵的前線,很可能是:**行為(behavior)**。

最近有兩條發展路線特別值得注意:

麻省理工學院(MIT)的 VibeGen,把「蛋白質運動本身」當成設計目標,而不是只預測最後的折疊狀態;

亞利桑那州立大學(ASU)則提出一種方法,大幅加速對蛋白質慢速、大尺度運動的建模,處理過去在傳統模擬中很難有效取樣的行為。

把這兩條線放在一起看,可以感覺到:**蛋白質 AI 正在從靜態結構,走向動態行為**。

這不只是模型換代,而是整個領域在改變它要優化的「目標函數」。

## AlphaFold 解了結構,生物學仍活在運動之中

AlphaFold 的突破,是讓蛋白質結構預測變得更易取得、也更可靠。

在實務上,它回答了過去幾十年困擾生物學的一個核心問題:

給定胺基酸序列,我們比較有可能得到哪一個 3D 結構?

這個成就仍然是基礎。但精確的靜態結構,其實只是一段更大過程中的「單一影格」。

許多真正關鍵的生物事件,本質上是動態的:

- 結合口袋會在時間中打開與關閉

- 可塑性高的區段會改變界面形狀

- 變構調控(allostery)是經由細微構象變化在蛋白質內部傳遞

換句話說,一個結構即使是對的,也可能完全看不出真正重要的行為:

例如功能狀態如何切換、調控如何發生,或者某個標的在藥物設計上到底「好不好下手」。

**這個「結構與行為之間的缺口」,正是新一代工作的瞄準目標。**

## VibeGen:設計的是「動作」,而不只是「形狀

VibeGen 最有趣的地方,不只是「用了生成式 AI」,

而是它根本改變了設計目標。

過去許多蛋白質 AI 的工作流程,即便用了深度學習,思路仍然是結構中心的:

1. 從序列預測結構

2. 從結構推測可能的功能

3. 期待這個功能在真實生化環境下仍然成立

VibeGen 則往另外一個方向推。

它把「振動與彎曲特性」當成設計條件:

- 一個模型負責提出候選蛋白質序列

- 另一個模型評估這些序列能否展現目標的運動模式

- 兩者形成一個反覆迭代的設計迴圈,而不是一次性預測

這裡的差異非常關鍵。

VibeGen 做的不是更好的「靜態預測」,而是更接近一個 **「以行為為條件的設計系統」。

vocus|新世代的創作平台

圖 2:概念示意圖:左側為 AlphaFold 時代的單一靜態結構預測;右側為多個構象疊加的「動態時代」,目標是直接建模與設計蛋白質的整體行為。

它也指向一個更大的轉變:

蛋白質工程的焦點,正在從理解「自然界已有的蛋白質」,

轉向搜尋「所有可能的功能性行為空間」。

研究團隊同時也強調了一個概念:**功能退化(functional degeneracy)**。

也就是說,不同序列、甚至不同折疊拓樸,可能都能達到類似的運動目標。

如果這個概念成立,意涵非常深遠:

演化找到的可能只是所有可行解中的一小部分,而非唯一解。

AI 則有機會開啟一個遠大於自然演化所探索過的設計空間。

這樣的敘事,就已經超越「AI 只是加快現有流程」的範疇了。

vocus|新世代的創作平台

圖 3:VibeGen 工作流程示意圖。「AI Designer」依照指定的振動模式提出蛋白質序列,「AI Predictor」評估其動態準確度,兩者形成針對動態行為的迭代設計迴圈。

## ASU:讓蛋白質動態變得「算得起」

如果說 MIT 代表的是「為動態而設計」,

那 ASU 的工作則是「讓動態映射變得算得起」。

ASU 的新方法(發表於《Science Advances》)宣稱可以從相對短的模擬中,

推回蛋白質慢速、大尺度的運動行為,

把原本可能需要數週或數月的計算量,壓縮到不到一天就能完成。

他們示範的標的包括 HIV‑1 protease 與 KRAS 等經典難題標靶。

為什麼這件事重要?

因為許多真的有藥物意義的構象狀態,在單一靜態結構裡根本看不到:

- 結合口袋可能只在特定動態路徑上短暫出現

- 柔性的 loop 區域可能在某些狀態下才會打開通道

- 功能性轉換(例如「on/off」)往往依賴跨構象的狀態切換

在實務上,許多藥物開發不是卡在「沒結構」,

而是卡在「對動態缺乏足夠了解」。

**能夠降低慢速構象探索成本的方法,雖然不是一鍵解決所有問題,

卻會改變我們能問什麼問題,以及能在多大規模上問這些問題。**

vocus|新世代的創作平台

圖 4:HIV‑1 protease 的二聚體結構與 flap 區域開合運動示意。ASU 類型的方法試圖在不到一天的計算時間內,捕捉這類慢速、與藥物設計高度相關的構象轉換。

## 這不是取代 AlphaFold,而是「疊在 AlphaFold 上的下一層」

把 VibeGen 與 ASU 的工作看成是 AlphaFold 的「接班人」其實並不精確。

更合理的理解方式是:現在正在浮現一組「互補的層次」:

- AlphaFold:讓我們看到蛋白質「可能長什麼樣子」

- 動態映射方法:幫助我們理解蛋白質「如何在不同狀態之間移動」

- 以行為為條件的生成模型:試著設計蛋白質「實際會做什麼」

這不是互斥的三條路,而是越來越互相依賴的系統。

AlphaFold 仍然是基礎,因為靜態結構仍然非常重要。

但如果這個領域的重心,從「結構」移向「結構+動態+功能」,

那麼決定未來版圖的,就不會只是誰能預測出最乾淨的靜態折疊,

而是誰能真正把**結構連到運動,再把運動連到可干預的行為**。

在研究社群中,也可以看到類似方向的工作。

例如 ProTDyn 把蛋白質視為多構象「集合」(ensemble),

試著用 foundation model 的方式整合構象生成與多尺度動態建模。

這類模型的出現,某種程度上也在宣示:

「只做靜態結構」已經不再是野心的上限。

## 當設計變成「高維度搜尋問題」

從更抽象的角度來看,整個問題型態也在改變。

在只有靜態結構的世界裡,我們已經在做一個困難的優化問題。

一旦「動態行為」也進入目標函數,

搜尋空間會瞬間變得更大、更複雜:

- 不再只是「穩定折疊」

- 還要考慮構象之間的轉換、柔性、低頻模態

- 還可能需要考慮不同環境條件下,功能是否仍然穩定

這會讓蛋白質設計越來越像一個由**計算主導的搜尋問題**:

- 更多模擬與抽樣

- 更多「生成-評估-再生成」的閉環迭代

- 模型之間的整合變得更重要

- 對實驗驗證與資料回流的基礎設施需求更大

也就是說,瓶頸會逐漸從「單一模型的準確度」,

轉向「整套 compute+模型+驗證迴圈」的效率與整合度。

在產業分工上,這意味著平台型公司的優勢可能會越來越強,

因為真正難的是做出完整的閉環,而不是單點演算法。

## 為什麼這會改變的不只是科學,也包含產業結構?

多數對新蛋白質 AI 工具的評論,停留在「科研突破」或「藥物開發有希望」。

但如果我們真的從「結構」走向「行為」,

這對產業組織其實也會帶來幾個重要變化:

1. **算力變得更核心**

動態導向的設計與映射,本質上比單純結構預測更吃算力。

即便算法會變得更有效率,整個工作流程仍然會高度依賴模擬、抽樣、精煉與驗證。

這會把瓶頸從「單一模型」轉移到「算力+模型+驗證」的整體迴圈。

2. **平台優勢會放大**

真正有優勢的系統,很可能不是那個「指標最高的單一模型」,

而是能整合

- 基礎模型(foundation models)

- 生成式設計

- 物理模擬與加速動態取樣

- 系統化的實驗驗證

的閉環平台。

3. **藥物開發的目標,從「找到會黏的分子」變成「設計可控的行為」**

在結構導向的時代,目標常常是找到能跟標靶「黏住」的分子。

在動態導向的時代,目標可能會變成:

- 控制開與關

- 調整柔性與剛性

- 改寫變構通訊的路徑

對於那些真正棘手、關鍵生物學被藏在「運動」裡,而不是明顯靜態表面上的標靶,

這會是更雄心勃勃、也更有價值的設計目標。

## 我們其實正在改變的是「目標函數」

回到一開始,那個最重要的觀點。

這一波變化,真正關鍵的並不是「AI 又進步了」。

而是蛋白質 AI 在改變它想要解的那個問題。

過去幾年,主導性的問題大致是:

**我們能不能預測正確的折疊?**

現在問題越來越接近:

**我們能不能建模、描繪,甚至設計出讓蛋白質真正運作的那些行為?**

這種轉變,比任何單一基準測試分數的提升都要深刻。

它暗示下一階段的蛋白質 AI,將會比較少停留在「描述分子」,

而會更直接瞄準「控制分子行為」。

如果真往這個方向走,影響不會只停在蛋白質科學本身:

它會一路延伸到藥物開發、合成生物學、再生醫學、新型生物材料,

以及整個 AI 驅動生物產業的結構與分工方式。

vocus|新世代的創作平台

圖 5:未來蛋白質 AI 的想像圖。一個由多個半透明構象疊加而成的巨大蛋白質構象集(ensemble),象徵模型能夠在整個動態景觀與多尺度時間尺度上進行建模與設計。

## 結語

AlphaFold 讓全世界看清楚了蛋白質長什麼樣子。

而這一波正在浮現的工作,則暗示下一代系統可能幫我們做到更野心勃勃的事情:

理解蛋白質如何「行動」,並且有一天,可以**刻意設計這些行為**。

真正值得關注的,不只是 AI 有多厲害,

而是它正在把問題從「結構預測」推向「行為設計」。

而那,很可能正是下一個前沿真正開始的地方。

## 作者簡介(Author Note)

Sinclair Huang 是一位學術研究者與策略顧問,長期工作在生物技術、AI 驅動藥物開發與廣義 AI 產業交會處。

他擁有 HEC Liège 的 EDBA 學位,過去曾在跨國高科技製藥公司與多個電子產業領域任職,熟悉從半導體到生技之間的技術與產業鏈連結。

現居台北,持續關注蛋白質 AI、基因治療、半導體‑生技收斂,以及 AI‑native 研發流程的未來。

## 參考與延伸閱讀(英文)

- MIT VibeGen:以振動與彎曲模式為目標的蛋白質動態設計系統。

- ASU「快速取樣蛋白質構象動態」:嘗試在不到一天內推回慢速、大尺度運動的動態建模方法。

- ProTDyn:以構象集合與多尺度動態為核心的蛋白質 foundation model。

- 關於蛋白質動態、normal mode analysis 與 cryptic pocket 的相關綜述與個案研究(如 HIV‑1 protease、KRAS 等)。

(註:以上為概略描述,詳細請參考各原始論文與新聞稿。)

## 免責聲明(Disclaimer)

本文內容僅供資訊與教育用途,並非醫療建議、法規意見或投資建議。

文中所提及的公司與研究機構,其技術與效能多數仍需持續的學術與實務驗證。

讀者若需據此做出醫療、研發或投資決策,應另行查閱原始文獻並諮詢專業人士。

## Hashtags

#ProteinAI #AlphaFold #VibeGen #ProteinDynamics #AIDrugDiscovery #Biotech #ComputationalBiology #MachineLearning #DrugDesign




留言
avatar-img
Sinclair Huang的沙龍
0會員
16內容數
2026/03/23
AI 算力不是只有 GPU,本篇用 HBM、CoWoS、ABF 三個關鍵環節,拆解 AI 伺服器真正卡在哪裡,以及在 Google、Amazon、Tesla 都自研晶片的時代,為什麼台灣仍是最難被取代的 AI 供應鏈核心之一。
Thumbnail
2026/03/23
AI 算力不是只有 GPU,本篇用 HBM、CoWoS、ABF 三個關鍵環節,拆解 AI 伺服器真正卡在哪裡,以及在 Google、Amazon、Tesla 都自研晶片的時代,為什麼台灣仍是最難被取代的 AI 供應鏈核心之一。
Thumbnail
2026/03/22
這篇從 GPU 往下拆到 CoWoS、HBM、ABF 三層,指出市場在定價 AI 算力時常只看 GPU 供需,忽略更慢卻關鍵的實體瓶頸。CoWoS 是短期最容易改善的限制;HBM 因晶圓耗用與資格認證,成為中長期產能分配問題;ABF 與高階基板則是集中度極高、時間軸拉到 2030 的隱形風險。
Thumbnail
2026/03/22
這篇從 GPU 往下拆到 CoWoS、HBM、ABF 三層,指出市場在定價 AI 算力時常只看 GPU 供需,忽略更慢卻關鍵的實體瓶頸。CoWoS 是短期最容易改善的限制;HBM 因晶圓耗用與資格認證,成為中長期產能分配問題;ABF 與高階基板則是集中度極高、時間軸拉到 2030 的隱形風險。
Thumbnail
2026/03/19
AI 能模仿文風、生成內容,卻無法取代文字裡真實經驗與判斷的「人類痕跡」。它最先淘汰的是空洞內容,而非寫作本身。真正的危機在於:當摘要唾手可得,人是否還願意慢慢讀、慢慢想?資訊便宜的時代,獨立判斷才是真正的稀缺。
Thumbnail
2026/03/19
AI 能模仿文風、生成內容,卻無法取代文字裡真實經驗與判斷的「人類痕跡」。它最先淘汰的是空洞內容,而非寫作本身。真正的危機在於:當摘要唾手可得,人是否還願意慢慢讀、慢慢想?資訊便宜的時代,獨立判斷才是真正的稀缺。
Thumbnail
看更多