DeepMind開源AlphaFold 3模型,革新蛋白質結構預測與藥物研發

閱讀時間約 4 分鐘

近日,Google DeepMind宣布將其最新的蛋白質結構預測模型——AlphaFold 3——進行開源,這一重要舉措旨在促進學術界對蛋白質結構預測和藥物研究的發展。新發布的AlphaFold 3不僅包含完整的程式碼,還配備模型權重,允許在學術和非商業領域自由使用,將進一步推動生物醫學的前沿研究。

AlphaFold 3的技術進步

AlphaFold 3相較前一版本AlphaFold 2有顯著技術提升。首先,它引入了多分子支持功能,除了蛋白質,還能預測DNA、RNA及小分子的三維結構和交互作用,為基因和分子醫學研究提供了更廣泛的應用。其次,AlphaFold 3在預測蛋白質與藥物分子(配體)或抗體與蛋白質的結合位點方面,精度提升了50%以上。此外,該模型採用了創新的擴散網路架構,模擬分子從隨機原子雲逐步減少雜訊而形成的過程,從而能更準確地重建複雜分子結構。

開源舉措的背景與學術影響

在最初推出時,DeepMind僅允許AlphaFold 3通過伺服器提供有限的預測服務,這引發了學術界的批評。為回應學界對可重現性和研究透明度的要求,DeepMind最終決定開放模型程式碼,讓研究者能在本地環境中自由運行模型。儘管如此,出於商業控制和技術安全的考量,模型權重的獲取仍需要學術資格審核,以確保使用僅限於非商業用途。

此一開源決策預計將對生物醫學領域產生深遠影響。研究者能夠運用AlphaFold 3更快速地模擬分子間的互動,從而輔助傳統實驗,降低研究成本並縮短研究周期,特別是在藥物開發和基因研究中極具潛力。

開啟基因研究與藥物設計的新機遇

AlphaFold 3的開源將為基因研究帶來新機會。首先,其強大的多分子預測能力,使得不僅蛋白質,連同DNA與RNA的結構和相互作用均能精確預測,這為基因表達和基因調控機制的研究提供了重要支持。其次,AlphaFold 3的高精度使得研究者在藥物開發過程中能更快速篩選和設計出新藥,大幅提升潛在藥物靶點的辨識效率,縮短開發時間並降低成本。

此外,該模型在動態分析方面的能力,能展示蛋白質在不同狀態下的動態變化,有助於更深刻理解其功能,並設計出針對性更強的治療方案。這一技術優勢還可應用於材料科學、農業及環境科學等多領域,例如在植物蛋白質結構預測上助力營養性或抗病性農作物的培育。

對傳統實驗研究的助力

AlphaFold 3的開源也為傳統實驗研究提供了多方支持。首先,透過高效的分子互動模擬,實驗室能更快速地取得結果,縮短實驗時間並減少成本。其次,精度的提升使得實驗結果更為可靠,尤其是在疾病治療和藥物開發中的應用意義重大。此外,該模型支持不同分子的結構預測,拓寬了實驗室的研究視野,有助於材料科學及環境科學等跨學科的發展。隨著模型的開放,科研合作的加強及數據共享的增加將推動學術界共同進步。

未來對藥物設計的深遠影響

對藥物設計而言,AlphaFold 3的影響尤為深遠。通過精確預測藥物分子與蛋白質間的互動,顯著提高藥物篩選效率。其高精度和動態結構展示能幫助科學家更全面地了解分子機制,進而開發出更具針對性的治療方案。此外,AlphaFold 3降低了研發成本,讓更多中小型研究機構有機會參與新藥開發。更重要的是,該模型的應用將推動個性化醫療的發展,科學家能根據病患特定基因構造設計個性化藥物,讓治療更精準。

1會員
81內容數
世界新鮮事
留言0
查看全部
發表第一個留言支持創作者!
世界新鮮事 的其他內容
三星電子正加速開發第六代高頻寬記憶體(HBM4),計劃在2025年量產,針對微軟和Meta的AI晶片需求進行客製化設計。HBM4在傳輸速度和容量上顯著提升,支援每秒2太字節(TB)傳輸速度和48GB容量,適用於計算記憶體模式。
iFixit 最近拆解了 2024 年款的 M4 Mac mini,並給予其 7/10 的可修復性評分。此款 Mac mini 尺寸僅為 5x5 英寸,搭載重新設計的熱管理系統,散熱效能優異並確保運行穩定。SSD 模組可更換,但內存無法升級。
自2023年宏都拉斯與台灣斷交後,宏都拉斯白蝦產業面臨嚴重困境。由於自由貿易協定失效,該國白蝦在台灣的進口關稅上升至20%,導致出口量大幅減少。宏都拉斯原本期望與中國建交能開闢新市場,但實際上未能如願。中國未履行其承諾的購買協議,價格糾紛及市場信心低落進一步加劇了產業危機。
今年的「雙11」購物節創下史上最慘淡記錄,原因包括中國經濟增長放緩、消費者信心下降以及價格戰效果減弱。儘管商品普遍降價,消費者仍然謹慎支出,表現出對經濟前景的擔憂。此外,阿里巴巴取消了「雙11」晚會,導致整體購物氛圍冷淡;許多年輕人選擇返鄉降低生活成本,影響消費市場。
Meta計劃在2025年初於其社交平台Threads上引入廣告,將由少數公司投放,具體市場範圍尚未確定。Threads憑藉無廣告和簡潔介面贏得年輕用戶青睞,但新廣告可能影響用戶體驗。若廣告能融合高互動性特質且符合用戶興趣,有望在提升平台商業價值的同時維持用戶留存。
OpenAI 聯合創始人 Greg Brockman 於 11 月 13 日結束長假,重返公司。他的回歸正值公司內部動盪,數位高層主管離職。Brockman 將專注於重大技術挑戰,並與現任執行長 Sam Altman 合作穩定公司局勢,推動 AGI 及 AI 安全的技術發展。
三星電子正加速開發第六代高頻寬記憶體(HBM4),計劃在2025年量產,針對微軟和Meta的AI晶片需求進行客製化設計。HBM4在傳輸速度和容量上顯著提升,支援每秒2太字節(TB)傳輸速度和48GB容量,適用於計算記憶體模式。
iFixit 最近拆解了 2024 年款的 M4 Mac mini,並給予其 7/10 的可修復性評分。此款 Mac mini 尺寸僅為 5x5 英寸,搭載重新設計的熱管理系統,散熱效能優異並確保運行穩定。SSD 模組可更換,但內存無法升級。
自2023年宏都拉斯與台灣斷交後,宏都拉斯白蝦產業面臨嚴重困境。由於自由貿易協定失效,該國白蝦在台灣的進口關稅上升至20%,導致出口量大幅減少。宏都拉斯原本期望與中國建交能開闢新市場,但實際上未能如願。中國未履行其承諾的購買協議,價格糾紛及市場信心低落進一步加劇了產業危機。
今年的「雙11」購物節創下史上最慘淡記錄,原因包括中國經濟增長放緩、消費者信心下降以及價格戰效果減弱。儘管商品普遍降價,消費者仍然謹慎支出,表現出對經濟前景的擔憂。此外,阿里巴巴取消了「雙11」晚會,導致整體購物氛圍冷淡;許多年輕人選擇返鄉降低生活成本,影響消費市場。
Meta計劃在2025年初於其社交平台Threads上引入廣告,將由少數公司投放,具體市場範圍尚未確定。Threads憑藉無廣告和簡潔介面贏得年輕用戶青睞,但新廣告可能影響用戶體驗。若廣告能融合高互動性特質且符合用戶興趣,有望在提升平台商業價值的同時維持用戶留存。
OpenAI 聯合創始人 Greg Brockman 於 11 月 13 日結束長假,重返公司。他的回歸正值公司內部動盪,數位高層主管離職。Brockman 將專注於重大技術挑戰,並與現任執行長 Sam Altman 合作穩定公司局勢,推動 AGI 及 AI 安全的技術發展。
你可能也想看
Google News 追蹤
Thumbnail
這個秋,Chill 嗨嗨!穿搭美美去賞楓,裝備款款去露營⋯⋯你的秋天怎麼過?秋日 To Do List 等你分享! 秋季全站徵文,我們準備了五個創作主題,參賽還有機會獲得「火烤兩用鍋」,一起來看看如何參加吧~
前言 最近在研究GAT,在網路上看到使用torch和DGL實作的GAT模型的程式碼,就想說下載下來自己跑跑看,這篇文章:Understand Graph Attention Network。途中遇到問題,把找到的解法記錄下來,給也有一樣問題的朋友參考。 正文 在Colab直接使用: !p
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在某些情況下,別人提供的 Pretrained Transformer Model 效果不盡人意,可能會想要自己做 Pretrained Model,但是這會耗費大量運
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Google Brain 開發了 Tensor2Tensor(T2T),讓深度學習開發變得更加容易,T2T 是 TensorFlow 的擴展,包含深度學習模型庫,其中包
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 45,我們介紹了 Google 於2017 年提出的 Transformer 架構的 Positional Encoding (PE)
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在AI說書 - 從0開始 - 33中,見識了基於 Transformer 的 Google 翻譯威力,評論如下: Google 翻譯似乎已經解決了 Corefer
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
對於熱衷於語言科技的你, 大語言模型(LLMs)在自然語言處理(NLP)領域的發展無疑是一個革命性的進展。 從傳統的規則系統到基於深度學習的方法, LLMs展現了在理解、生成和翻譯人類語言方面的巨大突破。 這不僅是技術上的飛躍, 更是開啟了新的應用和可能性。 下面將介紹這一變革帶來的三大
Thumbnail
這個秋,Chill 嗨嗨!穿搭美美去賞楓,裝備款款去露營⋯⋯你的秋天怎麼過?秋日 To Do List 等你分享! 秋季全站徵文,我們準備了五個創作主題,參賽還有機會獲得「火烤兩用鍋」,一起來看看如何參加吧~
前言 最近在研究GAT,在網路上看到使用torch和DGL實作的GAT模型的程式碼,就想說下載下來自己跑跑看,這篇文章:Understand Graph Attention Network。途中遇到問題,把找到的解法記錄下來,給也有一樣問題的朋友參考。 正文 在Colab直接使用: !p
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在某些情況下,別人提供的 Pretrained Transformer Model 效果不盡人意,可能會想要自己做 Pretrained Model,但是這會耗費大量運
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Google Brain 開發了 Tensor2Tensor(T2T),讓深度學習開發變得更加容易,T2T 是 TensorFlow 的擴展,包含深度學習模型庫,其中包
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 45,我們介紹了 Google 於2017 年提出的 Transformer 架構的 Positional Encoding (PE)
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在AI說書 - 從0開始 - 33中,見識了基於 Transformer 的 Google 翻譯威力,評論如下: Google 翻譯似乎已經解決了 Corefer
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
對於熱衷於語言科技的你, 大語言模型(LLMs)在自然語言處理(NLP)領域的發展無疑是一個革命性的進展。 從傳統的規則系統到基於深度學習的方法, LLMs展現了在理解、生成和翻譯人類語言方面的巨大突破。 這不僅是技術上的飛躍, 更是開啟了新的應用和可能性。 下面將介紹這一變革帶來的三大