法國初創公司dottxt募集1190萬美元以提升大型語言模型能力

更新於 2024/10/21閱讀時間約 4 分鐘

2024/10/20

dottxt 是一個法國生態系統和平台,用於與大型語言模型(LLM)互動。最近,該公司宣布在短短七個多月內通過種子前和種子輪融資共籌集了 1190 萬美元。


投資詳情

這筆資金分為 320 萬美元的種子前輪融資,由歐洲科技和深科技風險投資公司 Elaia 領投,於 2023 年 12 月完成。隨後,dottxt 快速進行了種子輪融資,最近以 870 萬美元結束,由 EQT Ventures 領投。

其他參與這兩輪融資的還包括 Seedcamp、Common Magic、Kima、FSJ、Roxanne Varza(Station F)、Erik Bernhardsson(Modal Labs,CEO)、Julien Chaumond(Hugging Face,CTO)、Bob van Luijt(Weaviate,CEO)和 Jean-Louis Queguiner(Gladia,CEO)。


自 2024 年初以來,dottxt 的開源庫及其專有優化版本的需求急劇增加,這筆資金將用於擴大團隊規模。資金還將用於增強軟件工程師人數,並引入一位幕僚長。目前,該九人團隊新增了六名員工,專注於擴展 dottxt 技術的影響力,並將其分發給企業和開發者。


想法如何誕生?

dottxt 由 Rémi Louf、Dan Gerlanc 和 Brandon Willard 創立,他們在過去四年裡以不同身份共同工作。在他們最近一次在紐約一家 AI 公司 Normal Computing 的工作中,他們開始遇到 GPT-4 的問題,特別是在系統化提取數據和信息以繞過大量手動工作的過程中。

為了解決這一問題,團隊發明了一個其他人無法找到的解決方案。一年後,他們開源的代碼已獲得超過 300 萬次下載,其中 60 萬次是在上個月。大小公司都在生產中使用它。dottxt 的使命是使 AI 可編程,以滿足現實世界系統的可靠性需求。


賦予用戶控制 LLMs 的能力

這家法國初創公司大大提高了 LLMs 的能力。通過允許用戶以特定結構請求信息,dottxt 將 LLMs 轉化為可無縫整合到現有數字生態系統的工具。其功能將 LLMs 從簡單的對話功能提升為可靠的計算機。數據科學家可以對數據庫進行自然語言查詢,並保證查詢成功。例如,某人想招聘並面對大量簡歷時,可以要求服務篩選具有特定經驗或資格的簡歷,從而節省大量時間。某人想從大量圖像中提取特定屬性,可以將圖像和屬性列表發送給服務,快速獲得信息。

OpenAI 和 Cohere 是主導基於 AI 的文本生成競賽的早期領導者;兩者都曾公開引用他們使用 dottxt 的開源代碼。

dottxt 的 CEO Rémi Louf 表示:“幾年後,所有人都將使用結構化生成,這是毫無疑問的。模型提供商,包括 OpenAI,在速度和能力方面都落後,而我們在這裡填補這一空白。通過這些資金,我們將繼續推動這項技術的極限,並使其更廣泛地可供所有人使用。我們正在塑造一個生成式 AI 履行我們所承諾的自動化的未來。”


https://techfundingnews.com/french-startup-dottxt-raises-11-9m-to-tell-how-ai-models-answer/


avatar-img
1會員
36內容數
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
AVA Angels的沙龍 的其他內容
根據PitchBook的數據,生成式AI初創公司在2024年第三季度吸引了39億美元的風險投資,顯示出市場對這一技術的信心,儘管也面臨著反對聲音和技術挑戰。從編碼助手到科學發現,生成式AI涵蓋多種技術,並且對電力需求造成嚴重影響,全球數據中心運營商也在尋求可再生能源解決方案。
據路透社報導,前 OpenAI 首席技術官 Mira Murati 正在為一家新的 AI 初創公司籌集風險資本。據悉,這家初創公司將專注於基於專有模型構建 AI 產品,並可能在此輪融資中籌集超過 1 億美元。
根據PitchBook的數據,生成式AI初創公司在2024年第三季度吸引了39億美元的風險投資,顯示出市場對這一技術的信心,儘管也面臨著反對聲音和技術挑戰。從編碼助手到科學發現,生成式AI涵蓋多種技術,並且對電力需求造成嚴重影響,全球數據中心運營商也在尋求可再生能源解決方案。
據路透社報導,前 OpenAI 首席技術官 Mira Murati 正在為一家新的 AI 初創公司籌集風險資本。據悉,這家初創公司將專注於基於專有模型構建 AI 產品,並可能在此輪融資中籌集超過 1 億美元。
你可能也想看
Google News 追蹤
Thumbnail
徵的就是你 🫵 超ㄅㄧㄤˋ 獎品搭配超瞎趴的四大主題,等你踹共啦!還有機會獲得經典的「偉士牌樂高」喔!馬上來參加本次的活動吧!
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 99 到 AI說書 - 從0開始 - 121,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 118 安裝完 googletrans,現在示範如何從英文翻譯成法文: import googletrans translator
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 102 說要窺探 WMT 資料集,以下著手資料集下載程式: import urllib.request # Define the
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 74 中提到,我們想要建立「Transformer 數學」與「ChatGPT 產生的文字」兩者間的關係。 有鑑於此,我們以句子「
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 37 到 AI說書 - 從0開始 - 70 ,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
Thumbnail
對於熱衷於語言科技的你, 大語言模型(LLMs)在自然語言處理(NLP)領域的發展無疑是一個革命性的進展。 從傳統的規則系統到基於深度學習的方法, LLMs展現了在理解、生成和翻譯人類語言方面的巨大突破。 這不僅是技術上的飛躍, 更是開啟了新的應用和可能性。 下面將介紹這一變革帶來的三大
Thumbnail
徵的就是你 🫵 超ㄅㄧㄤˋ 獎品搭配超瞎趴的四大主題,等你踹共啦!還有機會獲得經典的「偉士牌樂高」喔!馬上來參加本次的活動吧!
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 99 到 AI說書 - 從0開始 - 121,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 118 安裝完 googletrans,現在示範如何從英文翻譯成法文: import googletrans translator
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 102 說要窺探 WMT 資料集,以下著手資料集下載程式: import urllib.request # Define the
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 74 中提到,我們想要建立「Transformer 數學」與「ChatGPT 產生的文字」兩者間的關係。 有鑑於此,我們以句子「
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 37 到 AI說書 - 從0開始 - 70 ,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
Thumbnail
對於熱衷於語言科技的你, 大語言模型(LLMs)在自然語言處理(NLP)領域的發展無疑是一個革命性的進展。 從傳統的規則系統到基於深度學習的方法, LLMs展現了在理解、生成和翻譯人類語言方面的巨大突破。 這不僅是技術上的飛躍, 更是開啟了新的應用和可能性。 下面將介紹這一變革帶來的三大