法國初創公司dottxt募集1190萬美元以提升大型語言模型能力

更新 發佈閱讀 4 分鐘

2024/10/20

dottxt 是一個法國生態系統和平台,用於與大型語言模型(LLM)互動。最近,該公司宣布在短短七個多月內通過種子前和種子輪融資共籌集了 1190 萬美元。


投資詳情

這筆資金分為 320 萬美元的種子前輪融資,由歐洲科技和深科技風險投資公司 Elaia 領投,於 2023 年 12 月完成。隨後,dottxt 快速進行了種子輪融資,最近以 870 萬美元結束,由 EQT Ventures 領投。

其他參與這兩輪融資的還包括 Seedcamp、Common Magic、Kima、FSJ、Roxanne Varza(Station F)、Erik Bernhardsson(Modal Labs,CEO)、Julien Chaumond(Hugging Face,CTO)、Bob van Luijt(Weaviate,CEO)和 Jean-Louis Queguiner(Gladia,CEO)。


自 2024 年初以來,dottxt 的開源庫及其專有優化版本的需求急劇增加,這筆資金將用於擴大團隊規模。資金還將用於增強軟件工程師人數,並引入一位幕僚長。目前,該九人團隊新增了六名員工,專注於擴展 dottxt 技術的影響力,並將其分發給企業和開發者。


想法如何誕生?

dottxt 由 Rémi Louf、Dan Gerlanc 和 Brandon Willard 創立,他們在過去四年裡以不同身份共同工作。在他們最近一次在紐約一家 AI 公司 Normal Computing 的工作中,他們開始遇到 GPT-4 的問題,特別是在系統化提取數據和信息以繞過大量手動工作的過程中。

為了解決這一問題,團隊發明了一個其他人無法找到的解決方案。一年後,他們開源的代碼已獲得超過 300 萬次下載,其中 60 萬次是在上個月。大小公司都在生產中使用它。dottxt 的使命是使 AI 可編程,以滿足現實世界系統的可靠性需求。


賦予用戶控制 LLMs 的能力

這家法國初創公司大大提高了 LLMs 的能力。通過允許用戶以特定結構請求信息,dottxt 將 LLMs 轉化為可無縫整合到現有數字生態系統的工具。其功能將 LLMs 從簡單的對話功能提升為可靠的計算機。數據科學家可以對數據庫進行自然語言查詢,並保證查詢成功。例如,某人想招聘並面對大量簡歷時,可以要求服務篩選具有特定經驗或資格的簡歷,從而節省大量時間。某人想從大量圖像中提取特定屬性,可以將圖像和屬性列表發送給服務,快速獲得信息。

OpenAI 和 Cohere 是主導基於 AI 的文本生成競賽的早期領導者;兩者都曾公開引用他們使用 dottxt 的開源代碼。

dottxt 的 CEO Rémi Louf 表示:“幾年後,所有人都將使用結構化生成,這是毫無疑問的。模型提供商,包括 OpenAI,在速度和能力方面都落後,而我們在這裡填補這一空白。通過這些資金,我們將繼續推動這項技術的極限,並使其更廣泛地可供所有人使用。我們正在塑造一個生成式 AI 履行我們所承諾的自動化的未來。”


https://techfundingnews.com/french-startup-dottxt-raises-11-9m-to-tell-how-ai-models-answer/


留言
avatar-img
AVA Angels的沙龍
1會員
36內容數
AVA Angels的沙龍的其他內容
2024/12/18
Dec 18, 2024 專注於 AI 商品數據整合平台 的 Lazuli 株式會社(總部位於東京都港區,執行長:萩原靜厳)於 2024 年 12 月宣布,成功完成 B 輪融資,共計 10 億日圓(約新台幣 2 億 1,500 萬元)。此次投資由 Global Brain 株式會社 領投,其他參與
Thumbnail
2024/12/18
Dec 18, 2024 專注於 AI 商品數據整合平台 的 Lazuli 株式會社(總部位於東京都港區,執行長:萩原靜厳)於 2024 年 12 月宣布,成功完成 B 輪融資,共計 10 億日圓(約新台幣 2 億 1,500 萬元)。此次投資由 Global Brain 株式會社 領投,其他參與
Thumbnail
2024/12/18
Dec. 18, 2024 專注於植物工廠事業的美國 Oishii Farm 於 17 日宣布,在其 B 輪融資 中追加獲得 30 億日圓(約新台幣 6 億 5 千萬)。這次融資由知名平台 TED 的負責人 Chris Anderson 所帶領的 Resilience Reserve 等新投資者參
Thumbnail
2024/12/18
Dec. 18, 2024 專注於植物工廠事業的美國 Oishii Farm 於 17 日宣布,在其 B 輪融資 中追加獲得 30 億日圓(約新台幣 6 億 5 千萬)。這次融資由知名平台 TED 的負責人 Chris Anderson 所帶領的 Resilience Reserve 等新投資者參
Thumbnail
2024/11/26
Michael Gilroy,前Coatue金融科技投資部門負責人,以及Gokul Rajaram,一位資深科技高階管理人及活躍的天使投資人,正在籌備成立一家尚未命名的創投公司。據《彭博社》報導,兩人計畫於明年初開始募資,目標募集4億至5億美元,作為首支基金。該公司將專注於投資美國境內的早期金融科技
Thumbnail
2024/11/26
Michael Gilroy,前Coatue金融科技投資部門負責人,以及Gokul Rajaram,一位資深科技高階管理人及活躍的天使投資人,正在籌備成立一家尚未命名的創投公司。據《彭博社》報導,兩人計畫於明年初開始募資,目標募集4億至5億美元,作為首支基金。該公司將專注於投資美國境內的早期金融科技
Thumbnail
看更多
你可能也想看
Thumbnail
債券投資,不只是高資產族群的遊戲 在傳統的投資觀念中,海外債券(Overseas Bonds)常被貼上「高資產族群專屬」的標籤。過去動輒 1 萬甚至 10 萬美元的最低申購門檻,讓許多想尋求穩定配息的小資族望而卻步。 然而,在股市波動劇烈的環境下,尋求穩定的美元現金流與被動收入成為許多投資人
Thumbnail
債券投資,不只是高資產族群的遊戲 在傳統的投資觀念中,海外債券(Overseas Bonds)常被貼上「高資產族群專屬」的標籤。過去動輒 1 萬甚至 10 萬美元的最低申購門檻,讓許多想尋求穩定配息的小資族望而卻步。 然而,在股市波動劇烈的環境下,尋求穩定的美元現金流與被動收入成為許多投資人
Thumbnail
透過川普的近期債券交易揭露,探討債券作為資產配置中「穩定磐石」的重要性。文章分析降息對債券的潛在影響,以及股神巴菲特的操作策略。並介紹玉山證券「小額債」平臺,如何讓小資族也能低門檻參與海外債券市場,實現「低門檻、低波動、固定收益」的務實投資方式。
Thumbnail
透過川普的近期債券交易揭露,探討債券作為資產配置中「穩定磐石」的重要性。文章分析降息對債券的潛在影響,以及股神巴菲特的操作策略。並介紹玉山證券「小額債」平臺,如何讓小資族也能低門檻參與海外債券市場,實現「低門檻、低波動、固定收益」的務實投資方式。
Thumbnail
解析「債券」如何成為資產配置中的穩定錨,提供低風險高回報的投資選項。 藉由玉山證券的低門檻債券服務,投資者可輕鬆入手,平衡風險並穩定財務。
Thumbnail
解析「債券」如何成為資產配置中的穩定錨,提供低風險高回報的投資選項。 藉由玉山證券的低門檻債券服務,投資者可輕鬆入手,平衡風險並穩定財務。
Thumbnail
相較於波動較大的股票,債券能提供固定現金流,而玉山證券推出的小額債,更以1000 美元的低門檻,讓學生與新手也能參與全球優質企業債投資。玉山E-Trader平台即時報價、條件式篩選與清楚的交易流程等特色,大幅降低投資難度,對於希望分散風險、建立穩定現金流的人來說,玉山小額債是一個值得嘗試的理財起點。
Thumbnail
相較於波動較大的股票,債券能提供固定現金流,而玉山證券推出的小額債,更以1000 美元的低門檻,讓學生與新手也能參與全球優質企業債投資。玉山E-Trader平台即時報價、條件式篩選與清楚的交易流程等特色,大幅降低投資難度,對於希望分散風險、建立穩定現金流的人來說,玉山小額債是一個值得嘗試的理財起點。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 118 安裝完 googletrans,現在示範如何從英文翻譯成法文: import googletrans translator
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 118 安裝完 googletrans,現在示範如何從英文翻譯成法文: import googletrans translator
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 74 中提到,我們想要建立「Transformer 數學」與「ChatGPT 產生的文字」兩者間的關係。 有鑑於此,我們以句子「
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 74 中提到,我們想要建立「Transformer 數學」與「ChatGPT 產生的文字」兩者間的關係。 有鑑於此,我們以句子「
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News