法國初創公司dottxt募集1190萬美元以提升大型語言模型能力

閱讀時間約 4 分鐘

2024/10/20

dottxt 是一個法國生態系統和平台,用於與大型語言模型(LLM)互動。最近,該公司宣布在短短七個多月內通過種子前和種子輪融資共籌集了 1190 萬美元。


投資詳情

這筆資金分為 320 萬美元的種子前輪融資,由歐洲科技和深科技風險投資公司 Elaia 領投,於 2023 年 12 月完成。隨後,dottxt 快速進行了種子輪融資,最近以 870 萬美元結束,由 EQT Ventures 領投。

其他參與這兩輪融資的還包括 Seedcamp、Common Magic、Kima、FSJ、Roxanne Varza(Station F)、Erik Bernhardsson(Modal Labs,CEO)、Julien Chaumond(Hugging Face,CTO)、Bob van Luijt(Weaviate,CEO)和 Jean-Louis Queguiner(Gladia,CEO)。


自 2024 年初以來,dottxt 的開源庫及其專有優化版本的需求急劇增加,這筆資金將用於擴大團隊規模。資金還將用於增強軟件工程師人數,並引入一位幕僚長。目前,該九人團隊新增了六名員工,專注於擴展 dottxt 技術的影響力,並將其分發給企業和開發者。


想法如何誕生?

dottxt 由 Rémi Louf、Dan Gerlanc 和 Brandon Willard 創立,他們在過去四年裡以不同身份共同工作。在他們最近一次在紐約一家 AI 公司 Normal Computing 的工作中,他們開始遇到 GPT-4 的問題,特別是在系統化提取數據和信息以繞過大量手動工作的過程中。

為了解決這一問題,團隊發明了一個其他人無法找到的解決方案。一年後,他們開源的代碼已獲得超過 300 萬次下載,其中 60 萬次是在上個月。大小公司都在生產中使用它。dottxt 的使命是使 AI 可編程,以滿足現實世界系統的可靠性需求。


賦予用戶控制 LLMs 的能力

這家法國初創公司大大提高了 LLMs 的能力。通過允許用戶以特定結構請求信息,dottxt 將 LLMs 轉化為可無縫整合到現有數字生態系統的工具。其功能將 LLMs 從簡單的對話功能提升為可靠的計算機。數據科學家可以對數據庫進行自然語言查詢,並保證查詢成功。例如,某人想招聘並面對大量簡歷時,可以要求服務篩選具有特定經驗或資格的簡歷,從而節省大量時間。某人想從大量圖像中提取特定屬性,可以將圖像和屬性列表發送給服務,快速獲得信息。

OpenAI 和 Cohere 是主導基於 AI 的文本生成競賽的早期領導者;兩者都曾公開引用他們使用 dottxt 的開源代碼。

dottxt 的 CEO Rémi Louf 表示:“幾年後,所有人都將使用結構化生成,這是毫無疑問的。模型提供商,包括 OpenAI,在速度和能力方面都落後,而我們在這裡填補這一空白。通過這些資金,我們將繼續推動這項技術的極限,並使其更廣泛地可供所有人使用。我們正在塑造一個生成式 AI 履行我們所承諾的自動化的未來。”


https://techfundingnews.com/french-startup-dottxt-raises-11-9m-to-tell-how-ai-models-answer/


avatar-img
1會員
32內容數
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
AVA Angels的沙龍 的其他內容
根據PitchBook的數據,生成式AI初創公司在2024年第三季度吸引了39億美元的風險投資,顯示出市場對這一技術的信心,儘管也面臨著反對聲音和技術挑戰。從編碼助手到科學發現,生成式AI涵蓋多種技術,並且對電力需求造成嚴重影響,全球數據中心運營商也在尋求可再生能源解決方案。
據路透社報導,前 OpenAI 首席技術官 Mira Murati 正在為一家新的 AI 初創公司籌集風險資本。據悉,這家初創公司將專注於基於專有模型構建 AI 產品,並可能在此輪融資中籌集超過 1 億美元。
根據PitchBook的數據,生成式AI初創公司在2024年第三季度吸引了39億美元的風險投資,顯示出市場對這一技術的信心,儘管也面臨著反對聲音和技術挑戰。從編碼助手到科學發現,生成式AI涵蓋多種技術,並且對電力需求造成嚴重影響,全球數據中心運營商也在尋求可再生能源解決方案。
據路透社報導,前 OpenAI 首席技術官 Mira Murati 正在為一家新的 AI 初創公司籌集風險資本。據悉,這家初創公司將專注於基於專有模型構建 AI 產品,並可能在此輪融資中籌集超過 1 億美元。
你可能也想看
Google News 追蹤
Thumbnail
這個秋,Chill 嗨嗨!穿搭美美去賞楓,裝備款款去露營⋯⋯你的秋天怎麼過?秋日 To Do List 等你分享! 秋季全站徵文,我們準備了五個創作主題,參賽還有機會獲得「火烤兩用鍋」,一起來看看如何參加吧~
Thumbnail
11/20日NVDA即將公布最新一期的財報, 今天Sell Side的分析師, 開始調高目標價, 市場的股價也開始反應, 未來一週NVDA將重新回到美股市場的焦點, 今天我們要分析NVDA Sell Side怎麼看待這次NVDA的財報預測, 以及實際上Buy Side的倉位及操作, 從
Thumbnail
Hi 大家好,我是Ethan😊 相近大家都知道保濕是皮膚保養中最基本,也是最重要的一步。無論是在畫室裡長時間對著畫布,還是在旅途中面對各種氣候變化,保持皮膚的水分平衡對我來說至關重要。保濕化妝水不僅能迅速為皮膚補水,還能提升後續保養品的吸收效率。 曾經,我的保養程序簡單到只包括清潔和隨意上乳液
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 99 到 AI說書 - 從0開始 - 121,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 118 安裝完 googletrans,現在示範如何從英文翻譯成法文: import googletrans translator
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 102 說要窺探 WMT 資料集,以下著手資料集下載程式: import urllib.request # Define the
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 74 中提到,我們想要建立「Transformer 數學」與「ChatGPT 產生的文字」兩者間的關係。 有鑑於此,我們以句子「
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 37 到 AI說書 - 從0開始 - 70 ,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
Thumbnail
對於熱衷於語言科技的你, 大語言模型(LLMs)在自然語言處理(NLP)領域的發展無疑是一個革命性的進展。 從傳統的規則系統到基於深度學習的方法, LLMs展現了在理解、生成和翻譯人類語言方面的巨大突破。 這不僅是技術上的飛躍, 更是開啟了新的應用和可能性。 下面將介紹這一變革帶來的三大
Thumbnail
這個秋,Chill 嗨嗨!穿搭美美去賞楓,裝備款款去露營⋯⋯你的秋天怎麼過?秋日 To Do List 等你分享! 秋季全站徵文,我們準備了五個創作主題,參賽還有機會獲得「火烤兩用鍋」,一起來看看如何參加吧~
Thumbnail
11/20日NVDA即將公布最新一期的財報, 今天Sell Side的分析師, 開始調高目標價, 市場的股價也開始反應, 未來一週NVDA將重新回到美股市場的焦點, 今天我們要分析NVDA Sell Side怎麼看待這次NVDA的財報預測, 以及實際上Buy Side的倉位及操作, 從
Thumbnail
Hi 大家好,我是Ethan😊 相近大家都知道保濕是皮膚保養中最基本,也是最重要的一步。無論是在畫室裡長時間對著畫布,還是在旅途中面對各種氣候變化,保持皮膚的水分平衡對我來說至關重要。保濕化妝水不僅能迅速為皮膚補水,還能提升後續保養品的吸收效率。 曾經,我的保養程序簡單到只包括清潔和隨意上乳液
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 99 到 AI說書 - 從0開始 - 121,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 118 安裝完 googletrans,現在示範如何從英文翻譯成法文: import googletrans translator
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 102 說要窺探 WMT 資料集,以下著手資料集下載程式: import urllib.request # Define the
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 74 中提到,我們想要建立「Transformer 數學」與「ChatGPT 產生的文字」兩者間的關係。 有鑑於此,我們以句子「
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 37 到 AI說書 - 從0開始 - 70 ,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
Thumbnail
對於熱衷於語言科技的你, 大語言模型(LLMs)在自然語言處理(NLP)領域的發展無疑是一個革命性的進展。 從傳統的規則系統到基於深度學習的方法, LLMs展現了在理解、生成和翻譯人類語言方面的巨大突破。 這不僅是技術上的飛躍, 更是開啟了新的應用和可能性。 下面將介紹這一變革帶來的三大