法國初創公司dottxt募集1190萬美元以提升大型語言模型能力

閱讀時間約 4 分鐘

2024/10/20

dottxt 是一個法國生態系統和平台,用於與大型語言模型(LLM)互動。最近,該公司宣布在短短七個多月內通過種子前和種子輪融資共籌集了 1190 萬美元。


投資詳情

這筆資金分為 320 萬美元的種子前輪融資,由歐洲科技和深科技風險投資公司 Elaia 領投,於 2023 年 12 月完成。隨後,dottxt 快速進行了種子輪融資,最近以 870 萬美元結束,由 EQT Ventures 領投。

其他參與這兩輪融資的還包括 Seedcamp、Common Magic、Kima、FSJ、Roxanne Varza(Station F)、Erik Bernhardsson(Modal Labs,CEO)、Julien Chaumond(Hugging Face,CTO)、Bob van Luijt(Weaviate,CEO)和 Jean-Louis Queguiner(Gladia,CEO)。


自 2024 年初以來,dottxt 的開源庫及其專有優化版本的需求急劇增加,這筆資金將用於擴大團隊規模。資金還將用於增強軟件工程師人數,並引入一位幕僚長。目前,該九人團隊新增了六名員工,專注於擴展 dottxt 技術的影響力,並將其分發給企業和開發者。


想法如何誕生?

dottxt 由 Rémi Louf、Dan Gerlanc 和 Brandon Willard 創立,他們在過去四年裡以不同身份共同工作。在他們最近一次在紐約一家 AI 公司 Normal Computing 的工作中,他們開始遇到 GPT-4 的問題,特別是在系統化提取數據和信息以繞過大量手動工作的過程中。

為了解決這一問題,團隊發明了一個其他人無法找到的解決方案。一年後,他們開源的代碼已獲得超過 300 萬次下載,其中 60 萬次是在上個月。大小公司都在生產中使用它。dottxt 的使命是使 AI 可編程,以滿足現實世界系統的可靠性需求。


賦予用戶控制 LLMs 的能力

這家法國初創公司大大提高了 LLMs 的能力。通過允許用戶以特定結構請求信息,dottxt 將 LLMs 轉化為可無縫整合到現有數字生態系統的工具。其功能將 LLMs 從簡單的對話功能提升為可靠的計算機。數據科學家可以對數據庫進行自然語言查詢,並保證查詢成功。例如,某人想招聘並面對大量簡歷時,可以要求服務篩選具有特定經驗或資格的簡歷,從而節省大量時間。某人想從大量圖像中提取特定屬性,可以將圖像和屬性列表發送給服務,快速獲得信息。

OpenAI 和 Cohere 是主導基於 AI 的文本生成競賽的早期領導者;兩者都曾公開引用他們使用 dottxt 的開源代碼。

dottxt 的 CEO Rémi Louf 表示:“幾年後,所有人都將使用結構化生成,這是毫無疑問的。模型提供商,包括 OpenAI,在速度和能力方面都落後,而我們在這裡填補這一空白。通過這些資金,我們將繼續推動這項技術的極限,並使其更廣泛地可供所有人使用。我們正在塑造一個生成式 AI 履行我們所承諾的自動化的未來。”


https://techfundingnews.com/french-startup-dottxt-raises-11-9m-to-tell-how-ai-models-answer/


0會員
20內容數
留言0
查看全部
發表第一個留言支持創作者!
AVA Angels的沙龍 的其他內容
根據PitchBook的數據,生成式AI初創公司在2024年第三季度吸引了39億美元的風險投資,顯示出市場對這一技術的信心,儘管也面臨著反對聲音和技術挑戰。從編碼助手到科學發現,生成式AI涵蓋多種技術,並且對電力需求造成嚴重影響,全球數據中心運營商也在尋求可再生能源解決方案。
據路透社報導,前 OpenAI 首席技術官 Mira Murati 正在為一家新的 AI 初創公司籌集風險資本。據悉,這家初創公司將專注於基於專有模型構建 AI 產品,並可能在此輪融資中籌集超過 1 億美元。
根據PitchBook的數據,生成式AI初創公司在2024年第三季度吸引了39億美元的風險投資,顯示出市場對這一技術的信心,儘管也面臨著反對聲音和技術挑戰。從編碼助手到科學發現,生成式AI涵蓋多種技術,並且對電力需求造成嚴重影響,全球數據中心運營商也在尋求可再生能源解決方案。
據路透社報導,前 OpenAI 首席技術官 Mira Murati 正在為一家新的 AI 初創公司籌集風險資本。據悉,這家初創公司將專注於基於專有模型構建 AI 產品,並可能在此輪融資中籌集超過 1 億美元。
你可能也想看
Google News 追蹤
Thumbnail
這個秋,Chill 嗨嗨!穿搭美美去賞楓,裝備款款去露營⋯⋯你的秋天怎麼過?秋日 To Do List 等你分享! 秋季全站徵文,我們準備了五個創作主題,參賽還有機會獲得「火烤兩用鍋」,一起來看看如何參加吧~
Thumbnail
美國總統大選只剩下三天, 我們觀察一整週民調與金融市場的變化(包含賭局), 到本週五下午3:00前為止, 誰是美國總統幾乎大概可以猜到60-70%的機率, 本篇文章就是以大選結局為主軸來討論近期甚至到未來四年美股可能的改變
Thumbnail
Faker昨天真的太扯了,中國主播王多多點評的話更是精妙,分享給各位 王多多的點評 「Faker是我們的處境,他是LPL永遠繞不開的一個人和話題,所以我們特別渴望在決賽跟他相遇,去直面我們的處境。 我們曾經稱他為最高的山,最長的河,以為山海就是盡頭,可是Faker用他28歲的年齡...
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 99 到 AI說書 - 從0開始 - 121,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 118 安裝完 googletrans,現在示範如何從英文翻譯成法文: import googletrans translator
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 102 說要窺探 WMT 資料集,以下著手資料集下載程式: import urllib.request # Define the
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 74 中提到,我們想要建立「Transformer 數學」與「ChatGPT 產生的文字」兩者間的關係。 有鑑於此,我們以句子「
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 37 到 AI說書 - 從0開始 - 70 ,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
Thumbnail
對於熱衷於語言科技的你, 大語言模型(LLMs)在自然語言處理(NLP)領域的發展無疑是一個革命性的進展。 從傳統的規則系統到基於深度學習的方法, LLMs展現了在理解、生成和翻譯人類語言方面的巨大突破。 這不僅是技術上的飛躍, 更是開啟了新的應用和可能性。 下面將介紹這一變革帶來的三大
Thumbnail
這個秋,Chill 嗨嗨!穿搭美美去賞楓,裝備款款去露營⋯⋯你的秋天怎麼過?秋日 To Do List 等你分享! 秋季全站徵文,我們準備了五個創作主題,參賽還有機會獲得「火烤兩用鍋」,一起來看看如何參加吧~
Thumbnail
美國總統大選只剩下三天, 我們觀察一整週民調與金融市場的變化(包含賭局), 到本週五下午3:00前為止, 誰是美國總統幾乎大概可以猜到60-70%的機率, 本篇文章就是以大選結局為主軸來討論近期甚至到未來四年美股可能的改變
Thumbnail
Faker昨天真的太扯了,中國主播王多多點評的話更是精妙,分享給各位 王多多的點評 「Faker是我們的處境,他是LPL永遠繞不開的一個人和話題,所以我們特別渴望在決賽跟他相遇,去直面我們的處境。 我們曾經稱他為最高的山,最長的河,以為山海就是盡頭,可是Faker用他28歲的年齡...
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 99 到 AI說書 - 從0開始 - 121,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 118 安裝完 googletrans,現在示範如何從英文翻譯成法文: import googletrans translator
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 102 說要窺探 WMT 資料集,以下著手資料集下載程式: import urllib.request # Define the
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 74 中提到,我們想要建立「Transformer 數學」與「ChatGPT 產生的文字」兩者間的關係。 有鑑於此,我們以句子「
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 37 到 AI說書 - 從0開始 - 70 ,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
Thumbnail
對於熱衷於語言科技的你, 大語言模型(LLMs)在自然語言處理(NLP)領域的發展無疑是一個革命性的進展。 從傳統的規則系統到基於深度學習的方法, LLMs展現了在理解、生成和翻譯人類語言方面的巨大突破。 這不僅是技術上的飛躍, 更是開啟了新的應用和可能性。 下面將介紹這一變革帶來的三大