語言模型
#
語言模型
含有「語言模型」關鍵字的內容
全部共 12 篇文章
排序:發佈日期新到舊
探索OpenAI的Transformer Debugger:開啟語言模型透明度的新篇章
在 AI 研究的領域中,理解和解釋語言模型如何處理和回應特定輸入始終是一項巨大挑戰。這種復雜性不僅限於模型的規模和結構,還涉及到它們如何在內部做出決策。為了應對這一挑戰,OpenAI 推出了一款名為 Transformer Debugger (TDB) 的工具,旨在深入探索小型語言模型的行為
一二三
1
閱讀時間約
3
分鐘
#
TDB
#
語言模型
#
工具
OpenAI Sora:文生成影音的新時代
2023年4月,紐約成立的Runway AI發佈了一段用AI生成的影音:畫面模糊、卡頓,物體扭曲,僅時長4秒;四個月後,Runway將文生成影音的效果推向4K超高清,實現鏡頭的連貫穩定,長度也從4秒提升至18秒——這是2023年文生成影音的「時長天花板」。
三十好幾
發佈於
身為職業轉譯者
4
閱讀時間約
5
分鐘
#
生成式AI
#
影視
#
人工智慧
AI + Web3 公益課筆記 #2|ChatGPT 的各種功能與玩法
這一講我覺得挺有收穫的部分,是對於幾個單詞(Token、Agent、RAG⋯⋯)有了更深一層的理解⋯⋯以及區塊鏈 BUIDL 大佬孟岩給我們的三條建議,特別是第一條可以說是最本質性的東西。
閱讀筆耕
發佈於
書寫墨耘
14
閱讀時間約
8
分鐘
#
AI
#
Web3
#
閱讀幣耕
AI + Web3 公益課筆記 #1|大型語言模型是什麼?
⋯⋯GPT 有一個秘密,他其實是一個失憶症患者,為了不讓別人發現他的秘密,他把和別人的對話寫在一本日記本上;每次和別人說話之前,GPT 都會先翻閱一下日記本,回顧之前的對話,然後才做回應。
閱讀筆耕
發佈於
書寫墨耘
14
閱讀時間約
9
分鐘
#
AI
#
Web3
#
GPT
ChatGPT新功能:Read out loud,直接念誦你的對話!
ChatGPT最近更新了語音對話功能,同時推出了附屬功能Read out loud,讓對話更方便。使用者可以立刻知道英文單字的讀音和例句唸法,加上十秒重播功能,非常實用。
樂子人
發佈於
人工智能自修課
1
閱讀時間約
1
分鐘
#
人工智能
#
人工智慧
#
AI
心情繪本|ChatGPT |DALL.E|[大型語言模型的對決]
前言 在一個遙遠的未來,大型語言模型 (LLM) 已經成為我們日常生活的一部分。它們用於各種目的,包括生成文本、翻譯語言、回答問題和編寫程式碼。 有一天,兩個 LLM,Bard 和 LaMDA,決定在一個大型的語言比賽中進行對決。比賽將在全球範圍內播出,並將由專家評審團進行評判。 角色介紹
D&Y熊繪生
發佈於
心情繪本
5
閱讀時間約
1
分鐘
#
Bard
#
語言
#
程式
使用 ChatGPT API 建立對話系統 學習筆記 - 2
這篇文章詳細說明了「思考鏈」的概念以及如何應用在設計語言模型客服助理的過程中。使用分隔號和角括弧以設定步驟、區隔訊息和提供填充空間,這種方式可使語言模型更有效地處理和回應使用者的諮詢,包括在產品清單中找不到的諮詢。
Ted Chen
3
閱讀時間約
8
分鐘
#
思考鏈
#
語言模型
#
客服助理
生成式 AI 之 大資料的驚人發現
本文探討大資料對模型的影響。研究指出,大資料量對模型的語法和世界知識理解有顯著影響。固定運算資源下,DeepMind發現適應參數數量更重要,這使模型Chinchilla以較小規模但更多訓練資料,在實際任務中優於Gopher模型。這說明增大模型的規模已不具有太大意義,應增加訓練資料。
Ted Chen
5
閱讀時間約
4
分鐘
#
語言模型
#
參數數量
#
訓練資料
生成式 AI 之 大模型的特殊現象
本文探討了大型語言模型中的特殊現象,包括頓悟現象,大模型的隱藏知識引導,以及模型越大對某些問題的理解越偏離的U型曲線。文章強調,當模型不夠理想時,我們需要更好地引導模型或了解問題的本質,而非只是增加模型的大小。
Ted Chen
5
閱讀時間約
6
分鐘
#
U型曲線
#
人工智慧
#
語言模型
ChatGPT關鍵技術,GPT 怎麼變成 ChatGPT 的?
這篇文章揭示了訓練GPT模型的三個核心技術:預訓練、微調及增強式學習。預訓練利用大量網路資料提供基礎能力;微調讓GPT更貼近人類思維偏好;增強式學習最終優化模型回答問題的方式。此外,多語言預訓練能讓GPT在一語言的任務學習後,自動掌握其他語言的同樣任務。
Ted Chen
5
閱讀時間約
5
分鐘
#
預訓練
#
語言模型
#
微調
#
#
#
#
#
#
#
#
#