大語言模型
#
大語言模型
含有「大語言模型」共 15 篇內容
全部內容
發佈日期由新至舊
Google Gemini 對比 ChatGPT:AI助手評測
這篇文章評測了Google Gemini和ChatGPT兩個AI助手工具的表現,並對比了它們在簡單問題、創作文本和回應短文等方面的效果。
2024-04-30
6
#
ChatGPT
#
AI
#
人工智慧
LLM 006|BERT與GPT是怎麼從Transformer演化來的?
在上一期「LLM 005|大語言模型是如何利用Transformer理解語言的?」我們提到,Transformer是大語言模型理解語言的關鍵。 而Transformer架構兩個主要的後代是BERT以及GPT。 BERT是bidirectional encoder representati
2024-04-28
8
#
大語言模型
#
ChatGPT
#
GPT
LLM 005|大語言模型是如何利用Transformer理解語言的?
現代大語言模型建構於Transformer結構。 Transformer結構是源自於2017年著名論文 Attention Is All You Need的深度神經網路結構。 原始的Trasformer是為了機器翻譯發展,當初的任務是將英文翻譯成德文與法文。 Transformer
2024-04-27
7
#
大語言模型
#
Transformer
#
ChatGPT
LLM 004|創建大語言模型需要哪兩個關鍵階段?
從頭開始寫大語言模型的程式碼, 是最好理解大語言模型的機制與限制的方風。 從頭開始寫大語言模型的程式碼,可以幫助我們得到預訓練與微調整開源大語言模型架構所需要的知識,並應用到特定領域的數據及以及任務。 客製化大語言模型一般來說比起通用大語言模型有更好的表現。 一個具體的例子是
2024-04-26
4
#
大語言模型
#
ChatGPT
#
Transformer
LLM 003|人工智慧如何從數據中學習?
大語言模型能夠生成文本,因此被認為是生成式人工智慧的一種形式。 人工智慧的學科任務,是製作機器,使其能執行需要人類智慧才能執行的任務,例如理解語言,便是模式,做出決策。 除了大語言模型,人工智慧也包含了深度學習以及機器學習。 機器學習的學科任務,是透過演算法來實踐AI。 特別
2024-04-25
8
#
大語言模型
#
ChatGPT
#
人工智慧
LLM 002|大語言模型中的「大」是如何幫助預測下一個字的?
大語言模型是一種特殊的神經網路,設計來理解,生成與回應人類的文本。 大語言模型是使用大量文本數據訓練的深度神經網路,其訓練使用的文本數據甚至包括了整個網路公開的文本。 大語言模型的「大」,體現於模型的參數個數以及其使用的訓練數據集。如此大的模型可以有百億甚至千億的參數。這些參數都是神經網
2024-04-24
4
#
大語言模型
LLM 001|大語言模型如何革新傳統的自然語言處理任務?
大語言模型,例如OpenAI提供的ChatGPT,是過去幾年發展的深度神經網路模型,開啟自然語言處理的新紀元。
2024-04-23
5
#
大語言模型
#
ChatGPT
電腦科技房間 - 簡介
別小看語言模型,我們的歷史記載,不是都靠著文本嗎?
2024-04-13
0
#
ai
#
人工智能
#
大語言模型
GAN:生成逼真假照片的秘密武器
現AI時代我們常見的生成影像是如何製作出來的,或許你已經開始熟悉AI“假臉”的風格。但由于現在網路上大量流傳的多數是以DALL-E或是Stable Diffiusion+幾個特定的LoRA所生成的結果。以至於人們越來越有識別真假照片的能力。但或許你不知道的是,早在幾年前純粹用GAN生成技術所產出的人
2024-03-10
2
#
生成對抗網路
#
LLM
#
大語言模型
OpenAI 發展歷史|從 GPT-1 到 ChatGPT-4 的演變
OpenAI成立於2015年,旨在以非盈利方式促進AI發展,並避免潛在危害。從GPT-1到GPT-4的發展過程展現了AI無監督學習及多任務學習的潛力。這篇文章回顧了OpenAI在自然語言處理方面的歷程與技術演進,並介紹了各個模型樣本和能力的提升。
2024-03-01
3
#
GPT-4
#
模型
#
OpenAI