Amazon Foundation Models

更新於 發佈於 閱讀時間約 3 分鐘

Amazon Foundation Models (基礎模型)是一種大型的機器學習模型,經過了海量資料的訓練,可以用於執行各種不同的任務,例如文字生成、翻譯、問答、程式碼生成等等。它們之所以被稱為「基礎」模型,是因為它們可以作為許多下游任務的基礎,只需要針對特定任務進行少量的調整(稱為微調)即可。

在 AWS 的環境中,Amazon Foundation Models 可以透過服務 Amazon Bedrock 來存取和使用。

以下是關於 Amazon Foundation Models 和 Amazon Bedrock 的一些重點:

* Amazon Bedrock: 是一個完全託管的服務,讓您可以透過 API 輕鬆存取來自領先 AI 新創公司和 Amazon 的各種高效能基礎模型。這包括來自 AI21 Labs、Anthropic、Cohere、Meta、Mistral AI 和 Amazon 本身的模型。

* 多種模型選擇: 您可以根據您的特定需求選擇不同的基礎模型。例如,有些模型擅長處理自然語言,有些模型擅長生成圖像或程式碼。

* 簡化開發流程: Bedrock 讓開發人員可以輕鬆地測試、比較和部署不同的基礎模型,而無需管理底層的基礎架構。

* 安全性與隱私: Amazon Bedrock 提供企業級的安全性和隱私保護。您的資料不會用於訓練底層模型。

* 廣泛的應用場景: 您可以使用 Amazon Foundation Models 來構建各種生成式 AI 應用,例如:

* 內容生成: 撰寫文章、部落格文章、電子郵件、故事等。

* 聊天機器人: 建立更智能、更自然的對話式應用程式。

* 摘要: 自動總結長篇文件或文章。

* 翻譯: 將文字從一種語言翻譯成另一種語言。

* 程式碼生成與輔助: 協助開發人員編寫程式碼。

* 圖像和影片生成: 根據文字描述生成圖像或影片(透過特定的基礎模型)。

總之,Amazon Foundation Models 是 AWS 生成式 AI 服務的核心,透過 Amazon Bedrock,您可以輕鬆利用這些強大的模型來構建創新的應用程式。

留言
avatar-img
留言分享你的想法!
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
4會員
218內容數
現職 : 富邦建設資訊副理 經濟部 iPAS AI應用規劃師
2025/06/10
Amazon Q Business 是 AWS (Amazon Web Services) 提供的一款由生成式 AI 驅動的工作助理。它的目標是提高員工的生產力和效率。它可以連接到您公司的各種資料、資訊和系統,快速成為您業務的專家,並協助員工完成各種任務。 簡單來說,Amazon Q Busine
2025/06/10
Amazon Q Business 是 AWS (Amazon Web Services) 提供的一款由生成式 AI 驅動的工作助理。它的目標是提高員工的生產力和效率。它可以連接到您公司的各種資料、資訊和系統,快速成為您業務的專家,並協助員工完成各種任務。 簡單來說,Amazon Q Busine
2025/06/10
Amazon Kendra 是一種由 AWS (Amazon Web Services) 提供的智慧型搜尋服務,專為企業打造。它利用機器學習 (ML) 和自然語言處理 (NLP) 技術,讓使用者能夠在企業內大量分散的內容中,透過自然語言提問,快速找到所需的資訊。 簡單來說,Amazon Kendr
2025/06/10
Amazon Kendra 是一種由 AWS (Amazon Web Services) 提供的智慧型搜尋服務,專為企業打造。它利用機器學習 (ML) 和自然語言處理 (NLP) 技術,讓使用者能夠在企業內大量分散的內容中,透過自然語言提問,快速找到所需的資訊。 簡單來說,Amazon Kendr
2025/06/10
Amazon Textract 是一種由 Amazon Web Services (AWS) 提供的機器學習 (ML) 服務,可以自動從掃描的文件中提取文字、手寫、版面元素和資料。它不僅僅是簡單的光學字元辨識 (OCR),還能識別、理解和提取文件中的特定資料,例如表單和表格中的資訊。 簡單來說,A
2025/06/10
Amazon Textract 是一種由 Amazon Web Services (AWS) 提供的機器學習 (ML) 服務,可以自動從掃描的文件中提取文字、手寫、版面元素和資料。它不僅僅是簡單的光學字元辨識 (OCR),還能識別、理解和提取文件中的特定資料,例如表單和表格中的資訊。 簡單來說,A
看更多
你可能也想看
Thumbnail
沙龍一直是創作與交流的重要空間,這次 vocus 全面改版了沙龍介面,就是為了讓好內容被好好看見! 你可以自由編排你的沙龍首頁版位,新版手機介面也讓每位訪客都能更快找到感興趣的內容、成為你的支持者。 改版完成後可以在社群媒體分享新版面,並標記 @vocus.official⁠ ♥️ ⁠
Thumbnail
沙龍一直是創作與交流的重要空間,這次 vocus 全面改版了沙龍介面,就是為了讓好內容被好好看見! 你可以自由編排你的沙龍首頁版位,新版手機介面也讓每位訪客都能更快找到感興趣的內容、成為你的支持者。 改版完成後可以在社群媒體分享新版面,並標記 @vocus.official⁠ ♥️ ⁠
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
全球科技產業的焦點,AKA 全村的希望 NVIDIA,於五月底正式發布了他們在今年 2025 第一季的財報 (輝達內部財務年度為 2026 Q1,實際日曆期間為今年二到四月),交出了打敗了市場預期的成績單。然而,在銷售持續高速成長的同時,川普政府加大對於中國的晶片管制......
Thumbnail
全球科技產業的焦點,AKA 全村的希望 NVIDIA,於五月底正式發布了他們在今年 2025 第一季的財報 (輝達內部財務年度為 2026 Q1,實際日曆期間為今年二到四月),交出了打敗了市場預期的成績單。然而,在銷售持續高速成長的同時,川普政府加大對於中國的晶片管制......
Thumbnail
重點摘要: 6 月繼續維持基準利率不變,強調維持高利率主因為關稅 點陣圖表現略為鷹派,收斂 2026、2027 年降息預期 SEP 連續 2 季下修 GDP、上修通膨預測值 --- 1.繼續維持利率不變,強調需要維持高利率是因為關稅: 聯準會 (Fed) 召開 6 月利率會議
Thumbnail
重點摘要: 6 月繼續維持基準利率不變,強調維持高利率主因為關稅 點陣圖表現略為鷹派,收斂 2026、2027 年降息預期 SEP 連續 2 季下修 GDP、上修通膨預測值 --- 1.繼續維持利率不變,強調需要維持高利率是因為關稅: 聯準會 (Fed) 召開 6 月利率會議
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 新模型和 Human Baselines 排名將不斷變化,Human Baselines 的位置自從基礎模型出現以來,它就不再具有多大意義了,這些排名只是表明經典 NL
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 新模型和 Human Baselines 排名將不斷變化,Human Baselines 的位置自從基礎模型出現以來,它就不再具有多大意義了,這些排名只是表明經典 NL
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News