Claude 3.7 Sonnet 上線 Amazon Bedrock,打造超高速、深度 AI 解決方案

更新於 發佈於 閱讀時間約 5 分鐘
Claude 3.7 Sonnet

Claude 3.7 Sonnet

生成式 AI 技術持續精進,Amazon Bedrock 亦不斷擴展其基礎模型(Foundation Models)陣容。我們很高興宣布,Anthropic 的最新旗艦模型 Claude 3.7 Sonnet 現已正式在 Amazon Bedrock 上線。這款模型引入了創新的「混合推理」技術,兼具快速回應與深度分析能力,為語言理解與決策分析帶來全新突破。

Amazon Q Developer 全面支援 Claude 3.7 Sonnet

值得注意的是,Amazon Q Developer 現已將 Claude 3.7 Sonnet 納入可選模型之一。透過 Amazon Bedrock 架構,Amazon Q 可適應多種需求,從一般問答到高階程式開發,皆可運用 Claude 3.7 Sonnet 的先進 AI 技術,提升開發效率並強化整體軟體開發流程。

Claude 3.7 Sonnet 亮點功能

1. 創新的混合推理機制

Claude 3.7 Sonnet 是 Anthropic 首款具備「雙模式推理」能力的模型,可根據需求動態調整運算模式:

  • 標準模式(Standard Mode):相較於前代 Claude 3.5 Sonnet,執行速度更快、更精簡,適用於日常任務。
  • 延伸思考模式(Extended Thinking Mode):透過額外 Token 投入,進行縝密分析與推理,特別適合高精準度應用。需注意,此模式將計算額外 Token 使用量並產生相應費用。

2. 更強大的程式開發支援

Claude 3.7 Sonnet 在 SWE-bench Verified 測試中,標準模式取得 70.3% 的優異成績,超越多數前代模型。無論是需要複雜邏輯、智能代理(Agents)或進階自動化流程,該模型都能提供更高穩定性與精準度的支援。

3. 擴展輸出長度至 128K Token

相較於 Claude 3.5 Sonnet,本版本最大輸出長度提升 15 倍以上,支援 128K Token(一般用戶可用 64K,128K 仍在測試階段)。此優勢使其更適用於撰寫長篇報告、提供多段範例,並能整合更完整的背景資訊。

4. 彈性推理資源分配

在 Amazon Bedrock 上,使用者可自由設定推理 Token 配額,以達到處理速度、成本與精準度的最佳平衡。對於複雜分析需求,可提升 Token 配額,而一般快速回應則可調降 Token 使用量,以節省成本。

如何在 Amazon Bedrock 體驗 Claude 3.7 Sonnet?

申請使用權限

  1. 進入 Amazon Bedrock 主控台,前往 Model access 設定。
  2. 點選 Modify model access,申請使用 Claude 3.7 Sonnet。

在 Playground 測試

  1. 申請通過後,前往 Playgrounds > Chat / Text 區域。
  2. 選擇 Anthropic,並啟用 Claude 3.7 Sonnet。
  3. 如需開啟 延伸思考模式,可於 Configurations 設定 Model reasoning。

應用範例

假設您需解決餐廳人員短缺與大型訂位衝突的問題,可輸入提示並啟用 延伸思考模式。Claude 3.7 Sonnet 將分析挑戰、提出最佳解決方案,並評估潛在影響,幫助決策者做出更全面的選擇。

圖像辨識與 API 整合

  • Vision 功能:支援高階圖像分析,例如解析建築設計圖,提供詳細的文本描述與建議。
  • SDK 與 API:開發者可透過 AWS SDK 呼叫 Amazon Bedrock API,進一步整合 Claude 3.7 Sonnet 於現有應用程式中。

立即體驗 Claude 3.7 Sonnet

全新的 混合推理技術擴增的上下文視窗,讓 Claude 3.7 Sonnet 在多元領域發揮強大效能。無論是企業決策、醫療影像分析、金融運算,或是程式碼審閱與優化,皆能提供更深層次的 AI 助力。

目前,Claude 3.7 Sonnet 已於 美東(N. Virginia, Ohio)美西(Oregon) 區域開放,並將陸續拓展至更多地區。定價與 Claude 3.5 Sonnet 相同,詳情可參閱 Amazon Bedrock 定價頁面


資料來源: https://aws.amazon.com/tw/blogs/aws/anthropics-claude-3-7-sonnet-the-first-hybrid-reasoning-model-is-now-available-in-amazon-bedrock/


🔥你還在等什麼? 立即追蹤我們🔥



🔗 立即量身打造最省錢的雲端解決方案!

Elite Cloud | 你最智慧、最靈活的雲端夥伴


avatar-img
0會員
5內容數
Elite Cloud | 雲端成本優化,提供企業級雲端解決方案 Elite Cloud 為全球領先的雲端代理商,專注 AWS、GCP、阿里雲、騰訊雲、Azure 等雲端費用管理,提供 24/7 的技術支援,透過透明帳單管理,幫助企業降低支出、提升效能,確保雲端資源最佳化,加速業務成長。
留言
avatar-img
留言分享你的想法!

































































Elite Cloud的沙龍 的其他內容
隨著數位轉型步伐加速,企業對IT基礎設施的要求日益嚴苛,傳統的伺服器托管模式已難以滿足現代化運營需求。根據Gartner預測,到2027年,超過九成的企業將採用混合雲策略,以提升業務靈活性和市場競爭力。本文將深入探討雲端托管的核心概念、主要優勢、應用場景以及如何挑選合適的服務提供商。
深入了解 AWS 推出的 DeepSeek-R1 模型,結合 Amazon Bedrock 和 SageMaker 平台,助力企業部署生成式 AI 應用,實現高效成本優化與數據安全保障。
AWS/GCP 代理商轉移只需 1 分鐘! 降低雲端成本,最高省 20%,享 24/7 技術支援,帳單透明化管理。轉換流程簡單,無影響 AWS/GCP 運作,立即試算你的省錢方案,讓企業享受更優質服務!
台灣企業若直接向 AWS/GCP 購買雲端服務,需依《所得稅法》第88條 預扣 20% 境外稅,導致成本增加!透過 代理商付款,可 免除 20% 稅負、獲得台灣發票、享台幣付款與技術支援,幫助企業優化雲端成本。立即了解如何透過 Elite Cloud 合法避稅並降低支出!
隨著數位轉型步伐加速,企業對IT基礎設施的要求日益嚴苛,傳統的伺服器托管模式已難以滿足現代化運營需求。根據Gartner預測,到2027年,超過九成的企業將採用混合雲策略,以提升業務靈活性和市場競爭力。本文將深入探討雲端托管的核心概念、主要優勢、應用場景以及如何挑選合適的服務提供商。
深入了解 AWS 推出的 DeepSeek-R1 模型,結合 Amazon Bedrock 和 SageMaker 平台,助力企業部署生成式 AI 應用,實現高效成本優化與數據安全保障。
AWS/GCP 代理商轉移只需 1 分鐘! 降低雲端成本,最高省 20%,享 24/7 技術支援,帳單透明化管理。轉換流程簡單,無影響 AWS/GCP 運作,立即試算你的省錢方案,讓企業享受更優質服務!
台灣企業若直接向 AWS/GCP 購買雲端服務,需依《所得稅法》第88條 預扣 20% 境外稅,導致成本增加!透過 代理商付款,可 免除 20% 稅負、獲得台灣發票、享台幣付款與技術支援,幫助企業優化雲端成本。立即了解如何透過 Elite Cloud 合法避稅並降低支出!
你可能也想看
Google News 追蹤
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在某些情況下,別人提供的 Pretrained Transformer Model 效果不盡人意,可能會想要自己做 Pretrained Model,但是這會耗費大量運
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 75 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
  這回來介紹 AWS 在目前生成式 AI 各種群魔亂舞下推出的 Bedrock 服務,其官網說明可以快速且傻瓜式的部屬生成式 AI 到你的應用上,看看是不是如其所述的功能強大。
Thumbnail
本篇使用 AWS Lambda 結合 Amazon Bedrock 和 Claude 3 來分析儲存在 Amazon S3 中的圖像的示範
Thumbnail
             Amazon Web Services(AWS)宣布致力於AI安全和研究的公司Anthropic的模型Claude 3系列將於Amazon Bedrock提供服務。Claude 3系列模型具備業界領先的準確性、效能、速度和成本優勢。這一進展將強化各種規模的企業
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在某些情況下,別人提供的 Pretrained Transformer Model 效果不盡人意,可能會想要自己做 Pretrained Model,但是這會耗費大量運
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 75 ,我們在給定句子 「 Transformers possess surprising emerging features 」的情
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
  這回來介紹 AWS 在目前生成式 AI 各種群魔亂舞下推出的 Bedrock 服務,其官網說明可以快速且傻瓜式的部屬生成式 AI 到你的應用上,看看是不是如其所述的功能強大。
Thumbnail
本篇使用 AWS Lambda 結合 Amazon Bedrock 和 Claude 3 來分析儲存在 Amazon S3 中的圖像的示範
Thumbnail
             Amazon Web Services(AWS)宣布致力於AI安全和研究的公司Anthropic的模型Claude 3系列將於Amazon Bedrock提供服務。Claude 3系列模型具備業界領先的準確性、效能、速度和成本優勢。這一進展將強化各種規模的企業