練習題71-80

更新於 發佈於 閱讀時間約 5 分鐘

問題:71

  哪個指標衡量操作 AI 模型的運行時效率?

  A. 客戶滿意度分數 (CSAT)

  B. 每個週期的訓練時間

  C. 平均回應時間

  D. 訓練實例數量

答案:C

  問題:72

  當微調基礎模型 (FM) 時,持續預訓練有什麼好處?

  A. 有助於降低模型的複雜性

  B. 隨著時間的推移提高模型效能

  C. 減少訓練時間要求

  D. 優化模型推論時間

答案:B

  問題:73

  一位 AI 從業人員希望使用基礎模型 (FM) 來設計一個搜尋應用程式。搜尋應用程式必須處理包含文本和圖像的查詢。

  這位 AI 從業人員應該使用哪種類型的 FM 來驅動搜尋應用程式?

  A. 多模態嵌入模型

  B. 文本嵌入模型

  C. 多模態生成模型

  D. 圖像生成模型

答案:A

  問題:74

  一家公司正在使用 Amazon Bedrock 上的基礎模型 (FM) 來總結內部使用的文件。該公司訓練了一個自訂模型以提高總結品質。

  該公司必須採取哪項行動才能透過 Amazon Bedrock 使用自訂模型?

  A. 為自訂模型購買預置吞吐量。

  B. 將自訂模型部署到 Amazon SageMaker 端點以進行即時推論。

  C. 在 Amazon SageMaker 模型註冊表中註冊模型。

  D. 在 Amazon Bedrock 中授予自訂模型的存取權限。

答案:A

  問題:75

  一家公司建立了一個使用生成式 AI 的解決方案。該解決方案使用大型語言模型 (LLM)

  將訓練手冊從英文翻譯成其他語言。該公司希望透過檢查為手冊生成的文本來評估解決方案的準確性。

  哪種模型評估策略滿足這些要求?

  A. 雙語評估替換研究 (BLEU)

  B. 均方根誤差 (RMSE)

  C. 回憶導向的摘要評估 (ROUGE)

  D. F1 分數

答案:A

  問題:76

  公司如何在 Amazon Bedrock 上安全地使用大型語言模型 (LLM)?

  A. 設計清晰且具體的提示。使用最小權限存取配置 AWS Identity and Access Management (IAM) 角色和政策。

  B. 啟用 AWS Audit Manager 進行自動模型評估作業。

  C. 啟用 Amazon Bedrock 自動模型評估作業。

  D. 使用 Amazon CloudWatch Logs 使模型可解釋並監控偏見。

答案:A

  問題:77

  一家公司正在建立一個客戶服務聊天機器人。該公司希望聊天機器人透過學習過去的互動和線上資源來改善其回應。

  哪種 AI 學習策略提供這種自我改進能力?

  A. 使用手動策劃的良好回應和不良回應資料集進行監督式學習

  B. 透過獎勵積極的客戶回饋來進行強化學習

  C. 使用非監督式學習來尋找類似客戶查詢的群集

  D. 使用持續更新的常見問題資料庫進行監督式學習

答案:B

  問題:78

  一家公司希望部署一個對話式聊天機器人來回答客戶問題。該聊天機器人基於一個微調過的 Amazon SageMaker JumpStart 模型。該應用程式必須遵守多個監管框架。

  該公司可以展示哪些能力的合規性? (選擇兩項。)

  A. 自動擴展推論端點

  B. 威脅偵測

  C. 資料保護

  D. 成本優化

  E. 鬆散耦合的微服務

答案:B C

  問題:79

  一家電子商務公司希望建立一個解決方案,根據客戶對產品的書面評論來判斷客戶情緒。

  哪項 AWS 服務滿足這些要求? (選擇兩項。)

  A. Amazon Lex

  B. Amazon Comprehend

  C. Amazon Polly

  D. Amazon Bedrock

  E. Amazon Rekognition

答案:B D

  問題:80

  一家公司希望使用預訓練的生成式 AI 模型為其行銷活動生成內容。該公司需要確保生成的內容符合公司的品牌語氣和訊息要求。

  哪種解決方案滿足這些要求?

  A. 優化模型的架構和超參數以提高模型的整體效能。

  B. 透過向模型架構添加更多層來增加模型的複雜性。

  C. 建立有效的提示,提供清晰的指令和上下文來引導模型的生成。

  D. 選擇一個大型、多樣化的資料集來預訓練一個新的生成模型。

答案:C

留言
avatar-img
留言分享你的想法!
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
10會員
263內容數
現職 : 富邦建設資訊副理 證照:經濟部 iPAS AI應用規劃師
2025/07/06
問題:61   一家公司希望使用 Amazon SageMaker 建立一個機器學習模型。該公司需要跨多個團隊共享和管理模型開發所需的變數。   哪項 SageMaker 功能滿足這些要求?   A. Amazon SageMaker Feature Store   B. Amazon Sa
2025/07/06
問題:61   一家公司希望使用 Amazon SageMaker 建立一個機器學習模型。該公司需要跨多個團隊共享和管理模型開發所需的變數。   哪項 SageMaker 功能滿足這些要求?   A. Amazon SageMaker Feature Store   B. Amazon Sa
2025/07/06
問題:51   一家公司希望使用 Amazon Bedrock 和上傳到 Amazon S3 的客戶資料來開發大型語言模型 (LLM)   應用程式。該公司的安全政策規定,每個團隊只能存取該團隊自己的客戶資料。   哪種解決方案將滿足這些要求?   A. 為每個團隊建立一個 Amazon B
2025/07/06
問題:51   一家公司希望使用 Amazon Bedrock 和上傳到 Amazon S3 的客戶資料來開發大型語言模型 (LLM)   應用程式。該公司的安全政策規定,每個團隊只能存取該團隊自己的客戶資料。   哪種解決方案將滿足這些要求?   A. 為每個團隊建立一個 Amazon B
2025/07/06
問題:41   一家公司正在建立一個聊天機器人以改善使用者體驗。該公司正在使用 Amazon Bedrock 上的大型語言模型 (LLM)   進行意圖偵測。該公司希望使用少樣本學習來提高意圖偵測準確性。   該公司需要哪些額外資料來滿足這些要求?   A. 聊天機器人回應和正確使用者意圖的
2025/07/06
問題:41   一家公司正在建立一個聊天機器人以改善使用者體驗。該公司正在使用 Amazon Bedrock 上的大型語言模型 (LLM)   進行意圖偵測。該公司希望使用少樣本學習來提高意圖偵測準確性。   該公司需要哪些額外資料來滿足這些要求?   A. 聊天機器人回應和正確使用者意圖的
看更多
你可能也想看
Thumbnail
家中修繕或裝潢想要找各種小零件時,直接上網採買可以省去不少煩惱~看看Sylvia這回為了工地買了些什麼吧~
Thumbnail
家中修繕或裝潢想要找各種小零件時,直接上網採買可以省去不少煩惱~看看Sylvia這回為了工地買了些什麼吧~
Thumbnail
👜簡單生活,從整理包包開始!我的三款愛用包+隨身小物清單開箱,一起來看看我每天都帶些什麼吧🌿✨
Thumbnail
👜簡單生活,從整理包包開始!我的三款愛用包+隨身小物清單開箱,一起來看看我每天都帶些什麼吧🌿✨
Thumbnail
創作者營運專員/經理(Operations Specialist/Manager)將負責對平台成長及收入至關重要的 Partnership 夥伴創作者開發及營運。你將發揮對知識與內容變現、影響力變現的精準判斷力,找到你心中的潛力新星或有聲量的中大型創作者加入 vocus。
Thumbnail
創作者營運專員/經理(Operations Specialist/Manager)將負責對平台成長及收入至關重要的 Partnership 夥伴創作者開發及營運。你將發揮對知識與內容變現、影響力變現的精準判斷力,找到你心中的潛力新星或有聲量的中大型創作者加入 vocus。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 127 中提及: Transformer 的關鍵參數為: 原始 Transformer 模型中,左圖的 N = 6 原始 Tran
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 127 中提及: Transformer 的關鍵參數為: 原始 Transformer 模型中,左圖的 N = 6 原始 Tran
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 xxx 提到,既然提到訓練,就表示要有一套衡量基準供大家遵守,有鑑於此,以下繼續介紹幾類衡量方式: MCC: 首先介紹 True (T) Positive (
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 xxx 提到,既然提到訓練,就表示要有一套衡量基準供大家遵守,有鑑於此,以下繼續介紹幾類衡量方式: MCC: 首先介紹 True (T) Positive (
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 將 AI 工作負載類型與適當的場景相匹配。若要回答,請將適當的工作負載類型從左側列拖曳到右側的場景。每種工作負載類型可以使用一次
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 將 AI 工作負載類型與適當的場景相匹配。若要回答,請將適當的工作負載類型從左側列拖曳到右側的場景。每種工作負載類型可以使用一次
Thumbnail
為了充分發揮AI的潛力,我們必須深入瞭解其運作模式和思考邏輯,並學會與AI對話的技巧。《ChatGPT提問課,做個懂AI的高效工作者》這本書提供了豐富的實例,讓讀者更容易學會如何提出精準的問題,並享有提問課程的閱讀回饋。這對於想成為懂AI的高效工作者的人來說,是一本值得一看的書。
Thumbnail
為了充分發揮AI的潛力,我們必須深入瞭解其運作模式和思考邏輯,並學會與AI對話的技巧。《ChatGPT提問課,做個懂AI的高效工作者》這本書提供了豐富的實例,讓讀者更容易學會如何提出精準的問題,並享有提問課程的閱讀回饋。這對於想成為懂AI的高效工作者的人來說,是一本值得一看的書。
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
Thumbnail
這陣子使用AI模型,還有參考國內外一些喜歡玩語言模型的同好發文,一個很有趣的結論就是,有時候把大型語言模型(尤其ChatGPT)當作一個人來溝通,會得到比較好的結果,這的確是非常反直覺的,也就是說很多時候ChatGPT耍懶不肯工作的時候,你用加油打氣,或是情緒勒索的方法,確實是可以得到比較好的結果。
Thumbnail
這陣子使用AI模型,還有參考國內外一些喜歡玩語言模型的同好發文,一個很有趣的結論就是,有時候把大型語言模型(尤其ChatGPT)當作一個人來溝通,會得到比較好的結果,這的確是非常反直覺的,也就是說很多時候ChatGPT耍懶不肯工作的時候,你用加油打氣,或是情緒勒索的方法,確實是可以得到比較好的結果。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News