練習題1-10

更新於 發佈於 閱讀時間約 6 分鐘

問題:1

  一位 AI 從業人員使用包含機密資料的訓練資料集,在 Amazon Bedrock 上訓練了一個自訂模型。這位 AI

  從業人員希望確保自訂模型不會根據機密資料生成推論回應。

  這位 AI 從業人員應該如何防止基於機密資料的回應?

  A. 刪除自訂模型。從訓練資料集中移除機密資料。重新訓練自訂模型。

  B. 使用動態資料遮罩來遮罩推論回應中的機密資料。

  C. 使用 Amazon SageMaker 加密推論回應中的機密資料。

  D. 使用 AWS Key Management Service (AWS KMS) 加密自訂模型中的機密資料。

答案:A

  問題:2

  Amazon OpenSearch Service 的哪項功能讓公司能夠建立向量資料庫應用程式?

  A. 與 Amazon S3 整合以進行物件儲存

  B. 支援地理空間索引和查詢

  C. 可擴展的索引管理和最近鄰搜尋能力

  D. 能夠對串流資料執行即時分析

答案:C

  問題:3

  一家公司希望顯示其過去 12 個月在各零售地點最暢銷產品的總銷售額。

  該公司應該使用哪種 AWS 解決方案來自動生成圖表?

  A. Amazon Q in Amazon EC2

  B. Amazon Q Developer

  C. Amazon Q in Amazon QuickSight

  D. Amazon Q in AWS Chatbot

答案:C

  問題:4

  一家公司希望為兒童建立一個互動式應用程式,該應用程式能根據經典故事生成新故事。該公司希望使用 Amazon

  Bedrock,並需要確保結果和主題適合兒童。

  哪項 AWS 服務或功能將滿足這些要求?

  A. Amazon Rekognition

  B. Amazon Bedrock playgrounds

  C. Guardrails for Amazon Bedrock

  D. Agents for Amazon Bedrock

答案:C

  問題:5

  一家公司開發了一個用於圖像分類的機器學習模型。該公司希望將模型部署到生產環境,以便網路應用程式可以使用該模型。

  該公司需要實施一個解決方案來託管模型並提供預測,而無需管理任何底層基礎設施。

  哪種解決方案將滿足這些要求?

  A. 使用 Amazon SageMaker Serverless Inference 來部署模型。

  B. 使用 Amazon CloudFront 來部署模型。

  C. 使用 Amazon API Gateway 來託管模型並提供預測。

  D. 使用 AWS Batch 來託管模型並提供預測。

答案:A

問題:6

  一家公司擁有數 PB 的未標記客戶資料,用於廣告活動。該公司希望將客戶分類為不同層級,以推廣公司的產品。

  該公司應該使用哪種方法來滿足這些要求?

  A. 監督式學習

  B. 非監督式學習

  C. 強化學習

  D. 從人類回饋中進行強化學習 (RLHF)

答案:B

  問題:7

  一家公司每季都會進行預測,以決定如何優化營運以滿足預期需求。該公司使用機器學習模型進行這些預測。

  一位 AI 從業人員正在撰寫一份關於已訓練機器學習模型的報告,以向公司利害關係人提供透明度和可解釋性。

  這位 AI 從業人員應該在報告中包含什麼,以滿足透明度和可解釋性要求?

  A. 模型訓練的程式碼

  B. 部分依賴圖 (PDPs)

  C. 訓練用的範例資料

  D. 模型收斂表

答案:B

  問題:8

  哪種選項是生成式 AI 模型的一個使用案例?

  A. 使用入侵偵測系統改善網路安全

  B. 根據文字描述為數位行銷創建逼真的圖像

  C. 使用優化索引來增強資料庫效能

  D. 分析財務資料以預測股市趨勢

答案:B

  問題:9

  一位 AI 從業人員正在使用大型語言模型 (LLM) 為行銷活動創建內容。生成的內容聽起來合理且真實,但實際上是錯誤的。

  這個 LLM 遇到了什麼問題?

  A. 資料洩漏

  B. 幻覺

  C. 過度擬合

  D. 擬合不足

答案:B

  問題:10

  一家貸款公司正在建立一個基於生成式 AI 的解決方案,根據特定的業務標準為新申請人提供折扣。該公司希望負責任地建立和使用 AI

  模型,以最大程度地減少可能對某些客戶產生負面影響的偏見。

  該公司應該採取哪些行動來滿足這些要求? (選擇兩項。)

  A. 偵測資料中的不平衡或差異。

  B. 確保模型頻繁運行。

  C. 評估模型的行為,以便公司可以為利害關係人提供透明度。

  D. 使用 ROUGE (Recall-Oriented Understudy for Gisting Evaluation) 技術來確保模型 100% 準確。

  E. 確保模型的推論時間在可接受的範圍內。

答案:A C

留言
avatar-img
留言分享你的想法!
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
9會員
263內容數
現職 : 富邦建設資訊副理 證照:經濟部 iPAS AI應用規劃師
2025/07/01
ROUGE(Recall-Oriented Understudy for Gisting Evaluation) 是一組廣泛用於自然語言處理(NLP)中自動摘要和機器翻譯等文本生成質量評估的指標。 主要特點包括: • 評估方式:ROUGE 通過比較機器生成的文本(候選文本)與一個或多個人工撰寫
2025/07/01
ROUGE(Recall-Oriented Understudy for Gisting Evaluation) 是一組廣泛用於自然語言處理(NLP)中自動摘要和機器翻譯等文本生成質量評估的指標。 主要特點包括: • 評估方式:ROUGE 通過比較機器生成的文本(候選文本)與一個或多個人工撰寫
2025/06/30
BERTScore 是一種先進的自然語言處理(NLP)評估指標,用於衡量兩段文本之間的語義相似度。它利用預訓練的BERT模型(及其變體如RoBERTa、XLNet)生成的上下文詞向量(contextual embeddings),通過計算候選文本與參考文本中詞彙向量的餘弦相似度,來評估文本的語義匹配
2025/06/30
BERTScore 是一種先進的自然語言處理(NLP)評估指標,用於衡量兩段文本之間的語義相似度。它利用預訓練的BERT模型(及其變體如RoBERTa、XLNet)生成的上下文詞向量(contextual embeddings),通過計算候選文本與參考文本中詞彙向量的餘弦相似度,來評估文本的語義匹配
2025/06/30
Amazon SageMaker Feature Store 是一個全託管的機器學習特徵(features)儲存和管理服務,專門用於建立、儲存、共用和管理機器學習模型所需的特徵資料。 主要功能和特點包括: • 集中管理特徵資料:作為機器學習特徵的單一事實來源,方便特徵的儲存、擷取、移除、追蹤、
2025/06/30
Amazon SageMaker Feature Store 是一個全託管的機器學習特徵(features)儲存和管理服務,專門用於建立、儲存、共用和管理機器學習模型所需的特徵資料。 主要功能和特點包括: • 集中管理特徵資料:作為機器學習特徵的單一事實來源,方便特徵的儲存、擷取、移除、追蹤、
看更多
你可能也想看
Thumbnail
家中修繕或裝潢想要找各種小零件時,直接上網採買可以省去不少煩惱~看看Sylvia這回為了工地買了些什麼吧~
Thumbnail
家中修繕或裝潢想要找各種小零件時,直接上網採買可以省去不少煩惱~看看Sylvia這回為了工地買了些什麼吧~
Thumbnail
👜簡單生活,從整理包包開始!我的三款愛用包+隨身小物清單開箱,一起來看看我每天都帶些什麼吧🌿✨
Thumbnail
👜簡單生活,從整理包包開始!我的三款愛用包+隨身小物清單開箱,一起來看看我每天都帶些什麼吧🌿✨
Thumbnail
創作者營運專員/經理(Operations Specialist/Manager)將負責對平台成長及收入至關重要的 Partnership 夥伴創作者開發及營運。你將發揮對知識與內容變現、影響力變現的精準判斷力,找到你心中的潛力新星或有聲量的中大型創作者加入 vocus。
Thumbnail
創作者營運專員/經理(Operations Specialist/Manager)將負責對平台成長及收入至關重要的 Partnership 夥伴創作者開發及營運。你將發揮對知識與內容變現、影響力變現的精準判斷力,找到你心中的潛力新星或有聲量的中大型創作者加入 vocus。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型,並在 AI說書 - 從0開始 - 115 載入權重並執行 Tokenizing,現
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 總結一下目前有的素材: AI說書 - 從0開始 - 103:資料集載入 AI說書 - 從0開始 - 104:定義資料清洗的函數 AI說書 - 從0開始 - 105
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經有資料集在 AI說書 - 從0開始 - 103 ,必要的清理函數在 AI說書 - 從0開始 - 104 ,現在把它們湊在一起,如下: # load Eng
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經有資料集在 AI說書 - 從0開始 - 103 ,必要的清理函數在 AI說書 - 從0開始 - 104 ,現在把它們湊在一起,如下: # load Eng
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
延續上週提到的,「有哪些不訓練模型的情況下,能夠強化語言模型的能力」,這堂課接續介紹其中第 3、4 個方法
Thumbnail
延續上週提到的,「有哪些不訓練模型的情況下,能夠強化語言模型的能力」,這堂課接續介紹其中第 3、4 個方法
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News