嗨,我是 CCChen。
這一篇文章,我同時具備三個身分:
- 實際取得 資策會「生成式 AI 能力認證」與「人工智慧工程素養認證」的合格證書獲證者
- 長期關注 iPAS、資策會、企業AI內訓教材的分析者
- 以及站在「AI相關學習應用」觀察者,重視高效學習策略與分享協助的人

如果你現在還在問:「生成式 AI 考試,是不是該再多刷一點題?」
那這篇文章,就是為你特別準備的。

文章最後提供練習題目供學習參考
資策會生成式 AI 認證 - 15 題基礎概念模擬試題 (CCChen提供)
資策會生成式 AI 認證 - 15 題重要核心模擬考題 (CCChen提供)
一、先給你「資策會生成式 AI 能力認證」的分析全貌
▶ 2026 年生成式 AI 能力認證:十大核心考試項目
這是出題時的思考優先等級:
- 生成式 AI 核心原理(LLM、Transformer、Token、Attention)
- Prompt Engineering 與 Context Engineering
- 生成式 AI 應用場景設計與限制
- RAG(Retrieval-Augmented Generation)架構
- 模型幻覺(Hallucination)與風險控管
- 資料治理、隱私、資安與法規意識
- No-code / Low-code × GenAI 整合應用
- Agent / Agentic AI / 多代理協作
- 模型部署、API、MLOps 與運行思維
- AI 倫理、責任 AI、企業導入治理
👉 提醒:
這張清單不是要你「每一項都背滿」,而是要你知道——哪一些題目,是出題者最容易拿來「懂概念 / 測理解 / 知應用」的地方。
二、考前一定要「看得懂」的基礎知識
▶ 50 個基礎專業名詞(不會考定義,但會考理解)
- LLM(Large Language Model)
- Token
- Context Window
- Transformer
- Self-Attention
- Encoder / Decoder
- Prompt
- Zero-shot / Few-shot
- Temperature
- Top-k / Top-p
- Embedding
- Vector Database
- Similarity Search
- RAG
- Chunking
- Metadata
- Hallucination
- Fine-tuning
- Instruction Tuning
- RLHF
- API
- Latency
- Throughput
- Inference
- Model Drift
- Data Leakage
- PII
- Anonymization
- Federated Learning
- Human-in-the-loop
- Human-over-the-loop
- Responsible AI
- Explainability
- Bias
- Fairness
- No-code
- Low-code
- Workflow Automation
- Agent
- Tool Calling
- Orchestration
- Prompt Template
- System Prompt
- Context Injection
- Model Deployment
- Cloud vs On-Prem
- Cost Control
- Usage Quota
- Rate Limit
- Governance


👉 考前重點:
不是背,而是能回答一句話:
「這個名詞,在企業導入AI時會卡在哪?」
三、真正會拉開分數差距的專業知識
▶ 50 個「專業級」知識點名詞(高鑑別度)
- Attention Head
- Positional Encoding
- Long-context Degradation
- Prompt Leakage
- Context Collapse
- Embedding Drift
- Hybrid Search
- RAG Recall vs Precision
- Knowledge Cutoff
- Tool-grounded Generation
- Agent Planner
- Reflection Mechanism
- Memory Module
- Function Calling
- Prompt Injection
- Jailbreak
- Red Teaming
- Safety Alignment
- Output Guardrails
- Evaluation Harness
- Offline Evaluation
- Online A/B Testing
- Prompt Versioning
- Token Cost Optimization
- Batch Inference
- Streaming Response
- Multimodal Input
- Vision-Language Model
- Speech-to-Text (ASR)
- Text-to-Speech (TTS)
- Data Lineage
- Access Control
- Zero Trust Architecture
- Model Registry
- Canary Deployment
- Shadow Deployment
- Auto Prompt Engineer
- Graph Prompting
- Context Engineering
- Semantic Chunking
- Knowledge Graph
- MCP(Model Context Protocol)
- A2A(Agent-to-Agent)
- API Gateway
- Rate Throttling
- Failover
- Cost Attribution
- Audit Log
- Compliance by Design
- AI Governance Framework
CCChen提醒:這一區,最常出現在「情境題 + 選項陷阱」。



四、2026 年「重要AI平台趨勢」的彙整

▶ 10 個最新 AI 工具趨勢 × 功能用途
- ChatGPT / GPT-4.x / GPT-OSS:通用生成、Agent 框架核心
- Gemini:多模態、長上下文處理
- Claude:長文分析、低幻覺傾向
- NotebookLM:企業知識整理 × RAG 示範
- Perplexity:搜尋 × 生成混合架構
- GitHub Copilot:程式生成 × 開發流程
- LangChain / LlamaIndex:RAG 與 Agent 框架
- Vector DB(Pinecone / FAISS / Milvus):語意檢索核心
- No-code AI 平台(Copilot Studio 等):非工程導入
- Agent Frameworks:自動任務拆解與協作
👉 考試不考你「會不會用」,
而是考你:
「你知道它適合用在什麼地方、不適合什麼地方。」
五、考試前,真正有效的複習策略
✔️ 1. 停止「補新知識」
考前幾天再開新主題學習,風險極高。
✔️ 2. 改成「反向提問」
對每一題問自己三件事:
- 出題者想測什麼?
- 哪個選項是「看起來對,其實錯」?
- 企業情境下,這題會怎麼被用錯?
✔️ 3. 練「口頭解釋」
你能不能不用術語,跟主管說清楚一個概念?
說不出來,代表還沒真的懂。
✔️ 4. 把錯題當教材
錯題不是弱點,是出題邏輯的入口。
六、我為什麼分享這些訊息?
因為我是親自考過資策會相關認證。
也真的花過時間,把資策會、iPAS、企業內訓的題目,一題一題拆開分析理解。
我很清楚:這張證照,不是要你變工程師,而是要你成為——知道 生成式AI 能做什麼、不能做什麼、該怎麼負責的人。

如果你現在能冷靜把這篇文章認真看完,那代表你已經站在「理解」這一側,而不是「死背」。
希望這篇文章,對於"資策會 生成式AI能力證"的考生能有很實質性與立即性的學習幫助。



— CCChen 心語
「考試不是為了證明你懂多少,而是證明你知道什麼時候該停手、什麼時候該判斷。」
CCChen 2026/1/21 分享更新
資策會生成式 AI 認證 - 15 題基礎概念模擬試題 (CCChen整理提供)
【主題一:生成式 AI 定義與原理】
1. 生成式 AI (AIGC) 的核心定義 與傳統的分析式 AI 或單純的數據處理軟體不同,若我們要精準定義「生成式人工智慧(Generative AI)」的核心功能與產出特性,下列哪一個選項的描述最為貼切且完整?
- (A) 一種專門用於大數據清洗與分類的統計工具
- (B) 一種利用人工智慧技術來創造文字、影像、音訊等新內容的過程
- (C) 一種用於增強現實(AR)場景建構的硬體設備
- (D) 一種僅能執行固定指令自動化的機器人流程
- 正確答案:(B)
2. AIGC 技術的運作基礎 關於生成式 AI 技術(AIGC)如何達成類似人類創作的效果,若從其底層運作邏輯與資料處理的方式來看,下列哪一項敘述最符合其技術原理?
- (A) 透過對大量訓練資料的整合分析,使模型能模擬人類的思考邏輯進行產出
- (B) 透過複製人類大腦的生物細胞結構,產生真實的自我意識
- (C) 依賴工程師手動編寫數百萬條規則來回應所有可能的問題
- (D) 僅利用關鍵字檢索資料庫中既有的文章進行拼接
- 正確答案:(A)
3. 機器學習中的損失函數 (Loss Function) 在訓練生成式 AI 模型的過程中,為了讓模型生成的結果越來越接近理想目標,演算法會使用「損失函數(Loss Function)」來進行數學運算。請問該函數在訓練過程中的主要作用為何?
- (A) 用來刪除訓練資料集中不必要的雜訊與錯誤
- (B) 用來衡量模型「生成的數據」與「真實數據」之間的相似程度與誤差
- (C) 用來增加模型參數量,以提升運算速度
- (D) 用來將生成的圖片自動轉換為向量圖檔
- 正確答案:(B)
4. 深度學習開發框架的識別 在進行深度學習模型(如圖片生成或自然語言處理)的開發與訓練時,工程師通常會依賴特定的程式框架(Framework)。請問下列哪一個選項不屬於常用的深度學習開發框架?
- (A) TensorFlow
- (B) PyTorch
- (C) Keras
- (D) Microsoft Excel
- 正確答案:(D)
【主題二:模型架構與技術細節】
5. 生成式對抗網路 (GAN) 的核心機制 生成式對抗網路(GAN)是圖像生成領域非常重要的技術架構。請問該模型是依賴哪兩個內部的神經網路組件,透過彼此的相互競爭與博弈,最終產出高品質的生成結果?
- (A) 編碼器 (Encoder) 與 解碼器 (Decoder)
- (B) 生成器 (Generator) 與 鑑別器 (Discriminator)
- (C) 卷積層 (Convolution) 與 池化層 (Pooling)
- (D) 注意力機制 (Attention) 與 前饋網路 (Feed-forward)
- 正確答案:(B)
6. GAN 生成器的訓練目標 在生成式對抗網路(GAN)的訓練過程中,負責產出內容的「生成器(Generator)」與負責審核的「鑑別器」目標相反。請問生成器的最終訓練目標是為了達成下列哪一項任務?
- (A) 準確地將輸入的圖片進行分類與標註
- (B) 創造出與訓練資料集特徵極為相似的新資料,以騙過鑑別器
- (C) 盡可能快速地剔除資料集中的異常數值
- (D) 將高維度的圖像資料壓縮成低維度的向量
- 正確答案:(B)
7. 隨機雜訊與圖像生成 有一種特定的深度學習模型,以能夠將輸入的「隨機雜訊(Random Noise)」逐步轉化為具備逼真細節的圖像而聞名。請問這通常是指下列哪一種模型架構?
- (A) 生成式對抗網路 (GAN)
- (B) 轉換器模型 (Transformer)
- (C) 循環神經網路 (RNN)
- (D) 支援向量機 (SVM)
- 正確答案:(A)
8. 大型語言模型 (LLM) 的基石 現代的大型語言模型(如 ChatGPT、BERT)之所以能表現出卓越的語意理解與上下文處理能力,主要是因為它們都基於哪一種具備「注意力機制」的深度學習架構?
- (A) Transformer 架構
- (B) 隨機森林 (Random Forest)
- (C) 卷積神經網路 (CNN)
- (D) 遞歸神經網路 (RNN)
- 正確答案:(A)
9. LSTM 模型與 RNN 的差異 在處理音樂生成或長篇文本等序列資料時,傳統的循環神經網路(RNN)容易遇到記憶力不足的問題。請問「長短期記憶模型(LSTM)」相較於傳統 RNN,在生成式 AI 應用中最大的優勢為何?
- (A) 模型結構更簡單,運算速度快十倍
- (B) 更能有效處理序列資料中的「長期依賴關係(Long-term Dependencies)」
- (C) 不需要任何訓練資料即可運作
- (D) 專門用於靜態圖像的畫質修復
- 正確答案:(B)
10. 循環神經網路的英文全稱 在人工智慧的專有名詞中,專門用於處理時間序列資料(如語音、文字)的基礎模型「RNN」,其正確的英文全名與中文翻譯應為下列何者?
- (A) Recursive Neural Networks (遞迴神經網路)
- (B) Recurrent Neural Networks (循環神經網路)
- (C) Random Neural Networks (隨機神經網路)
- (D) Reinforcement Neural Networks (增強神經網路)
- 正確答案:(B)
【主題三:模型特性與應用現象】
11. AI 幻覺 (Hallucination) 現象 在使用大型語言模型進行問答時,有時會發現模型自信地陳述錯誤的事實,或編造不存在的歷史事件。請問在生成式 AI 領域中,這種現象被稱為什麼?
- (A) 模型過擬合 (Overfitting)
- (B) 梯度消失 (Vanishing Gradient)
- (C) 幻覺 (Hallucination)
- (D) 資料投毒 (Data Poisoning)
- 正確答案:(C)
12. 模型訓練的必要資料類型 若企業希望訓練一個專門用於「撰寫行銷文案」與「回答客戶信件」的生成式 AI 模型,在準備訓練資料集時,最核心且不可或缺的資料類型是哪一種?
- (A) 高解析度的圖片資料
- (B) 大量的文字文本資料
- (C) 各種頻率的音訊波形資料
- (D) 3D 模型的幾何數據
- 正確答案:(B)
13. 檢索增強生成 (RAG) 的運作原理 為了改善語言模型的幻覺問題並補足最新知識,技術人員常使用「檢索增強生成(RAG)」技術。請問該技術如何利用外部搜尋到的資訊來提升生成品質?
- (A) 將搜尋到的資訊直接覆蓋掉模型的原始權重
- (B) 將外部資訊作為輸入模型時的參考上下文(Context)的一部分
- (C) 僅用外部資訊來驗證結果,不參與生成過程
- (D) 將文字資訊轉化為圖片讓模型進行視覺辨識
- 正確答案:(B)
14. 微軟生態系中的語音合成工具 在生成式 AI 的多模態應用中,若開發者希望使用微軟(Microsoft)提供的雲端服務來進行高品質的「文字轉語音(TTS)」功能,應選擇下列哪一項產品?
- (A) Amazon Polly
- (B) Google WaveNet
- (C) Microsoft Azure AI Speech
- (D) IBM Watson Text to Speech
- 正確答案:(C)
15. LLM 效能提升的關鍵因素 根據目前生成式 AI 的發展路徑,若要提升大型語言模型(LLM)在理解複雜任務與生成多樣化內容的表現,除了增加算力外,下列哪一項被視為技術改進的關鍵?
- (A) 大幅減少訓練資料量以加快速度
- (B) 擴展並學習更多樣化的語言模式與結構
- (C) 限制模型只能處理單一語言
- (D) 移除模型中的注意力機制模組
- 正確答案:(B)
資策會生成式 AI 認證 - 15 題重要核心模擬考題(CCChen提供)
【主題一:基礎知識與模型原理】
1. 關於生成式對抗網路(GAN)的運作架構與核心邏輯 在深度學習領域中,生成式對抗網路(GAN)以其能夠從隨機雜訊中生成逼真圖像而聞名。若我們深入剖析其內部運作機制,該模型是依靠哪兩個關鍵神經網路組件之間的相互競爭、博弈與演化,最終達到騙過對方並優化生成結果的目的?
- (A) 編碼器 (Encoder) 與解碼器 (Decoder) 的協同合作
- (B) 生成器 (Generator) 與鑑別器 (Discriminator) 的對抗
- (C) 卷積層 (Convolution) 與池化層 (Pooling) 的堆疊
- (D) 注意力機制 (Self-Attention) 與前饋神經網路的結合
- 正確答案:(B)
2. 大型語言模型(LLM)的基礎技術架構 當一家科技公司計畫開發類似 ChatGPT 的大型語言模型(LLM),目標是讓模型具備極強的語意理解能力,能夠捕捉長篇文本中字詞的上下文關聯性(Contextual Relationships),並且解決傳統 RNN 無法平行運算的問題。請問目前主流的 LLM 都是基於哪一種深度學習架構所建構的?
- (A) Transformer 模型架構
- (B) 隨機森林 (Random Forest) 演算法
- (C) 詞袋模型 (Bag-of-Words) 技術
- (D) 支援向量機 (Support Vector Machine)
- 正確答案:(A)
3. 處理時間序列與長期依賴關係的模型選擇 在進行 AI 音樂創作、語音合成或長篇文本生成等任務時,資料具有強烈的時間序列特性。傳統的循環神經網路(RNN)往往面臨「遺忘早期資訊」的問題。請問哪一種改進型的模型設計了特殊的「閘門」機制,專門用來解決此類「長期依賴(Long-term Dependency)」的問題?
- (A) 卷積神經網路 (CNN)
- (B) 長短期記憶模型 (LSTM)
- (C) 光學字元辨識 (OCR)
- (D) 擴散模型 (Diffusion Model)
- 正確答案:(B)
【主題二:能力強化與提示詞工程】
4. 解決 AI 幻覺與知識更新的技術:RAG 大型語言模型常因訓練資料截止日期的限制或機率生成的特性,而產生內容虛構的「幻覺(Hallucination)」現象。為了在企業應用中確保回答的正確性與即時性,檢索增強生成(RAG)技術採取了下列哪一種運作模式來優化模型輸出?
- (A) 直接修改模型內部的神經網路權重參數
- (B) 將外部檢索到的正確資訊作為「提示詞上下文」餵給模型參考
- (C) 僅在模型訓練階段增加資料量,生成時不進行任何處理
- (D) 將文字轉化為圖片格式,強迫模型進行影像辨識
- 正確答案:(B)
5. 提升邏輯推理準確度的提示詞策略:CoT 當使用者要求生成式 AI 解決複雜的數學應用題或多步驟的邏輯推理問題時,若直接要求答案,AI 容易發生計算錯誤。為了改善此問題,提示工程師通常會使用哪一種策略,引導模型在給出最終答案前,先展示中間的思考與推理過程?
- (A) 零樣本學習 (Zero-shot Learning)
- (B) 思路鏈 (Chain-of-Thought, CoT)
- (C) 逆向工程提示 (Reverse Engineering)
- (D) 情感分析提示 (Sentiment Prompting)
- 正確答案:(B)
6. 資料前處理中的缺漏值處理原則 在準備訓練生成式 AI 模型或進行數據分析的「資料前處理(Data Pre-processing)」階段,如果發現原始數據集中存在部分欄位數值缺漏(Missing Values),為了維持資料的統計完整性並避免偏差,下列哪一種做法通常被認為是最不適當且高風險的?
- (A) 使用該欄位的平均值或中位數進行填補
- (B) 利用統計回歸模型預測可能的數值
- (C) 直接將包含缺漏值的整筆資料列(Row)全數刪除
- (D) 將缺漏值標記為一個特殊的類別(如 N/A)
- 正確答案:(C)
7. 提示詞工程中的角色設定(Persona)應用 在使用 ChatGPT 等工具撰寫商務郵件或專業報告時,若發現 AI 產出的語氣過於平淡或缺乏該行業的專業度,提示工程(Prompt Engineering)建議使用下列哪一種技巧,能最快速有效地讓 AI 的用詞與語氣對齊特定職業標準(如資深律師或行銷總監)?
- (A) 在提示詞中明確定義 AI 的「角色設定 (Persona)」
- (B) 嚴格限制 AI 輸出的總字數在 50 字以內
- (C) 要求 AI 使用大量冷僻且艱澀的學術術語
- (D) 要求 AI 忽略所有的道德與安全限制
- 正確答案:(A)
【主題三:應用技能與工具操作】
8. 維持 AI 生成圖像的品牌一致性 某行銷設計團隊正在使用 Midjourney 或 Stable Diffusion 等工具生成一系列產品宣傳圖。為了確保產出的圖片在風格、色調與構圖上具有高度的「品牌一致性」,避免每次生成都像不同品牌的作品,下列哪一種操作策略最為有效?
- (A) 每次生成都隨機更換不同的種子碼 (Seed) 以增加創意
- (B) 在提示詞中僅使用抽象的情感形容詞
- (C) 統一使用特定的風格模板 (Style Template) 或微調後的模型
- (D) 讓 AI 完全自由發揮,不設定任何風格限制
- 正確答案:(C)
9. 商品攝影後製與模擬補光工具 在電商商品圖的自動化生產流程中,設計師將商品去背後合成到新的場景中,常會發現商品的光影與背景不合。此時,若要利用 AI 工具對主體進行「模擬補光(Relight)」以修正光線方向與色溫,下列哪一款工具最具代表性?
- (A) Clipdrop
- (B) Remove.bg
- (C) Excel 分析工具箱
- (D) Notepad 記事本
- 正確答案:(A)
10. 企業級語音合成服務的選擇 許多企業在建置智慧客服系統時,需要導入高品質的文字轉語音(Text-to-Speech, TTS)技術,以提供接近真人的語音互動體驗。若該企業指定使用微軟(Microsoft)生態系中的 AI 語音解決方案,應選擇下列哪一項服務?
- (A) Amazon Polly
- (B) Google WaveNet
- (C) Azure AI Speech
- (D) Apple Siri (傳統版)
- 正確答案:(C)
11. 圖像生成式填補(Outpainting)的失敗場景 當設計師使用 Photoshop 的「生成式填補(Generative Fill)」功能來擴展圖片邊界(Outpainting)時,AI 需要參考原圖邊緣的像素來預測延伸內容。請問在下列哪一種原始影像狀態下,AI 最容易判讀失敗,導致生成出扭曲、斷裂或不自然的拼接畫面?
- (A) 背景為單純色塊或均勻漸層的影像
- (B) 原始影像邊緣紋理極度混亂、斷裂且缺乏規律性
- (C) 主體位於畫面正中央且輪廓非常清晰
- (D) 解析度極高且光線充足的風景照片
- 正確答案:(B)
【主題四:倫理、法規與隱私安全】
12. 歐盟人工智慧法案(EU AI Act)的監管邏輯 被視為全球 AI 監管標竿的歐盟《人工智慧法案》(EU AI Act),其立法精神並非採取「一刀切」的全面禁止,而是採取了更靈活的管理框架。請問該法案是依據什麼標準來區分 AI 系統,並給予不同程度的合規義務要求?
- (A) 依據 AI 應用場景的「風險程度 (Risk-based approach)」進行分級
- (B) 僅針對來自非歐盟國家的 AI 軟體進行嚴格審查
- (C) 要求所有 AI 模型的原始程式碼必須無條件開源
- (D) 禁止所有涉及個人資料蒐集的 AI 商業應用
- 正確答案:(A)
13. 敏感資料處理與隱私保護架構 醫療、金融等高度監管行業在導入生成式 AI 協助業務時(例如分析病歷或財務報表),為了確保敏感個資不外洩且不被公共模型用於訓練,應採用下列哪一種架構設計來達到「資料隔離」與「不侵犯隱私」的雙重目標?
- (A) 將加密資料直接上傳至公開版的免費聊天機器人
- (B) 建立資料孤島 (Data Silos) 或地端隔離環境,阻絕與外部模型連線
- (C) 關閉企業內部的防火牆以加速資料傳輸效率
- (D) 僅使用未經加密的電子郵件傳輸資料
- 正確答案:(B)
14. AI 生成內容的透明度標示義務 根據歐盟 AI 法案的透明度規定以及著作權法的合理使用原則,當企業在對外發布的行銷文案、報告或多媒體素材中,使用了生成式 AI 協助產出內容時,為了符合倫理規範並降低法律風險,最標準的作業程序(SOP)應包含下列何者?
- (A) 刻意隱瞞 AI 參與的事實,宣稱內容完全由人類原創
- (B) 明確標示「由 AI 協助產出」並進行人工的事實查核與侵權審查
- (C) 僅在公司內部的會議記錄中備註,不對外公開說明
- (D) 自動放棄該內容所有的智慧財產權主張
- 正確答案:(B)
15. 可信賴 AI 倫理準則的核心要素 歐盟提出的《可信賴 AI 倫理準則》(Ethics Guidelines for Trustworthy AI)是全球企業開發 AI 的重要參考依據,強調 AI 必須具備合法性、倫理性與穩健性。在具體的執行原則中,下列哪一項通常不被視為核心的「倫理」要求,而是偏向商業或功能性的目標?
- (A) 透明性 (Transparency) - 要求決策過程可被解釋
- (B) 公平性 (Fairness) - 避免演算法偏見與歧視
- (C) 實用性 (Utility) - 單純追求功能強大與利潤最大化
- (D) 問責制 (Accountability) - 確保有人對 AI 的結果負責
- 正確答案:(C)
分享知識圖卡整理 CCChen 2026/1/22更新






















