(考中級)ipas ai應用規劃師

更新 發佈閱讀 6 分鐘

【重點考題詳解】

1. NLP & 大型語言模型 (LLM)

BERT vs. GPT

    ◦ BERT:採用雙向理解方式,在理解語意時會同時考慮上下文(左右文)。

    ◦ GPT:採用單向生成方式,由左至右理解字詞間的關係。

Embedding (嵌入)

    ◦ 定義:一種將文字轉換為數值向量的方式。

    ◦ 目的:轉換成數值向量後,模型才能進行數學運算與機率推算。

LoRA (Low-Rank Adaptation)

    ◦ 定義:針對大型模型訓練進行微調的技術。

    ◦ 核心概念:在保持預訓練模型權重不變的情況下,顯著減少需要訓練的參數數量。

提示攻擊 (Prompt Attack)

    ◦ 定義:透過設計不良的提示詞 (Prompt) 來引導模型,產生破壞系統的行為。

    ◦ 備註:講者觀察到,初級與中級考試都出現了此考題。

知識蒸餾 (Knowledge Distillation)

    ◦ 概念:將一個大型、複雜模型(教師模型)的知識,轉移到一個較小、輕量模型(學生模型)的過程。

    ◦ 比喻:如同給學生一份附有答案的練習卷,讓學生能快速學習。

    ◦ 缺點:若遇到練習卷(訓練資料)以外的題目,學生模型的表現會較差。

語意切割 (Semantic Segmentation)

    ◦ 定義:將圖像中的每一個像素都分配到一個特定的類別標籤。

    ◦ 目的:方便對圖像中不同的物件或區域進行分類和標示。

2. 機器學習與深度學習模型

CNN (卷積神經網路)

    ◦ 池化層 (Pooling Layer):主要作用是壓縮圖像尺寸、保留重要特徵,並降低參數數量與運算複雜度。

VAE (變分自動編碼器)

    ◦ 核心技術:考題重點為 KL 散度 (Kullback-Leibler divergence) 的應用,透過將潛在變數空間規則化來提升生成能力與泛化能力。

PCA (主成分分析)

    ◦ 核心概念:尋找資料中最大的變異方向

    ◦ 比較:與 LDA (線性判別分析) 不同,LDA 的目標是尋找能讓類別最大化分離的方向。

決策樹剪枝 (Pruning)

    ◦ 目的:如同神經網路的 Dropout 或正規化中的 L1,主要目的是避免模型過度擬合 (Overfitting)

聚類演算法 (Clustering)

    ◦ K-Means vs. DBSCAN

        ▪ K-Means:需要事先指定要分成的群數 (K值)。

        ▪ DBSCAN不需事先指定群數,能自動識別出雜訊點(異常值)

3. MLOps 與模型管理

MLflow

    ◦ 定義:一個用於管理機器學習項目完整生命週期的開源平台,功能包含實驗追蹤、模型訓練、部署與註冊。

模型重新訓練 (Retraining)

    ◦ 目的:使用新的資料對模型進行重新訓練,以提升其解釋力與泛化能力

邊緣部署 (Edge Deployment)

    ◦ 應用情境:當模型需要部署在智慧型手機等終端裝置,以減少網路延遲時,會採用邊緣部署。部分運算在裝置端完成,主要運算才送回雲端中心。

容器 (Container)

    ◦ 功能:確保開發與部署環境的一致性與可移植性。透過 Docker 等技術,可避免本機環境設定衝突的問題。

Human-in-the-loop (HITL)

    ◦ 定義:在模型訓練、調整與優化的過程中,引入人工干預,以改善模型的準確性與解釋性。在 AI 決策中,最終仍需人類介入。

參數 (Parameter) vs. 超參數 (Hyperparameter)

    ◦ 參數:模型在訓練過程中自己學習到的值,例如線性回歸的係數、神經網路的權重。

    ◦ 超參數:在模型訓練開始前,由使用者手動設定的條件,例如隨機森林中決策樹的數量。

4. 資料處理與其他技術

影像分割 (Image Segmentation)

    ◦ 應用:在醫療領域中,可用於標示腫瘤的邊界

防爬蟲機制

    ◦ 應對策略:考題提及了幾種應對防爬蟲機制的方法,如使用多個 IP模仿人類操作、以及進行 Header 驗證

均方根誤差 (RMSE)

    ◦ 定義:將均方誤差 (MSE) 開根號,因為開根號後必為正數,可以抵消正負誤差的影響,避免誤差被過度放大。


【其他提及考題】

數據漂移 (Data Drift)

AI 實驗管理工具:考題詢問用於 AI 模型實驗管理的工具

電腦視覺:考了內容包含圖片分類、物件偵測與分割等四種任務的配對。

未涉及機率的模型:考關於哪類模型通常不涉及生成機率。

• 其他概念:NLP、偏見偵測技術、強化學習 (RL) 相關等。


留言
avatar-img
留言分享你的想法!
avatar-img
ten was的沙龍
3會員
41內容數
ten was的沙龍的其他內容
2025/09/21
這指南帶您快速掌握考試的四大核心領域,深入理解關鍵技術的差異與應用 1. 自然語言處理 (NLP) - 理解與生成文字的藝術 核心模型對比:BERT vs. GPT • BERT (閱讀理解高手)     ◦ 訓練方式: 雙向訓練。它會同時觀察一個字的左右上下文,擅長理解完整的語句脈絡。
2025/09/21
這指南帶您快速掌握考試的四大核心領域,深入理解關鍵技術的差異與應用 1. 自然語言處理 (NLP) - 理解與生成文字的藝術 核心模型對比:BERT vs. GPT • BERT (閱讀理解高手)     ◦ 訓練方式: 雙向訓練。它會同時觀察一個字的左右上下文,擅長理解完整的語句脈絡。
2025/09/19
安裝並維護網路安全控制 (Install and Maintain Network Security Controls) 【簡單來說:用防火牆等工具保護好你的網路邊界,明確定義誰可以進出。】 套用安全組態設定至所有系統元件 (Apply Secure Configurations to Al
2025/09/19
安裝並維護網路安全控制 (Install and Maintain Network Security Controls) 【簡單來說:用防火牆等工具保護好你的網路邊界,明確定義誰可以進出。】 套用安全組態設定至所有系統元件 (Apply Secure Configurations to Al
2025/05/27
2025/05/27
看更多
你可能也想看
Thumbnail
雙11於許多人而言,不只是單純的折扣狂歡,更是行事曆裡預定的,對美好生活的憧憬。 錢錢沒有不見,它變成了快樂,跟讓臥房、辦公桌、每天早晨的咖啡香升級的樣子! 這次格編突擊辦公室,也邀請 vocus「野格團」創作者分享掀開蝦皮購物車的簾幕,「加入購物車」的瞬間,藏著哪些靈感,或是對美好生活的想像?
Thumbnail
雙11於許多人而言,不只是單純的折扣狂歡,更是行事曆裡預定的,對美好生活的憧憬。 錢錢沒有不見,它變成了快樂,跟讓臥房、辦公桌、每天早晨的咖啡香升級的樣子! 這次格編突擊辦公室,也邀請 vocus「野格團」創作者分享掀開蝦皮購物車的簾幕,「加入購物車」的瞬間,藏著哪些靈感,或是對美好生活的想像?
Thumbnail
雙11購物節準備開跑,蝦皮推出超多優惠,與你分享實際入手的收納好物,包括貨櫃收納箱、真空收納袋、可站立筆袋等,並分享如何利用蝦皮分潤計畫,一邊購物一邊賺取額外收入,讓你買得開心、賺得也開心!
Thumbnail
雙11購物節準備開跑,蝦皮推出超多優惠,與你分享實際入手的收納好物,包括貨櫃收納箱、真空收納袋、可站立筆袋等,並分享如何利用蝦皮分潤計畫,一邊購物一邊賺取額外收入,讓你買得開心、賺得也開心!
Thumbnail
分享個人在新家裝潢後,精選 5 款蝦皮上的實用家居好物,包含客製化層架、MIT 地毯、沙發邊桌、分類垃圾桶及寵物碗架,從尺寸、功能到價格都符合需求,並提供詳細開箱心得與購買建議。
Thumbnail
分享個人在新家裝潢後,精選 5 款蝦皮上的實用家居好物,包含客製化層架、MIT 地毯、沙發邊桌、分類垃圾桶及寵物碗架,從尺寸、功能到價格都符合需求,並提供詳細開箱心得與購買建議。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 127 中提及: Transformer 的關鍵參數為: 原始 Transformer 模型中,左圖的 N = 6 原始 Tran
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 127 中提及: Transformer 的關鍵參數為: 原始 Transformer 模型中,左圖的 N = 6 原始 Tran
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
為了充分發揮AI的潛力,我們必須深入瞭解其運作模式和思考邏輯,並學會與AI對話的技巧。《ChatGPT提問課,做個懂AI的高效工作者》這本書提供了豐富的實例,讓讀者更容易學會如何提出精準的問題,並享有提問課程的閱讀回饋。這對於想成為懂AI的高效工作者的人來說,是一本值得一看的書。
Thumbnail
為了充分發揮AI的潛力,我們必須深入瞭解其運作模式和思考邏輯,並學會與AI對話的技巧。《ChatGPT提問課,做個懂AI的高效工作者》這本書提供了豐富的實例,讓讀者更容易學會如何提出精準的問題,並享有提問課程的閱讀回饋。這對於想成為懂AI的高效工作者的人來說,是一本值得一看的書。
Thumbnail
這篇文章討論了自然語言處理技術的發展歷程,從語言模型的引入到深度學習的應用。作者觀察到現今GPT在產出中文國學內容時的深度不足,並提出了自然語言處理領域的倫理使用和版權問題,以及對大眾的影響。最後,作者探討了個人在自然語言領域的發展可能性。
Thumbnail
這篇文章討論了自然語言處理技術的發展歷程,從語言模型的引入到深度學習的應用。作者觀察到現今GPT在產出中文國學內容時的深度不足,並提出了自然語言處理領域的倫理使用和版權問題,以及對大眾的影響。最後,作者探討了個人在自然語言領域的發展可能性。
Thumbnail
本文介紹自我監督學習的概念和訓練方式,以BERT和GPT為例,深入探討Masking Input及Fine-Tune的實際操作和可應用性。
Thumbnail
本文介紹自我監督學習的概念和訓練方式,以BERT和GPT為例,深入探討Masking Input及Fine-Tune的實際操作和可應用性。
Thumbnail
這篇文章介紹瞭如何利用生成式AI(GenAI)來提高學習效率,包括文章重點整理、完善知識體系、客製化學習回饋、提供多元觀點等方法。同時提醒使用者應注意內容的信效度,保持學術誠信,適當運用GenAI能大幅提升工作效率。
Thumbnail
這篇文章介紹瞭如何利用生成式AI(GenAI)來提高學習效率,包括文章重點整理、完善知識體系、客製化學習回饋、提供多元觀點等方法。同時提醒使用者應注意內容的信效度,保持學術誠信,適當運用GenAI能大幅提升工作效率。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News