(考前複習)iPAS AI應用規劃師 初級 08/16 第三場 考古題 解析與說明 CCChen

CHENG-CHIEN CHEN-avatar-img
發佈於CChen的AI學習 個房間
更新 發佈閱讀 24 分鐘

嗨 我是CCChen

iPAS AI應用規劃師 初級 第四場 將於11/01舉行考試

這是2025年的最後一場考試 (一年四場次, 每季一次)

大家都準備好了嗎?

本文CCChen針對之前的親自考試所收集記憶的考古題

提供相關比較有難度的題目,讓大家複習參考一下

希望能更加對於"iPAS AI應用規劃師 初級"的考試題型與難度了解.


1. 批次推論的應用?

批次推論(Batch Serving)指模型在特定時間間隔內,對累積的大量輸入數據進行一次性預測或決策。

應用場景: 適合不需要即時性回饋的任務 。例如:每日的風險預測報表、離線的客戶分群標籤更新、每週的庫存需求估算、夜間的日誌數據分析與匯總等 。

優點: 可高效利用計算資源,降低單次推論成本,適合大規模數據的離線處理 。


2. EDA 應用情境?

探索性資料分析(Exploratory Data Analysis, EDA)是指在資料分析或建模前,運用統計摘要和視覺化工具對資料進行初步探索,以理解資料結構、分佈、關係與潛在問題 。

應用情境:資料品質檢查: 快速偵測缺失值、異常值與重複值 。

特徵理解: 掌握資料的分佈型態(偏度、峰度)、集中趨勢(平均數、中位數)與離散程度(標準差、IQR),為特徵工程與模型選擇提供依據 。

關係探勘: 透過相關係數矩陣或散佈圖,發現變數間的潛在關係或共線性,避免資料失焦或偏誤 。


3. 數發部” AI 產品與系統評測中心”功能項目?

數發部「AI產品與系統評測中心」的具體功能項目未在提供的資料中明確說明。

然而,根據一般AI治理與評測的脈絡,評測中心的功能通常圍繞以下方面展開:

技術穩健性與安全性: 確保AI系統的性能、穩定性、抗攻擊能力及資訊安全(如模型漂移、數據安全)8。

透明度與可解釋性: 評估模型決策過程的透明度與可解釋性,特別是高風險應用 999。

公平性與倫理合規: 檢驗模型是否存在演算法偏見、不公平的歧視結果,並評估對應的治理機制與法規遵循(如數據隱私、個資保護)。


4. 公司判斷員工升遷,使用語音分析情緒內容,屬於AI Act 何種風險?

該應用涉及對個人行為(語音情緒)的自動化分析,並可能用於影響重大決策(升遷)。根據歐盟AI Act的精神,這類影響個人基本權利和社會機制的應用通常被視為高風險應用。在提供的資料脈絡中,這屬於AI治理中需高度關注的演算法偏見與公平性(避免歧視)和決策透明性不足的風險領域 。


5. 公司希望從員工資料預測晉升篩選(姓名/年資/科別單位/是否擔任過主管職務),特徵工程應選擇哪一項作為判斷?

在特徵工程中,應選擇年資和是否擔任過主管職務等具有預測力且合乎邏輯的特徵,並對科別單位進行 One-hot Encoding 或 Target Encoding 轉換 。

姓名: 應移除或雜湊處理(Hashing),因為姓名屬於直接識別資訊,且對晉升預測無意義,會引入隱私洩漏和偏見風險。

年資: 是連續型數值,應進行 Z-score 標準化或正規化,以消除尺度差異,對線性模型訓練尤為重要。

是否擔任過主管職務: 是二元類別變數(0/1),可直接使用或進行 Label Encoding。


6. 線性回歸應用與功能?

功能: 線性迴歸(Linear Regression)是最基礎的監督式學習方法之一,用來建立輸入變數與連續型目標變數之間的線性關係模型 。

它透過最小平方估計(OLS)找出最佳係數,使預測誤差平方和最小化。

應用: 適用於預測連續數值且變數間關係接近線性,例如房價預測、銷售量預測、醫療風險估計、行為建模等,並因其簡單性而具有高解釋性 。


7. 判斷顧客是否會購買商品,屬於何種資料類型?

判斷顧客是否會購買商品(是/否)屬於離散型類別資料(二元分類)。

任務類型: 屬於監督式學習中的分類任務(Classification)。

適用模型: 邏輯迴歸、決策樹、隨機森林等分類模型。


8. 時間序列的應用?

時間序列(Time Series)分析處理的是隨時間順序變化的數據,具有時間依賴性與週期性 。

應用:預測: 股價預測、天氣預報、銷售量/網站流量預測。

監控: 設備感測器數據分析、異常偵測(如金融詐欺、設備故障)。

優化: 能源需求預測、物流和供應鏈排程優化 。

常用模型: ARIMA、SARIMA、LSTM、Transformer、Prophet 。


9. GRU+PPO 功能與應用?

GRU(Gated Recurrent Unit)和 PPO(Proximal Policy Optimization)是強化式學習(Reinforcement Learning, RL)的相關技術。

GRU+PPO 組合的具體功能和應用如下:

GRU 功能: GRU 是遞迴神經網路(RNN)的優化變體,透過門控機制,能捕捉和記憶序列中的長期依賴關係,解決標準 RNN 的梯度消失問題,結構較 LSTM 簡單 26。

PPO 功能: PPO 是一種策略梯度(Policy Gradient)強化式學習算法,用於學習決策策略,目標是最大化長期累積報酬。PPO 透過控制策略更新幅度,使訓練更穩定高效 。

組合應用: GRU 通常作為 PPO 模型的特徵提取器(Policy Network 和 Value Network 的底層),處理連續、序列輸入(如感測器數據、環境狀態)。

應用場景: 常用於自駕車控制、複雜遊戲 AI(如 AlphaGo)、機器人控制、資源調度與配置等動態決策情境 。


10. 詞幹提取與詞性還原敘述於各領域實際應用?

詞幹提取(Stemming)和詞形還原(Lemmatization)是自然語言處理(NLP)中的文字正規化(Normalization)步驟,目的是減少詞彙的變化形式,歸併為同一基本形式,以利於模型識別和計算。

詞形還原(Lemmatization):

目的: 將單詞還原到其字典形式(Lemma),保留語意一致性。結果是有效的單字 。

應用: 情感分析、問答系統、機器翻譯、語意分析等需要高度語意準確度的場景 。

詞幹提取(Stemming):

目的: 通過裁剪詞尾,獲得詞幹(Stem),速度快,但結果不一定為有效單字,可能會失去部分語法或語意資訊 。

應用: 資訊檢索、搜索引擎、主題建模等需要快速處理大規模語料且對語意準確度要求稍低的場景 。


11. 反向傳播的原理與目的?

反向傳播(Backpropagation)是訓練神經網路的關鍵步驟 。

原理: 基於微積分的連鎖律(Chain Rule),從輸出層的損失(Loss)開始,將梯度(損失對每個權重的偏導數)一層層反向傳遞到網路的每一層,計算出每個參數(權重和偏置)應調整的方向和幅度 。

目的: 透過梯度資訊,優化器(Optimizer)沿著損失函數下降最快的方向更新模型參數(權重和偏置),以最小化損失函數,使模型的預測結果更接近真實值 。


12. 針對樣品差異的敏感判斷?

在迴歸任務的評估指標中,對樣本差異(尤其是極端值/離群值)的敏感度是不同的:

對極端值較敏感(會放大差異):

RMSE(均方根誤差): 誤差平方後再求平均,對大誤差懲罰較重,對極端值敏感。

MSE(均方誤差): 誤差平方的平均,對大誤差高度敏感 。

R²(決定係數): 基於殘差平方和(RSS),因此對極端值敏感 。

對極端值較不敏感(較穩健):MAE(平均絕對誤差): 誤差絕對值的平均,對所有誤差給予均等權重,對離群值的敏感度較低,提供穩定的誤差估計 。


13. 資料分析中對離群值較敏感與較不敏感的指標?

較敏感指標(會受極端值顯著影響):

平均數(Mean): 受極端值拉動,會偏離中心位置 。

變異數(Variance)/標準差(Standard Deviation): 計算時納入所有觀測值與平均數的距離平方,對極端值極為敏感 。

較不敏感指標(較穩健):

中位數(Median): 為排序後的中心點,不受極端值影響,是描述偏態分佈或含離群值資料的理想集中趨勢指標 。

四分位距(IQR): 基於資料中間 50%的範圍,不受極端尾部影響 。


14. 一個模型訓練資料包含 30%病人與 70%正常人,訓練結果良好,但是實際上會誤判病人為正常人,應該如何改善?

此問題屬於類別不平衡(Class Imbalance)且假負率(FN,漏診)代價高的典型情況。誤判病人為正常人是假負(False Negative, FN)錯誤,即召回率(Recall)低。

改善方向:

處理資料不平衡(重取樣或加權):類別重加權(Class Weighting): 在損失函數中賦予少數類(病人)更高權重,強化模型對病人的學習能力,減少 FN 錯誤 。

過採樣(Oversampling): 使用 SMOTE 等技術合成或複製少數類樣本,平衡資料集 。

調整評估指標和決策閾值:優先指標: 應以 召回率(Recall) 或 F1 分數為主要評估指標,而非準確率(Accuracy)。結果門檻調整: 對於正類(病人)調低預測分數閾值,使模型更傾向於預測為病人,以降低漏診率 。


15. 混淆矩陣相關簡易計算?

混淆矩陣(Confusion Matrix)是評估分類模型性能的基礎,包含四個基本元素:真正(TP)、真負(TN)、假正(FP)、假負(FN)。

準確率(Accuracy): 預測正確的比例Accuracy = TP + TN/ (TP + TN + FP + FN)

精確率(Precision): 預測為正類中,真正為正的比例Precision = TP/(TP + FP)

召回率(Recall): 實際正類中,被正確預測的比例Recall = TP/(TP + FN)

假正率(False Positive Rate, FPR): 實際負類中,被誤判為正的比例FPR = FP/(FP + TN)


16. 資料不平衡的處理?

資料不平衡(Class Imbalance)指不同類別的樣本數量差異懸殊。

處理策略:資料層面(重取樣):過採樣(Oversampling): 增加少數類樣本(如 SMOTE)。

欠採樣(Undersampling): 減少多數類樣本 。

模型層面:類別重加權(Class Weighting): 在損失函數中賦予少數類更高權重 。

集成學習(Ensemble Learning): 使用 Bagging 或 Boosting 算法,如隨機森林、XGBoost,對不平衡資料具一定抵抗力 。

評估層面: 採用 F1 分數、Recall、ROC-AUC 等指標,而非單純的準確率 。


17. (CoT) 思維鏈應用?

思維鏈(Chain-of-Thought, CoT)是提示工程(Prompt Engineering)中的一種技術,用於引導大型語言模型(LLM)在生成最終答案前,先輸出中間的推理步驟或思維過程 。

目的: 透過將複雜問題分解為多個中間步驟,提升模型處理複雜推理問題(如數學題、邏輯題)的準確性和可解釋性。

應用: 複雜多步推理、數學問題求解、程式碼除錯、複雜文本摘要與分析等。


18. A2A 的目的與應用?

A2A(Application-to-Application)或稱為應用程式介面(API)連接,在AI應用中指的是不同軟體應用系統之間的直接溝通與數據交換 。

目的: 實現AI模型與企業現有系統(如ERP、CRM、MES)之間的無縫整合與數據流通,將AI模型的預測結果服務化並嵌入業務流程,從而實現流程自動化與智慧決策 。

應用: 將AI預測結果(如詐欺偵測分數、推薦清單)透過 API 即時串接給前端應用或後端系統,使CRM自動發送促銷郵件,或ERP根據預測動態調整採購 。


19. MCP 的功能?

MCP(Model Card Playground)不是一個標準的AI術語。在AI治理的脈絡下,最相似且具備功能性描述的應為 Model Card 或 Model Explanation Platform。

Model Card(模型卡)功能: 是一種模型透明性文件,旨在提供關於模型訓練、效能、限制、偏差和適用情境的標準化資訊揭露。幫助開發者、部署者和終端使用者了解模型的優缺點及風險,是AI治理的重要組成部分 。

Model Explanation Platform(模型解釋平台)功能: 透過 LIME/SHAP 等工具,提供模型決策的可解釋性分析,讓使用者理解模型預測的依據和邏輯 。


20. 智慧工廠的”漏檢率”要看甚麼指標?

智慧工廠的漏檢率(即將不良品誤判為良品)是**假負(FN)**錯誤,對產品品質和客戶滿意度影響極大。

指標: 應著重於召回率(Recall)或真正率(True Positive Rate, TPR) 。Recall/TPR: 實際不良品中,被模型正確檢出為不良品的比例。漏檢率高代表 Recall 低,因此應最大化 Recall 。


21. 醫院病徵辨識的”誤判率”要看甚麼指標?

醫院病徵辨識的誤判率(將正常人誤診為病人)是**假正(FP)**錯誤,會造成不必要的醫療資源浪費和患者焦慮。

指標: 應著重於精確率(Precision) 67。Precision: 被預測為病人中,實際真正為病人的比例。誤判率高代表 Precision 低,因此應最大化 Precision 68。


22. 訓練集,驗證集,測試集 相關用途?

訓練集(Training Set): 用於模型參數的學習與內部結構調整,是整個學習流程的基礎 。

驗證集(Validation Set): 用來調整超參數(如學習率、正則化係數)與監控訓練過程中的過擬合,作為調整的依據 。

測試集(Test Set): 僅在模型訓練和調整完成後使用,用來進行最終效能評估,模擬模型實際部署時對未知資料的表現(泛化能力) 。


23. 以下選項何者無法從訓練改善誤差?

泛化能力誤差無法單純從訓練改善。

訓練誤差/驗證誤差/交叉驗證誤差: 這些都是在訓練和調校過程中可以直接觀察和優化的指標(例如調整學習率、增加數據等)。

泛化能力誤差: 泛化能力(Generalization)是指模型在未知新資料上的表現能力,它主要反映模型對資料的普遍規律的掌握程度,而並非訓練過程中的參數優化問題 。一旦模型訓練完成並發生過擬合,其泛化能力不足的誤差就無法透過繼續訓練來改善,而需要透過正則化、增加數據量、簡化模型等調整策略來解決 。


24. 何者指標可以判別出數據的異常值?

IQR(四分位距)。Z-score 。 Isolation Forest 等異常偵測算法。


25. 銀行財務報表有一筆 100 萬支出款項,要使用何種方式判斷是否為異常值?

眾數/Z-score/中位數

應使用 Z-score 方式判斷 。

Z-score(Z 分數): 衡量該筆資料(100 萬)偏離平均數的標準差倍數。若 Z-score 超過某個閾值(如 ±3),則可被視為異常值。此方法適用於數值型資料的分佈檢查 。

眾數(Mode): 衡量出現頻率最高的值,不適用於連續型數值或異常值判斷 。

中位數(Median): 衡量集中趨勢,對極端值不敏感,無法直接用於判斷單一異常值 。


26. 班級有 50 人學生,考試分數尚未排序整理,如果要先找特定學生~小明的分數,要使用何種搜尋方式?

廣度優先/深度優先/二分法/線性法

應使用線性法(Sequential Search / Linear Search)。

線性搜尋: 從資料集(無論是否排序)的第一筆資料開始,逐一比對直到找到目標(小明的分數)為止。其時間複雜度為 O(n),最適用於未排序或小規模的資料集搜尋。

二分法(Binary Search): 必須在已排序的資料集上才能使用。

廣度優先/深度優先: 屬於圖論或樹結構的遍歷算法,不適用於此種線性資料的查找。


27. ReAct 四個步驟順序排列?

ReAct(Reasoning and Acting)是一種提示工程策略,透過交替執行推理和行動來解決複雜任務。

順序:

Thought(思考/推理): 模型推斷當前狀態、目標和下一步的行動計畫。

Action(行動): 模型執行外部工具/API 調用,或進行特定操作(如搜尋)。

Observation(觀察): 模型接收行動的結果(如 API 回傳的數據、搜尋結果)。

Thought(再次思考/推理): 根據觀察結果,模型調整計畫並決定下一個行動,直到完成任務。


28. 導入 AI 第一步應先確認什麼?

導入 AI 的第一步應先確認業務痛點與需求辨識 。

原因: AI 應以解決企業核心問題、提升業務效益為導向。若無明確的需求定義,後續的模型開發將會失焦、資源浪費或無法產生實際價值 。

具體步驟: 應進行跨部門訪談、流程觀察,找出可導入 AI 解決方案的場景、評估可行性與潛在效益 。


29. 微調常用的技術或參數?

微調(Fine-tuning)是指在已預訓練好的模型基礎上,使用特定任務的小量數據進行訓練,以適應新任務。

技術/參數:學習率(Learning Rate): 是微調中最關鍵的參數,通常需設定低於預訓練時的學習率,以避免破壞已學習到的通用知識 。

LoRA(Low-Rank Adaptation): 是一種高效微調技術,透過向原始模型加入輕量級的低秩參數,僅調整這些參數而非整個模型,可大幅減少計算和儲存需求,適用於 LLM 和 CV 模型。

批次大小(Batch Size)/ Epochs: 根據微調數據量和計算資源調整訓練節奏 。

優化器(Optimizer): Adam 是最常用的優化器之一 。


30. 台灣本土 LLM 測試用資料集?

台灣本土 LLM 測試用資料集在提供的資料中未明確提及。然而,根據一般 LLM 測試慣例,常用的資料集類型包括:

語意理解: 中文 NLI(自然語言推理)、QA(問答)等。

內容生成: 摘要、對話、創作文本。

知識問答: 結合台灣本土知識、法規或時事資料的問答集。TTQA

道德與偏見: 測試模型對台灣特定社會、文化議題的偏見和倫理判斷。


31. 「大語言模型(LLM)訓練、微調或應用」相關的開源工具與框架? LLaMA Factory、Axolotl、Unsloth、AnythingLLM

LLaMA Factory, Axolotl, Unsloth: 這些是專門用於 LLM 微調(Fine-tuning)和訓練的開源工具和框架,支援 LoRA 等高效技術,專注於模型層的優化和實驗管理。

AnythingLLM: 這是一個 LLM 應用構建平台和 RAG 框架,專注於將 LLM 連接到私人資料和工作流程,屬於應用層工具。


32. AI Agent / Workflow Orchestration / LLM 應用構建平台?

Dify、Auto Gen、Task Weaver、Flowise

Dify, Flowise: 屬於 LLM 應用構建平台(LLM Application Development Platform),通常提供圖形化介面,支援 RAG、Prompt 管理、Agent 設計和 Workflow Orchestration,旨在加速 LLM 應用的落地與部署。

Auto Gen, Task Weaver: 屬於 AI Agent / Workflow Orchestration 框架,專注於讓多個 AI Agent 協作、自動規劃和執行複雜任務。


33. Zero Shot Prompt 最可能發生什麼問題?

Zero-shot Prompt(零樣本提示)是指模型在沒有任何任務示例的情況下,僅憑提示詞進行推理和輸出 。

最可能發生的問題:模型幻覺(Model Hallucination): 模型生成看似流暢、合理但事實錯誤、虛假或不準確的內容,這是 LLM 在缺乏具體上下文或知識約束時的常見風險 。


34. 導入 AI 模型訓練,使用單一張 20MB 的高解析圖片,要取得更精細的電腦視覺辨識成功率,應如何調整參數或技術?

input(I/O)、Batch size、遷移學習(Transfer Learning)、資料增強

這是電腦視覺(CV)模型訓練和優化的典型問題,需要平衡資料、模型與資源。

Batch size(批次大小): 應降低。高解析度圖片(20MB)單張佔用記憶體極大,必須降低批次大小,以避免GPU 記憶體溢出(OOM)。

input(I/O)/ 圖像預處理: 應進行調整。圖像縮放(Resize): 將圖片縮小到模型可處理的尺寸(如 224x224),以減少計算量 。

正規化(Normalization): 將像素值標準化,以利模型學習 。

資料增強(Data Augmentation): 應增加。對單張圖片進行多種變換(如隨機裁剪、旋轉、翻轉、色彩偏移)來擴充訓練樣本多樣性,提升模型的泛化能力和辨識的穩健性 。

遷移學習(Transfer Learning): 應使用。由於單一張圖片難以從零開始訓練模型,應使用已在大型資料集上預訓練的 CV 模型(如 ResNet、VGG、Vision Transformer)作為特徵提取器,僅微調最後幾層,以加速訓練並提升成功率 。


最後CCChen的備考建議:

  1. 熟讀基本原理與概念,可以應付越來越靈活的題目變化.
  2. 相關主題的核心專有名詞務必了解清楚, 題目增加雙邏輯判斷題型, 常考兩個以上知識點互相比較.
  3. 注意題目的詢問關鍵字, 看清楚何者"正確"或是"錯誤", 看清楚問題.
  4. 注意題目的陷阱文字, 利用常識判斷合理性.




祝大家 考試順利 合格取證 CCChen 2025/10/25

留言
avatar-img
留言分享你的想法!
avatar-img
CCChen的AI學習分享
1.6K會員
233內容數
關於學習經驗分享, 學習心得, 學習方法與資料整理. 1.已取得2024年 iPAS 淨零碳規劃管理師初級合格 2.已取得2024年 iPAS 食品品保工程師初級合格 3.已取得2025年 資策會 生程式AI能力認證合格 4.已取得2024年 iPAS AI應用規劃師初級合格
2025/10/25
嗨 我是CCChen iPAS AI應用規劃師 初級 第四場 將於11/01舉時考試 這是2025年的最後一場考試 (一年四場次, 每季一次) 大家都準備好了嗎? 本文CCChen針對之前的親自考試所收集記憶的考古題 提供相關比較有難度的題目,讓大家複習參考一下 希望能更加對於"iPA
2025/10/25
嗨 我是CCChen iPAS AI應用規劃師 初級 第四場 將於11/01舉時考試 這是2025年的最後一場考試 (一年四場次, 每季一次) 大家都準備好了嗎? 本文CCChen針對之前的親自考試所收集記憶的考古題 提供相關比較有難度的題目,讓大家複習參考一下 希望能更加對於"iPA
2025/10/23
嗨 我是CCChen 針對iPAS淨零碳規劃師初級考試,分享考試前一週的個人衝刺重點整理。 內容涵蓋最新法規、台灣政策、國際規範、ISO條文及溫室氣體盤查計算等核心考點,助您高效複習,掌握高分關鍵。 *提醒: 所有資料皆依據官方講義與教材為資料庫, 使用AI工具Gemini分析與彙整,
2025/10/23
嗨 我是CCChen 針對iPAS淨零碳規劃師初級考試,分享考試前一週的個人衝刺重點整理。 內容涵蓋最新法規、台灣政策、國際規範、ISO條文及溫室氣體盤查計算等核心考點,助您高效複習,掌握高分關鍵。 *提醒: 所有資料皆依據官方講義與教材為資料庫, 使用AI工具Gemini分析與彙整,
2025/10/22
嗨 我是CCChen 分享一些最近AI趨勢的個人觀點: AI產業的大浪潮——從政策願景到產業真實動能 2025年,台灣的AI版圖正在經歷結構性變化。根據數位發展部在《AI產業人才認定指引(114年版)》及最新政策中指出,政府設定 五年內培育3,500名AI應用與開發人才 的目標,預期帶動
2025/10/22
嗨 我是CCChen 分享一些最近AI趨勢的個人觀點: AI產業的大浪潮——從政策願景到產業真實動能 2025年,台灣的AI版圖正在經歷結構性變化。根據數位發展部在《AI產業人才認定指引(114年版)》及最新政策中指出,政府設定 五年內培育3,500名AI應用與開發人才 的目標,預期帶動
看更多
你可能也想看
Thumbnail
其實我也只是看完 ICT Mentorship 2016、2017 影片和一部份的 2023 , 也去付費上了兩個 ICT 課程,前前後後到現在大概七個月了。 而且我做筆記的量是認真的大, 保守一點,一天平均 4-6 小時以上會花時間學習和覆盤, 要解構知識、理解脈絡、覆盤推演、實盤
Thumbnail
其實我也只是看完 ICT Mentorship 2016、2017 影片和一部份的 2023 , 也去付費上了兩個 ICT 課程,前前後後到現在大概七個月了。 而且我做筆記的量是認真的大, 保守一點,一天平均 4-6 小時以上會花時間學習和覆盤, 要解構知識、理解脈絡、覆盤推演、實盤
Thumbnail
給各位要面試的新鮮人 都學到要怎麼回答這一題了吧
Thumbnail
給各位要面試的新鮮人 都學到要怎麼回答這一題了吧
Thumbnail
序幕 又來到一年一度的年中的時刻了, 不免得要來復盤一下今年的軟體學習與開發上面有了哪些的進步與轉變, 很有意思的是今年加入了AI的元素, 其實早在去年我們就分享了一篇「【🔒 江湖一點訣】關於寫作,你不需要很厲害才開始,但你從現在開始就可以很厲害」, 裡面包含了我們長期累積的心得之外, 早就已經
Thumbnail
序幕 又來到一年一度的年中的時刻了, 不免得要來復盤一下今年的軟體學習與開發上面有了哪些的進步與轉變, 很有意思的是今年加入了AI的元素, 其實早在去年我們就分享了一篇「【🔒 江湖一點訣】關於寫作,你不需要很厲害才開始,但你從現在開始就可以很厲害」, 裡面包含了我們長期累積的心得之外, 早就已經
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 對於以下每個語句,如果該語句為真,請選擇「是」。否則,選擇「否」 對於以下每個語句,如果該語句為真,請選擇「是」。否則,選
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 對於以下每個語句,如果該語句為真,請選擇「是」。否則,選擇「否」 對於以下每個語句,如果該語句為真,請選擇「是」。否則,選
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 將 AI 工作負載類型與適當的場景相匹配。若要回答,請將適當的工作負載類型從左側列拖曳到右側的場景。每種工作負載類型可以使用一次
Thumbnail
最近要來考證照,把準備過程跟大家分享 此處提供 Microsoft Azure AI 900 證照考古題,資料來源:https://reurl.cc/4rVvE3 將 AI 工作負載類型與適當的場景相匹配。若要回答,請將適當的工作負載類型從左側列拖曳到右側的場景。每種工作負載類型可以使用一次
Thumbnail
演講邀約 請EMAIL: godlovesyou127888@gmail.com 祝您和您全家 平安 喜樂 健康 shalom mr. gary
Thumbnail
演講邀約 請EMAIL: godlovesyou127888@gmail.com 祝您和您全家 平安 喜樂 健康 shalom mr. gary
Thumbnail
AI不僅能生成寫作範文,還能設計出符合教學目標的工作紙,分擔老師日常繁重的工作。
Thumbnail
AI不僅能生成寫作範文,還能設計出符合教學目標的工作紙,分擔老師日常繁重的工作。
Thumbnail
高中數學主題練習—C計算(一)
Thumbnail
高中數學主題練習—C計算(一)
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News