機器學習

含有「機器學習」共 831 篇內容
全部內容
發佈日期由新至舊
處理類別不平衡(Class Imbalance)是機器學習中常見且重要的問題,尤其在少數類樣本數量遠小於多數類時,模型容易偏向多數類,導致少數類識別效果差。常用的處理方法包括資料層面和算法層面技術。 常用處理類別不平衡方法: 1. 資料層面方法 • 過採樣(Oversampling)少數類

特徵選擇(Feature Selection)是機器學習中關鍵的一步,目的是從原始的特徵集中選出對目標預測最有用的子集,以提升模型性能、減少計算資源消耗和避免過擬合。常用的特徵選擇方法分為三大類: 常用特徵選擇方法: 1. 過濾器法(Filter Methods) • 不依賴具體模型,基於統
異常值的檢測方法主要可分為統計方法、機器學習方法和基於距離或密度的方法,這些方法能幫助識別數據中偏離正常模式的點,常用於資料清理、風險控制及異常事件偵測。 常見異常值檢測方法: 1. 統計方法 • Z-Score標準化:計算數據點距離平均值的標準差距離,通常超過3倍標準差的被視為異常。
聲譽風險(Reputation Risk)指的是由於企業或產品受到負面事件、信息曝光或用戶質疑,導致品牌信譽受損,影響其市場地位、客戶信任及營收的風險。在機器學習與人工智慧(AI)領域,聲譽風險特別關注AI系統可能帶來的負面影響,包括誤判、偏見、隱私泄露或生成不當內容,進而損害企業形象。 聲譽風險
數據重建攻擊(Data Reconstruction Attack)是一種針對機器學習模型的隱私攻擊,攻擊者試圖從模型的輸出或梯度資訊中反推原始訓練數據,重新構建敏感的數據樣本。 數據重建攻擊的定義與原理: • 攻擊者通過攔截或獲得模型訓練過程中暴露的數據(如梯度、參數更新等),利用數學優化和
「成員推斷攻擊」(Membership Inference Attack)是一種針對機器學習模型的隱私攻擊技術。攻擊者目標是判斷某個特定數據樣本是否包含在模型的訓練數據中,從而推斷出用戶的敏感信息。 成員推斷攻擊的原理與工作方式: • 攻擊者利用觀察模型輸出的差異,尤其是對訓練數據和未見過數據
HITL(Human-in-the-Loop)指的是機器學習或人工智慧系統中,人類能夠在系統設計、訓練、判斷或決策過程中介入的機制或流程。此方法結合人類專業知識與機器學習算法,以提高模型的準確度、可靠性和倫理性。 HITL的工作原理與特點: • 人類參與數據標注、模型訓練數據清理、模型校正和實
Adversarial Attack(對抗性攻擊)是在機器學習中,攻擊者故意設計微小但精心修改的輸入(稱為對抗樣本),使模型產生錯誤判斷或錯誤預測的一種攻擊手法。這些微小的改動對人類觀察者來說幾乎無異,但能有效迷惑AI模型。 Adversarial Attack的定義和工作原理 • 攻擊者透過
付費限定
準備考取AI應用規劃師(初級)證照,筆記考試重點及學習策略,循序漸進學習人工智慧基礎概論與生成式AI應用與規劃,從AI基礎概念到實際應用,順利通過考試。
0/5證照學習
含 AI 應用內容
#生成式AI#學習#基礎
Python系列的筆記到這邊就差不多要告個段落,我介紹了基礎語法與進階語法的功能與使用方式。基礎語法對於初學者來說是滿容易理解而且能快速上手的部分,進階語法則是初學者的噩夢,常常讓人難以理解也不知道怎麼使用,不過它卻是讓大家提升程式設計能力的好工具。 一開始大家不需要去死記硬背這些進階語法,只需要大
Thumbnail