Princend
2
位追蹤者
追蹤
致力於分享AI技術跟知識
Princend的沙龍
0
會員
33
內容數
加入
前往沙龍
加入
前往沙龍
發佈內容
我的成就
全部內容
由新到舊
Princend的沙龍
2024/12/31
新年快樂
今年嘗試往不同領域去學習 甚至裸辭參加AI職訓班 雖然成長的幅度沒有想像的那麼好 但是至少是有成長的 期待未來的我 能夠持續學習 達到心中所想的目標
#
新年快樂
喜歡
留言
Princend的沙龍
2024/12/25
markov chain 馬可夫鍊
馬可夫鍊(Markov Chain) 是一種數學模型,用來描述一個系統在不同狀態之間的轉移過程,特點是未來的狀態只取決於當前狀態,而與過去的狀態無關。這種性質稱為馬可夫性質,即「無記憶性」。馬可夫鍊常用於統計學、機器學習、經濟學、生物學等領域。
#
基礎
#
學習
#
動畫
喜歡
留言
Princend的沙龍
2024/12/24
AutoEncoder
Autoencoder 是一種無監督學習的神經網絡,分為編碼器(將數據壓縮為隱藏表示)和解碼器(將隱藏表示重建為原始數據)。其目標是最小化輸入和重建數據之間的誤差,廣泛應用於數據降維、特徵提取、去噪和生成模型(如變分自編碼器 VAE)。優點包括無需標籤學習和自動學習特徵,但也容易過擬合,需要大量數據
#
基礎
#
學習
#
動畫
3
1
旅人小萌
1
謝謝您的分享❤️
Princend的沙龍
2024/12/24
池化層 Pooling
池化層透過降維操作(如最大池化、平均池化)壓縮特徵圖,減少計算量,保留關鍵資訊,同時提升模型對位置和變形的穩健性,是CNN中加速運算的重要部分!
#
基礎
#
學習
#
動畫
喜歡
留言
Princend的沙龍
2024/12/24
卷積運算 Convolution
卷積層是CNN的核心,透過卷積核提取局部特徵,如邊緣、紋理等。每個卷積核學習不同的特徵,輸出稱為特徵圖。它透過局部連接和參數共享,減少計算量,提升效率,是圖像分析的關鍵!
#
基礎
#
學習
#
動畫
喜歡
留言
Princend的沙龍
2024/12/24
CNN
卷積神經網路(CNN)是一種深度學習模型,擅長處理圖像數據。透過卷積層提取特徵,池化層降維,並結合全連接層進行分類或預測。其特點包括參數共享、空間不變性,適用於圖像分類、目標檢測等多種任務。經典模型有LeNet、AlexNet、VGG、ResNet等。簡單高效,廣泛應用於AI領域。
#
基礎
#
學習
#
動畫
喜歡
留言
Princend的沙龍
2024/12/24
Dropout
Dropout 是防止過擬合的正則化技術,訓練時隨機將部分輸入單元設為 0,並對未丟棄的輸入放大為 1/(1−rate),以保持總輸出不變。推論(inference)期間則不丟棄值。
#
基礎
#
學習
#
動畫
喜歡
留言
Princend的沙龍
2024/12/24
Batch Normalization
Batch Normalization 是一種提升深度學習模型訓練效率的技術,透過正規化每層輸入的數據分佈,加速收斂並提升模型穩定性。 1.加速模型訓練,支持更高學習率。 2.減少過擬合,有輕微正則化效果。 3.減輕參數初始化的依賴,增強模型穩健性。 4.適用於全連接層與卷積層等多種結構
#
基礎
#
學習
#
動畫
喜歡
留言
Princend的沙龍
2024/12/21
欠擬合與過擬合
Underfitting(欠擬合) 可能原因: 模型選擇過於簡單,表現力不足(如線性模型處理高度非線性問題)。 模型表現不足,無法捕捉數據中的模式或規律。 通常是因為模型過於簡單(如使用太少的參數或低容量模型)或訓練時間不足。 Overfitting(過擬合) 可能原因:
#
AI
#
基礎
#
學習
1
留言
Princend的沙龍
2024/12/20
Bias and Varience
偏差 (Bias) 1️⃣偏差是模型對訓練資料的擬合能力,與模型的複雜度相關。 2️⃣偏差高的模型通常過於簡單,無法很好地擬合資料(即「欠擬合」)。 變異 (Variance) 1️⃣變異是模型對不同訓練資料的敏感程度。 2️⃣變異高的模型通常過於複雜,容易過度擬合資料(即「過擬
#
學習
#
AI
#
基礎
喜歡
留言
vocus 勳章
NFT
了解
如何蒐集勳章