Princend-avatar-img

Princend

0 位追蹤者
致力於分享AI技術跟知識
avatar-img
0會員
9內容數
全部內容
由新到舊
輸入層:接收數據,對應特徵值,是網絡的入口。 隱藏層:學習數據的抽象特徵,引入非線性,處理複雜模式。 輸出層:產生結果,將特徵轉換為預測值(regression)或分類(classification)結果。 陳縕儂老師說過 中間的隱藏層通常不會是線性的 如果全部都是線性 那任意交換隱藏層
Thumbnail
限時公開
manim ## 第一單元:基礎介紹與環境設置 ### 1. 單元目標 * 了解 Manim 是什麼以及其應用場景。 * 掌握如何安裝 Manim 並運行基礎腳本。 ### 2. Manim 簡介    :::info    什麼是 Manim?    Manim 是一個用 Py
LeakyReLU (Leaky Rectified Linear Unit) 1.在 x≤0 區域,允許輸出一個小於 0 的線性值(αx ),有效解決神經元死亡問題。 2.在負值區域保留梯度,避免梯度消失,適合深層網路的訓練。 3.雖然負值區域仍有小幅影響,但需要設定合適的 α(通常為
Thumbnail
ReLU 整流線性單位函式 (Rectified Linear Unit) 1.沒有分數跟指數,讓電腦加速運算 2.有效減緩梯度消失問題 3.但是會造成神經元死亡,神經元輸入小於等於 0時,這些神經元的梯度始終為 0,無法更新權重
Thumbnail
Sigmoid 函數輸出範圍被壓縮在 0 到 1 之間,當輸入值過大或過小時,導數接近 0,導致權重幾乎停止更新。 此外,由於輸出總是正值且不以 0 為中心,使得權重更新的方向容易產生偏差,因而限制模型探索參數空間,影響收斂速度和學習效率。 tanh 通常應用在隱藏層的非線性變換、數據對稱分
Thumbnail
激活函數 sigmoid "是個摸魚的"函數(酷酷的諧音梗) sigmoid 通常應用在二元分類、邏輯回歸、小型神經網路中的hidden layer 、LSTM的閘門控制開關...等 定義域:(-無窮大,+無窮大) 範圍:(0, +1) σ(0) = 0.5 此函數是單調遞增的。 此函
Thumbnail
使用蒙地卡羅(MonteCarlo)方法來估計圓周率 用numpy.random.uniform(連續型均勻分布) 隨機生成300個點 其中x,y∈[−1,1] 綠色點代表在圈內 紅色點代表在圈外 生成的點越多 最後算出來點在圈內的機率會越接近圓周率π(3.1415926...)
Thumbnail