Princend
0
位追蹤者
追蹤
致力於分享AI技術跟知識
Princend的沙龍
0
會員
9
內容數
加入
前往沙龍
加入
前往沙龍
發佈內容
我的成就
全部內容
由新到舊
Princend的沙龍
2024/11/28
Target Encoding
#
AI
#
基礎
#
學習
喜歡
留言
Princend的沙龍
2024/11/27
simpleNN 視覺動畫對應程式碼區塊
#
AI
#
基礎
#
學習
喜歡
留言
Princend的沙龍
2024/11/26
簡單神經網路
輸入層:接收數據,對應特徵值,是網絡的入口。 隱藏層:學習數據的抽象特徵,引入非線性,處理複雜模式。 輸出層:產生結果,將特徵轉換為預測值(regression)或分類(classification)結果。 陳縕儂老師說過 中間的隱藏層通常不會是線性的 如果全部都是線性 那任意交換隱藏層
#
AI
#
基礎
#
學習
喜歡
留言
限時公開
Princend的沙龍
2024/11/25
Manim
manim ## 第一單元:基礎介紹與環境設置 ### 1. 單元目標 * 了解 Manim 是什麼以及其應用場景。 * 掌握如何安裝 Manim 並運行基礎腳本。 ### 2. Manim 簡介 :::info 什麼是 Manim? Manim 是一個用 Py
#
學習
#
3D
#
動畫
喜歡
留言
Princend的沙龍
2024/11/22
Activation Function LeakyReLU
LeakyReLU (Leaky Rectified Linear Unit) 1.在 x≤0 區域,允許輸出一個小於 0 的線性值(αx ),有效解決神經元死亡問題。 2.在負值區域保留梯度,避免梯度消失,適合深層網路的訓練。 3.雖然負值區域仍有小幅影響,但需要設定合適的 α(通常為
#
AI
2
留言
Princend的沙龍
2024/11/21
Activation Function ReLU
ReLU 整流線性單位函式 (Rectified Linear Unit) 1.沒有分數跟指數,讓電腦加速運算 2.有效減緩梯度消失問題 3.但是會造成神經元死亡,神經元輸入小於等於 0時,這些神經元的梯度始終為 0,無法更新權重
喜歡
留言
Princend的沙龍
2024/11/20
激活函數 Tanh 雙曲正切函數
Sigmoid 函數輸出範圍被壓縮在 0 到 1 之間,當輸入值過大或過小時,導數接近 0,導致權重幾乎停止更新。 此外,由於輸出總是正值且不以 0 為中心,使得權重更新的方向容易產生偏差,因而限制模型探索參數空間,影響收斂速度和學習效率。 tanh 通常應用在隱藏層的非線性變換、數據對稱分
喜歡
留言
Princend的沙龍
2024/11/19
Activation Function :Sigmoid
激活函數 sigmoid "是個摸魚的"函數(酷酷的諧音梗) sigmoid 通常應用在二元分類、邏輯回歸、小型神經網路中的hidden layer 、LSTM的閘門控制開關...等 定義域:(-無窮大,+無窮大) 範圍:(0, +1) σ(0) = 0.5 此函數是單調遞增的。 此函
#
AI
喜歡
留言
Princend的沙龍
2024/11/18
MonteCarlo求圓周率π
使用蒙地卡羅(MonteCarlo)方法來估計圓周率 用numpy.random.uniform(連續型均勻分布) 隨機生成300個點 其中x,y∈[−1,1] 綠色點代表在圈內 紅色點代表在圈外 生成的點越多 最後算出來點在圈內的機率會越接近圓周率π(3.1415926...)
1
留言
vocus 勳章
NFT
了解
如何蒐集勳章