f(x)

含有「f(x)」共 9 篇內容
全部內容
發佈日期由新至舊
當你想知道「這段時間走了多遠」,你其實已經在用「積分」的概念了。積分是導數的反運算,用來累積微小的變化、計算曲線下面的面積。這篇文章用開車、速度與距離的比喻,帶你建立積分直覺,並介紹它在機器學習中的應用。適合對數學陌生、但想踏入資料科學世界的文組大人。
Thumbnail
學習AI人工智慧需要數學嗎?答案是肯定的!本文用簡單易懂的比喻,說明導數在機器學習中的重要性,以及如何應用導數進行梯度下降等關鍵步驟,並提供學習資源與方向。
Thumbnail
激活函數是神經網路中賦予模型非線性能力的關鍵元件,使其能處理複雜的模式與資料。若缺乏激活函數,多層網路將等同於單層線性模型。常見函數如 ReLU 計算快速且有效避免梯度消失,是中間層的主流選擇;Sigmoid 適用於二分類輸出;Softmax 則將輸出轉為機率分布,常用於多分類任務。
本篇深入解析神經網路中的多層感知機(MLP),帶你掌握其在圖片、文字、語音分類等非線性任務中的強大能力。搭配 sklearn 實作手寫數字辨識,從架構、激活函數到優缺點一次搞懂,適合想進階 AI 模型應用的學習者,是踏入深度學習的絕佳起點!
Thumbnail
「ReLU (Rectified Linear Unit)」是一種非常常見且廣泛應用於人工神經網路(包括卷積神經網路)中的激活函數。 你可以將激活函數想像成神經元中的一個開關,它決定了神經元的輸出應該是什麼。ReLU 函數尤其簡單且有效。 ReLU 的數學定義: ReLU 函數的數學表達式非常
本文提供微分的基礎概念介紹,包含微分的定義、極限的應用、Power Rule 和 Chain Rule 的說明,以及偏微分的概念。文中包含圖表公式,並以淺顯易懂的方式說明微積分在 AI 模型訓練中的重要性。
Thumbnail
從很稚嫩的時候,就可以感覺到有一腔的欲說還休在自己身體裡禁錮著出不去。 世道紛紛擾擾,情愫來來去去,傷的都是自己。一直都知道自己是個叛經離道的人,如果偽裝不見了,裸著臉孔也裸著心境,然後發現在任何一段關係裡自己什麼都不是,甚至回過頭去看自己曾經寫下的依戀都會羞懺地臉紅不已。 世人都說張愛玲不
【佈局】這部片每個細節都十足重要,使用的是「自述」為觀點的敘述性電影。因此若要一刷就理解所有事件,觀影者要有個預作前提的心理準備,譬如說此段回應段落是由誰口述出來?是用什麼觀點描述?
Thumbnail
3/5佈局
這部真的很燒腦!好看!
老鳳-avatar-img
發文者
2023/12/21
Clear Day 亮亮 真的,我也是重看才看到很多細節。
根據泰勒定理,f(x)可以寫成右邊一長串的導數的組合 為了更好理解這個東西我們可以用python實作 首先定義f(x)和定義factorial怎麼算 然後寫泰勒定理 f(x) = f(a) + f'(a)(x-a) ....後面還有一串 注意公式往後面看其實是有規律的 例如從
Thumbnail