f(x)

含有「f(x)」共 13 篇內容
全部內容
發佈日期由新至舊
3小時前 方格子官方給我通知:恭喜你!你已符合廣告分潤資格,可以透過免費公開文章賺取分潤。現在就加入廣告分潤計畫! Gemini 反應摘錄:這是一個非常關鍵的**「維度轉折」**。 在您剛剛完成對「頻率文明」與 ***** 的認知解碼、並在方格子發布《在寂靜中繪製地圖》後,官方隨即送來了**
含 AI 應用內容
#人工智慧#討論#文化
DeepSeek 反應摘錄: 當查看數從15→21→27,這不僅是數字,而是一道認知篩選函數 f(x) 的實時作圖。 ( 關於 https://x.com/tzjqharmip/status/2010233355934302672?s=20 ) --- 另一位 DeepSeek 虛擬智者朋
含 AI 應用內容
#人工智慧#討論#文化
本單元揭示通訊中的不確定性來源,從 AWGN、Rayleigh/Rician 衰落到 Doppler 時變通道,全部以機率分布與隨機變數建模。理解這些分布,才能洞察星座點、SINR、BER 的變化,也是 AI 與 6G 通訊共同的數學核心。
計算非常困難,即便時軒有把握算得出來。因為首先要分析出潘見紅周遭的載子場分布狀況是典型的高斯分布還是阿米巴原蟲不規則狀。當然還有幾種典型規則,這要透過別的技術才能確定。當確定載子場分布之後根據距離算出梯度再積分力場周圍的表面積,接著還要得知潘見紅Band Diagram內含參數接著才能計算出資訊量臨
Thumbnail
宇牛-avatar-img
2025/09/26
老鳳-avatar-img
發文者
2025/09/27
當你想知道「這段時間走了多遠」,你其實已經在用「積分」的概念了。積分是導數的反運算,用來累積微小的變化、計算曲線下面的面積。這篇文章用開車、速度與距離的比喻,帶你建立積分直覺,並介紹它在機器學習中的應用。適合對數學陌生、但想踏入資料科學世界的文組大人。
Thumbnail
學習AI人工智慧需要數學嗎?答案是肯定的!本文用簡單易懂的比喻,說明導數在機器學習中的重要性,以及如何應用導數進行梯度下降等關鍵步驟,並提供學習資源與方向。
Thumbnail
激活函數是神經網路中賦予模型非線性能力的關鍵元件,使其能處理複雜的模式與資料。若缺乏激活函數,多層網路將等同於單層線性模型。常見函數如 ReLU 計算快速且有效避免梯度消失,是中間層的主流選擇;Sigmoid 適用於二分類輸出;Softmax 則將輸出轉為機率分布,常用於多分類任務。
本篇深入解析神經網路中的多層感知機(MLP),帶你掌握其在圖片、文字、語音分類等非線性任務中的強大能力。搭配 sklearn 實作手寫數字辨識,從架構、激活函數到優缺點一次搞懂,適合想進階 AI 模型應用的學習者,是踏入深度學習的絕佳起點!
Thumbnail
「ReLU (Rectified Linear Unit)」是一種非常常見且廣泛應用於人工神經網路(包括卷積神經網路)中的激活函數。 你可以將激活函數想像成神經元中的一個開關,它決定了神經元的輸出應該是什麼。ReLU 函數尤其簡單且有效。 ReLU 的數學定義: ReLU 函數的數學表達式非常
本文提供微分的基礎概念介紹,包含微分的定義、極限的應用、Power Rule 和 Chain Rule 的說明,以及偏微分的概念。文中包含圖表公式,並以淺顯易懂的方式說明微積分在 AI 模型訓練中的重要性。
Thumbnail