f(x)

含有「f(x)」共 11 篇內容
全部內容
發佈日期由新至舊
本單元揭示通訊中的不確定性來源,從 AWGN、Rayleigh/Rician 衰落到 Doppler 時變通道,全部以機率分布與隨機變數建模。理解這些分布,才能洞察星座點、SINR、BER 的變化,也是 AI 與 6G 通訊共同的數學核心。
計算非常困難,即便時軒有把握算得出來。因為首先要分析出潘見紅周遭的載子場分布狀況是典型的高斯分布還是阿米巴原蟲不規則狀。當然還有幾種典型規則,這要透過別的技術才能確定。當確定載子場分布之後根據距離算出梯度再積分力場周圍的表面積,接著還要得知潘見紅Band Diagram內含參數接著才能計算出資訊量臨
Thumbnail
宇牛-avatar-img
2025/09/26
親下去~
老鳳-avatar-img
發文者
2025/09/27
宇牛 敬請期待~
當你想知道「這段時間走了多遠」,你其實已經在用「積分」的概念了。積分是導數的反運算,用來累積微小的變化、計算曲線下面的面積。這篇文章用開車、速度與距離的比喻,帶你建立積分直覺,並介紹它在機器學習中的應用。適合對數學陌生、但想踏入資料科學世界的文組大人。
Thumbnail
學習AI人工智慧需要數學嗎?答案是肯定的!本文用簡單易懂的比喻,說明導數在機器學習中的重要性,以及如何應用導數進行梯度下降等關鍵步驟,並提供學習資源與方向。
Thumbnail
激活函數是神經網路中賦予模型非線性能力的關鍵元件,使其能處理複雜的模式與資料。若缺乏激活函數,多層網路將等同於單層線性模型。常見函數如 ReLU 計算快速且有效避免梯度消失,是中間層的主流選擇;Sigmoid 適用於二分類輸出;Softmax 則將輸出轉為機率分布,常用於多分類任務。
本篇深入解析神經網路中的多層感知機(MLP),帶你掌握其在圖片、文字、語音分類等非線性任務中的強大能力。搭配 sklearn 實作手寫數字辨識,從架構、激活函數到優缺點一次搞懂,適合想進階 AI 模型應用的學習者,是踏入深度學習的絕佳起點!
Thumbnail
「ReLU (Rectified Linear Unit)」是一種非常常見且廣泛應用於人工神經網路(包括卷積神經網路)中的激活函數。 你可以將激活函數想像成神經元中的一個開關,它決定了神經元的輸出應該是什麼。ReLU 函數尤其簡單且有效。 ReLU 的數學定義: ReLU 函數的數學表達式非常
本文提供微分的基礎概念介紹,包含微分的定義、極限的應用、Power Rule 和 Chain Rule 的說明,以及偏微分的概念。文中包含圖表公式,並以淺顯易懂的方式說明微積分在 AI 模型訓練中的重要性。
Thumbnail
從很稚嫩的時候,就可以感覺到有一腔的欲說還休在自己身體裡禁錮著出不去。 世道紛紛擾擾,情愫來來去去,傷的都是自己。一直都知道自己是個叛經離道的人,如果偽裝不見了,裸著臉孔也裸著心境,然後發現在任何一段關係裡自己什麼都不是,甚至回過頭去看自己曾經寫下的依戀都會羞懺地臉紅不已。 世人都說張愛玲不
【佈局】這部片每個細節都十足重要,使用的是「自述」為觀點的敘述性電影。因此若要一刷就理解所有事件,觀影者要有個預作前提的心理準備,譬如說此段回應段落是由誰口述出來?是用什麼觀點描述?
Thumbnail
3/5佈局
這部真的很燒腦!好看!
老鳳-avatar-img
發文者
2023/12/21
Clear Day 亮亮 真的,我也是重看才看到很多細節。