機率

含有「機率」共 471 篇內容
全部內容
發佈日期由新至舊
Dropout 是防止過擬合的正則化技巧,訓練時隨機關閉部分神經元,迫使模型學習更通用的特徵,提升泛化能力。推論時會啟用所有神經元並縮放輸出,保持一致性。常見比例:MLP 0.20.5,CNN 0.10.3,RNN 可用 recurrent_dropout。
損失函數是模型學習的方向指引。分類任務用交叉熵,能精準衡量機率差異並加速收斂;迴歸任務用均方誤差,適合連續數值預測但對離群值敏感。若誤用 MSE 做分類,會導致收斂慢且準確率差。選對損失函數才能提升模型效能。
付費限定
即使口袋裡沒有錢,即使是一個窮光蛋,也有可能遇到不同的命運與機會。因為在生活的過程中,有些人可能曾經擁有不錯的成績,無論是狀態還是財富都相對穩定,但一個錯誤的決策,或者未能看清某些盲點,都可能導致財務出現問題。這其實很正常,因為人生本就是高低起伏的旅程。 有時候,要看清楚某些事情,需要時間的沉澱。
大家好,我是股市基友。今天我們要來聊一個很有趣的話題,一個看似天大的利多,但如果你只看表面,可能會讓你掉入溫水煮青蛙的陷阱。 結論先說:別再為「降息」兩個字興奮了! 摩根士丹利(Morgan Stanley)那份看似「鴿派」到不行的報告,預測聯準會(Fed)的降息幅度可能遠超預期,這件事的背後真
  ================================================= NLP 問題從 LSTM 等 RNN 模型轉向 Transformer =======================================
Thumbnail
付費限定
投資做的好或不好不是單純看結果,也就是說獲利不代表一切,為什麼這麼說,當大盤處於大多頭的時候,人人都可以獲利,這時候獲利很簡單。
含 AI 應用內容
#股票#投資#風險
激活函數是神經網路能學習非線性特徵的關鍵,沒有它,無論堆疊多少層都只是線性模型。常見激活函數如 ReLU、Sigmoid、Tanh、Leaky ReLU、Softmax 各有用途,其中 ReLU 最常用,具高效與快速收斂優點。選擇合適的激活函數能讓模型具備更強的表達力與判斷力,是深度學習的核心之一。
多層感知器(MLP)是最基本的前饋神經網路,由輸入層、隱藏層與輸出層組成,並透過多層全連接層逐步提取特徵。每層節點與前一層所有節點相連,常搭配非線性激活函數如 ReLU,使模型具備學習複雜關係的能力。MLP 是深度學習的基礎結構之一,廣泛應用於分類與回歸任務中。
付費限定
股價會說話,不過採用技術分析觀點時,必須了解它的特性或侷限才能降低風險。技術分析是推測可能的發展,但不會告訴投資人機率有多高?不會顯示其中風險程度,除了推測股市可能的發展之外,判斷機率與風險才是決定後續能否獲利的最重要關鍵。
Thumbnail
付費限定
判斷「當天大盤是先漲後跌」還是「先跌後漲」並不容易,但可以透過以下幾個 技術面、籌碼面、消息面 和 盤前預測 的方式來提高判斷勝率: