深度學習

#深度學習含有「深度學習」共 78 篇內容
全部內容
發佈日期由新至舊
[深度學習]LSTM模型長短期記憶(英語:Long Short-Term Memory,LSTM)是一種時間循環神經網路(RNN),論文首次發表於1997年。 LSTM(長短期記憶)是一種特定類型的遞歸神經網絡(RNN),在許多需要處理時間序列數據或順序數據的應用中非常有用。 以下是一些常見的 LSTM 應用:
Thumbnail
2024-07-20
8
解密 AI 與資料科學 (二) : AI 的類型與實戰場景本文要探討AI的任務與實戰場景。AI技術已深入生活各層面,從違約預測到都市交通管理。AI任務主要有三類:數值型資料處理、自然語言處理(NLP)和電腦影像辨識。時間序列資料和強化學習方法(如AlphaGo)也引起廣泛關注。AI演算法和方法因應不同學派和技術發展而多樣化,了解這些基礎有助選擇適合研究方向
Thumbnail
2024-07-19
5
概念股_輝達NVIDIA供應鏈2024年6月份營收概況輝達(NVIDIA)成立於1993年,由黃仁勳(Jensen Huang)、Chris Malachowsky和Curtis Priem共同創辦,目前為市值超過3兆美元公司。作為一家專注於圖形處理單元(GPU)和人工智能(AI)技術的領導者,輝達已成為全球半導體行業的領先地位。
Thumbnail
107|如何回應時代的學術召喚?了解熱門的題目熱門的技術,具體是解決什麼以前無法解決的問題。熱門的題目之所以熱門,常常是因為那個工作開啟了領域很大的想像空間。而之所以有很大的想像空間,基本是因為某種「技術」得到了突破。可能以前沒辦法計算的東西,現在可以計算了,可能以前逼近的效果不好,現在變得更好誤差都更小了
2024-07-14
1
筆記-深度學習論文閱讀:Identity Mappings in Deep Residual Networks前言 承上一篇筆記文章,繼續閱讀推薦的第二篇論文:Identity Mappings in Deep Residual Networks—Kaiming He、Xiangyu Zhang、Shaoqing Ren、Jian Sun。也是一樣的發表者,內容是對他們之前發表的Deep Residual
Thumbnail
2024-07-13
13
GM 004|你知道Transformers能成為統計人員嗎?今天聊一聊由 Yu Bai [1] 於2023年發表的文章, 《Transformers as Statisticians: Provable In-Context Learning with In-Context Algorithm Selection》[2]。 本文章的標題很有意思,
2024-07-10
4
人工神經網路發展的基石: M-P神經元模型M-P神經元模型 1943年,沃倫·麥卡洛克(Warren McCulloch)和沃爾特·皮茨(Walter Pitts)提出了歷史上第一個用於模擬生物神經元功能的數學模型,這便是M-P神經元模型。這一模型的提出,標誌著神經科學和計算理論領域的一個重要里程碑。 麥卡洛克是一位神經生理學家和精神病
Thumbnail
2024-07-09
1
筆記-深度學習論文閱讀:Deep Residual Learning for Image Recognition前言 在閱讀《強化式學習:打造最強 AlphaZero 通用演算法》時,文中介紹了殘差網路,並推薦了兩篇論文;因為在看了書後,對殘差網路的概念還是不很清楚,於是決定用ChatGPT翻譯這兩篇論文來增強理解,以下正文是第一篇論文:Deep Residual Learning for Image Re
Thumbnail
2024-07-07
22
筆記-深度學習概念了解:1X1卷積前言 在閱讀網路文章時,有看到說1X1的卷積層能夠升維、降維,不了解所以然,故來查找。:P 正文 卷積核尺寸為1X1的卷積層能夠達到降低和增加輸出的維度,是因為它能夠改變輸入數據的通道數量(depth),而不改變其空間維度(height和width),原理如下。 1X1卷積在每個空間位置
2024-07-04
12
筆記-深度學習相似釐清:"flatten()"、"Flatten"前言 對標題上的這兩個項目有疑惑,不知道它們返回的資料的不同;查找資料後記錄下來,讓自己以後可以回來翻閱。 正文 numpy.ndarray.flatten:返回攤平的一維array,可參考NumPy: numpy.ndarray.flatten() function,有示意圖 te
2024-06-30
15