[AI小學堂(三)]神經網路是什麼? 淺談深度學習的神經網路Neural Network的架構-續

閱讀時間約 3 分鐘
interconnected neurons
這篇文章是繼上一篇文章之後,我們繼續講解神經網路的基本架構。我們先複習一下,上篇文章我們解說到了神經網路的基本架構包含了輸入層,輸出層,還有中間的隱藏層,也說明了這是一個把輸入資料拆解出特徵然後依照特徵做判斷的過程。
Neural network for number recognition
但是究竟每一層的神經網路,如何影響下一層的神經網路可以辨識出特徵呢? 這些中間的線條(連結)到底是什麼意義呢? 這就是這一篇要告訴你的。首先我們要知道第二層的每一個神經元跟第一層的每個神經元都是fully-connected,這是什麼意思? 也就是說每個第二層的神經元,都跟每個第一層的神經原有連接。
我們來假設我們挑選了第二層的某一個神經元,我們叫做神經元A好了,而這個神經元A是可以決定是否圖案中有這樣的一個短線(如下圖),那麼因為第一層的784個神經元都有連接到這個第二層的這個神經元A,所以我們可以說這784個神經元都有各自的權重Weight可以影響這個神經元A,所以這些神經元的數值再乘上各自的權重,就會是這個神經元A的值了。
Weight for the neurons
實際上這樣的公式叫做Activation function,還要加上sigmoid function跟誤差(Bias),這是為了要讓計算出來的數值可以維持在0~1之間的數值,因為我們的目的是要儘量簡單的介紹,所以這邊就不在繼續深究。重點是,這些誤差(Bias)跟權重(Weight),是會隨著我們訓練這個神經網路而變動的數值。
如果我們來想想這樣一個簡單的神經網路,輸入層有784個神經元,而中間兩層隱藏層僅有16 個神經元,輸出層只有10個神經元好了,那我們光是第一層到第二層的連結,就有784 (個神經元) x16個 權重,而每一條連結線都有自己不同的誤差值(Bias)
number of weights and biases
然後再往下計算整個神經網路的話,就會有總共有784*16加上16x16加上16x10的權重數,誤差值則是有16+16+10個。光是這樣的一個簡單的網路,就可以想像成有13002個數值會隨時變動,導致輸入的資料到輸出的結果會有不同的結果。
number of weights and biases for the whole network
這13002個會變動的權重Weight跟誤差值Bias就是我們希望神經網路透過學習而能夠得到最佳值的,我們相信,經過學習的神經網路,可以替這13002的數值找到最佳的解答,然後我們輸入的數字圖片都可以被正確的辨識。
這麼簡單基礎的神經網路,都會需要13002個數值,不是很可怕嗎? 而且實際上的神經網路,每一層可能都有遠超768的神經元,而且神經網路的層數也可能會有數百層以上,可以想像這些權重Weight跟誤差值Bias是一個非常非常驚人的數量。但是我們回頭想想,如果神經網路沒有很複雜其實才可怕,畢竟神經網路是被認為可以邏輯推理的人工智慧的雛形,所以是應該會具備一定的複雜程度的。
關於神經網路的架構我們就很基礎的介紹到這邊,如果有興趣了解裡面的數學式的,請務必去看原本的英文影片,下一篇我們會介紹神經網路是如何透過餵進大量的資料去學習的,我們下次見囉。
為什麼會看到廣告
技術PM的AI實驗室,是以輕鬆的角度深入簡出的探討各種生成式AI工具的使用。無論你是想理解AI到底是怎麼運作的? 想知道有那些好用的生成式AI工具? 或者是對AI繪圖有興趣的,都歡迎加入我們的AI實驗室一起輕鬆地玩耍,我們邊玩邊學,學習跟AI一起共創新的可能。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
在我的上一篇文章中,我們提到了人工智慧 & 機器學習 & 深度學習跟神經網路的關係,我們也了解到了所謂的深度學習是一種基於神經網路上的機器學習方法。那麼神經網路到底是什麼呢? 我們上一篇文章裡面提到的神經網路的層Layer究竟是什麼呢? 到底為什麼神經網路需要這麼多的神經元(Neurons)跟層數呢
我們這個系列就是希望以非常科普的角度來解釋人工智慧。本篇要釐清人工智慧(AI: Artificial Intelligence),機器學習 Machine Learning, 深度學習Deep Learning,另外還有類神經網路,到底互相是什麼關係呢?
在這篇示範裡面,我將教你如何利用AI繪圖工具Stable Diffusion產生出自己的一整套塔羅牌排組,而且這整套牌組還是套用上自己Training的LORA的,也就是塔羅牌的主角都可以是你或是你身邊的人(或是你的偶像明星),一旦掌握訣竅,用這篇的方法一天以內就可以完成這個工作。
我們要來實測的就是Microsoft Designer 這套工具,利用生成式AI來協助你產生各種設計類作品,是針對著Canva 這類現有設計類網站而來的,到底Microsoft Designer 好用嗎? 是否可以幫上你的忙呢? 我們今天就用辦公室應用的場景來發想,實際上操作看看,看MS Desig
今天我這邊提供大家一個方法,讓大家可以自己成為這些AI繪圖的主角,也就是在AI裡面建立屬於你自己個人的模型。Stable Diffusion比較少這部分的教學,是因為這部分的訓練的確比較有一些技術的門檻,我這邊會嘗試用比較簡單的方式讓大家可以一個步驟一個步驟照著做,就能夠達到我們想要達到的結果。
我們介紹過很多AI繪圖工具,但是究竟哪一個AI繪圖工具最能理解你的描述呢? 我們決定直接拿一模一樣的輸入(Prompt)餵給各種工具,讓我們來看看會得到怎樣的結果,就知道哪個AI工具最能聽懂人話,請看這篇的分析與實測。
在我的上一篇文章中,我們提到了人工智慧 & 機器學習 & 深度學習跟神經網路的關係,我們也了解到了所謂的深度學習是一種基於神經網路上的機器學習方法。那麼神經網路到底是什麼呢? 我們上一篇文章裡面提到的神經網路的層Layer究竟是什麼呢? 到底為什麼神經網路需要這麼多的神經元(Neurons)跟層數呢
我們這個系列就是希望以非常科普的角度來解釋人工智慧。本篇要釐清人工智慧(AI: Artificial Intelligence),機器學習 Machine Learning, 深度學習Deep Learning,另外還有類神經網路,到底互相是什麼關係呢?
在這篇示範裡面,我將教你如何利用AI繪圖工具Stable Diffusion產生出自己的一整套塔羅牌排組,而且這整套牌組還是套用上自己Training的LORA的,也就是塔羅牌的主角都可以是你或是你身邊的人(或是你的偶像明星),一旦掌握訣竅,用這篇的方法一天以內就可以完成這個工作。
我們要來實測的就是Microsoft Designer 這套工具,利用生成式AI來協助你產生各種設計類作品,是針對著Canva 這類現有設計類網站而來的,到底Microsoft Designer 好用嗎? 是否可以幫上你的忙呢? 我們今天就用辦公室應用的場景來發想,實際上操作看看,看MS Desig
今天我這邊提供大家一個方法,讓大家可以自己成為這些AI繪圖的主角,也就是在AI裡面建立屬於你自己個人的模型。Stable Diffusion比較少這部分的教學,是因為這部分的訓練的確比較有一些技術的門檻,我這邊會嘗試用比較簡單的方式讓大家可以一個步驟一個步驟照著做,就能夠達到我們想要達到的結果。
我們介紹過很多AI繪圖工具,但是究竟哪一個AI繪圖工具最能理解你的描述呢? 我們決定直接拿一模一樣的輸入(Prompt)餵給各種工具,讓我們來看看會得到怎樣的結果,就知道哪個AI工具最能聽懂人話,請看這篇的分析與實測。
你可能也想看
Google News 追蹤
Thumbnail
深度學習是什麼? 簡單來說,深度學習是大型且多層的人工神經網路。我們可以想像神經網路("Neural Nnetwork, NN")是一種有向無環圖,此圖可拆分成三個部分來看: 1. 輸入層接收信號向量;2. 一個或多個隱藏層處理前一層的輸出; 3. 輸出層統合之前所有隱藏層的處理結果。神經網路的初
Thumbnail
輸入層:接收數據,對應特徵值,是網絡的入口。 隱藏層:學習數據的抽象特徵,引入非線性,處理複雜模式。 輸出層:產生結果,將特徵轉換為預測值(regression)或分類(classification)結果。 陳縕儂老師說過 中間的隱藏層通常不會是線性的 如果全部都是線性 那任意交換隱藏層
Thumbnail
本篇文章專注於消息傳遞(message passing)在圖神經網絡(GNN)中的應用,並以簡單的例子解釋了消息傳遞的過程和機制。
Thumbnail
本文主要筆記使用pytorch建立graph的幾個概念與實作。在傳統的神經網路模型中,數據點之間往往是互相連接和影響的,使用GNN,我們不僅處理單獨的數據點或Xb,而是處理一個包含多個數據點和它們之間連結的特徵。GNN的優勢在於其能夠將這些連結關係納入模型中,將關係本身作為特徵進行學習。
Thumbnail
神經系統分為中樞神經系統(central nervous system)與邊緣神經系統(peripheral nervous system)。 邊緣系統又有兩個分支: 1.交感神經系統 2.副交感神經系統
Thumbnail
本文主要介紹神經網路訓練辨識的過程,利用fashion_mnist及簡單的神經網路來進行分類。 使用只有兩層的神經網路來訓練辨識fashion_mnist資料。
Thumbnail
感知器是一種基本的神經網路模型,用於二分類問題。它模擬了人腦神經元的工作原理,通過調整權重和偏差值來達到預測和分類的目的。 感知器流程 輸入 資料的輸入: 輸入層接受資料的輸入,每個輸入對應一個特徵,還有一個固定的偏差神經元。 資料經過每個神經元時,會乘上相應的
Thumbnail
卷積神經網路(CNN)是一種專門用於影像相關應用的神經網路。本文介紹了CNN在影像辨識中的應用,包括圖片的組成、Receptive Field、Parameter Sharing、以及Pooling等技術。通過本文,讀者將瞭解CNN在影像辨識領域的優勢和運作原理。
瞭解如何透過Regression實作Classification,使用one-hot vector表示不同的類別,並透過乘上不同的Weight和加上不同的bias來得到三個數值形成向量。同時通過softmax的方式得到最終的y'值,並探討使用Cross-entropy來計算類別的loss。
大語言模型是一種特殊的神經網路,設計來理解,生成與回應人類的文本。 大語言模型是使用大量文本數據訓練的深度神經網路,其訓練使用的文本數據甚至包括了整個網路公開的文本。 大語言模型的「大」,體現於模型的參數個數以及其使用的訓練數據集。如此大的模型可以有百億甚至千億的參數。這些參數都是神經網
Thumbnail
深度學習是什麼? 簡單來說,深度學習是大型且多層的人工神經網路。我們可以想像神經網路("Neural Nnetwork, NN")是一種有向無環圖,此圖可拆分成三個部分來看: 1. 輸入層接收信號向量;2. 一個或多個隱藏層處理前一層的輸出; 3. 輸出層統合之前所有隱藏層的處理結果。神經網路的初
Thumbnail
輸入層:接收數據,對應特徵值,是網絡的入口。 隱藏層:學習數據的抽象特徵,引入非線性,處理複雜模式。 輸出層:產生結果,將特徵轉換為預測值(regression)或分類(classification)結果。 陳縕儂老師說過 中間的隱藏層通常不會是線性的 如果全部都是線性 那任意交換隱藏層
Thumbnail
本篇文章專注於消息傳遞(message passing)在圖神經網絡(GNN)中的應用,並以簡單的例子解釋了消息傳遞的過程和機制。
Thumbnail
本文主要筆記使用pytorch建立graph的幾個概念與實作。在傳統的神經網路模型中,數據點之間往往是互相連接和影響的,使用GNN,我們不僅處理單獨的數據點或Xb,而是處理一個包含多個數據點和它們之間連結的特徵。GNN的優勢在於其能夠將這些連結關係納入模型中,將關係本身作為特徵進行學習。
Thumbnail
神經系統分為中樞神經系統(central nervous system)與邊緣神經系統(peripheral nervous system)。 邊緣系統又有兩個分支: 1.交感神經系統 2.副交感神經系統
Thumbnail
本文主要介紹神經網路訓練辨識的過程,利用fashion_mnist及簡單的神經網路來進行分類。 使用只有兩層的神經網路來訓練辨識fashion_mnist資料。
Thumbnail
感知器是一種基本的神經網路模型,用於二分類問題。它模擬了人腦神經元的工作原理,通過調整權重和偏差值來達到預測和分類的目的。 感知器流程 輸入 資料的輸入: 輸入層接受資料的輸入,每個輸入對應一個特徵,還有一個固定的偏差神經元。 資料經過每個神經元時,會乘上相應的
Thumbnail
卷積神經網路(CNN)是一種專門用於影像相關應用的神經網路。本文介紹了CNN在影像辨識中的應用,包括圖片的組成、Receptive Field、Parameter Sharing、以及Pooling等技術。通過本文,讀者將瞭解CNN在影像辨識領域的優勢和運作原理。
瞭解如何透過Regression實作Classification,使用one-hot vector表示不同的類別,並透過乘上不同的Weight和加上不同的bias來得到三個數值形成向量。同時通過softmax的方式得到最終的y'值,並探討使用Cross-entropy來計算類別的loss。
大語言模型是一種特殊的神經網路,設計來理解,生成與回應人類的文本。 大語言模型是使用大量文本數據訓練的深度神經網路,其訓練使用的文本數據甚至包括了整個網路公開的文本。 大語言模型的「大」,體現於模型的參數個數以及其使用的訓練數據集。如此大的模型可以有百億甚至千億的參數。這些參數都是神經網