深度學習基本概念簡介(下)

閱讀時間約 3 分鐘

在前一篇中提到,我們可以透過y= bx+w 來當作機器用來預測的函數。但有時如果函數太過簡單,函數與實際輸出的值之間的差距無論怎麼調整都會存在,也就是前一節提到的Model Bias問題。

為了解決沒有彈性的問題,就有了sigmoid函數

Sigmoid

當一條linear curve無法有效的預測我們需要的值,這時我們可以透過precise linear curve來得到我們需要的函數。

但是precise linear curve本身的函數是不容易寫出的,因此我們可以用sigmoid函數逼近該precise linear curve。

*precise linear curve: 一條由很多線段所組成的鋸齒線(constant + a set of linear curve)。

Sigmoid函數的定義:y = c * (1 / 1 + e-(b+wx) )

規則:

  1. 當w無限大,就會趨近於平線。改變W → 改變斜率
  2. 改變c → 改變高度
  3. 改變b → 平移shift
raw-image


Part 1. 尋找函數Function

我們把sigmoid函數套用到原本的函數中,就會變成

y = b + wx1 -> y = Σci sigmoid(bi + wix1)

y=b+Σwijxj -> y= Σci sigmoid(bi + Σwijxj),j是天數。 wijxj為不同天數的數據與權重參數。

  1. 將函數展開:

r1 = b1 + w11x1 + w12x1 + w13x3

r2 = b2 + w21x1 + w22x1 + w23x3

r2 = b3 + w31x1 + w32x1 + w33x3

  1. 將展開的公式以矩陣表示:r = b + wx
raw-image


  1. 最後乘上Ci加上b,就會得到預測的值y。同時我們也能將這個步驟轉為矩陣的方式表示:
raw-image

透過以上三個步驟,我們就能完成第一步的尋找函數function過程。

*我們要尋找的參數w,b,c可以統一變為θ矩陣,透過訓練資料找到最適合的參數值。


Part 2. 尋找讓Loss最小的參數θ

接著我們要尋找讓loss最小的參數,讓L(θ)的值可以最小,因此我們挑選一個θ0當作初始值,讓L對每個θi微分,就可以得到一組gradient。

因此每次更新的公式: θ1 = θ0 - g * learning rate。

那要更新多久呢?

  1. gradient = 0
  2. 不想做了為止。


使用Batch

不過通常,我們在做gradient decent的時候,偏向於把大量的訓練資料區分為好幾個batch(隨機區分即可),然後先利用batch1 將θ0更新成θ1,接著再把batch2的資料拿來將θ1更新成θ2

*把所有的batch更新過一次,被稱為1 epoch。


反覆進行Sigmoid,以得到最佳解

為什麼我們需要不斷地堆疊更多的sigmoid或是前面線性函數的層數?

因為我們在預測的輸出資料,通常不會精準的符合某個函數的圖形。因此我們需要透過不斷地堆疊,去近似於我們目標的模型,藉此找到預測的方程式。而這樣重複堆疊的過程,就是深度學習的由來。

我們也不一定要只使用一個sigmoid,當我們重複加上更多的sigmoid,也可以更優化模型。至於要做幾次(layer),這也由我們自己控制的部分(hyperparameter)。

-> 以上的步驟與以下的圖型,也說明了為什麼它被稱為神經網路,或是深度學習

(Deep的由來:很多hidden layer疊加在一起)

raw-image



參考資料:

Hung-yi Lee機器學習課程

深度學習基本觀念

Activation Function



1會員
12內容數
留言0
查看全部
發表第一個留言支持創作者!
dab戴伯的沙龍 的其他內容
Android 進程與線程整理
閱讀時間約 7 分鐘
Java物件導向概念
閱讀時間約 1 分鐘
資料結構的一些語法整理
閱讀時間約 3 分鐘
Android 中各個Image檔整理
閱讀時間約 3 分鐘
你可能也想看
創作者要怎麼好好休息 + 避免工作過量?《黑貓創作報#4》午安,最近累不累? 這篇不是虛假的關心。而是《黑貓創作報》發行以來可能最重要的一篇。 是的,我們這篇講怎麼補充能量,也就是怎麼休息。
Thumbnail
avatar
黑貓老師
2024-06-29
《深度學習力 》指定閱讀的閱讀建議、放棄的關鍵字是?這本書訪談了大學學生,並且歸納出幾點建議,書中也提到不必每條條都嚴格遵守,而是選擇一組吸引你的規則,並在大學生活中履行。 我自己在看這本書的時候,結合自己的大學經歷,選取幾點我比較有感觸的部分,分為以下幾點,後面則會提到一些關於書中內容反思
Thumbnail
avatar
小豆pika
2024-04-18
深度學習:家庭系統諮商的新視角透過麗鳳督導在心理諮商上的應用,能夠讓我們看待個案問題時有了全新的視角。學理論要浸泡到自動化思考,分析個案時需要考慮家庭結構、互動關係和人際界線等重要元素。此外,心理諮商師需用關係去理解表徵問題,並運用大量的探問與對話,從而從症狀到系統的探索。
Thumbnail
avatar
俞時不候,勇往直前
2024-03-15
深度學習的技術不是只是硬記硬背,而是要用對方法。學習,不分年紀,不分時候,我們隨時都在學習,但有良好的學習技能,像故事/小說書中,電影裡那些擁有超能力的人一樣,可以在自己想學的技能中,一眼就記住,過目不忘的技能,如果擁有或許也是一件不錯的事,但切換到現實,我們認真學習,雖然也能記住,但所要花費的時間成本...
Thumbnail
avatar
宇彗星
2023-11-04
深度學習常用框架深度學習是機器學習的一個分支,它使用多層神經網絡來模擬和解決複雜的問題。有許多不同的深度學習框架可供選擇,這些框架提供了用於訓練神經網絡的工具和函數。以下是一些常用的深度學習框架的簡介: TensorFlow: TensorFlow由Google開發,是最流行的深度學習框架之一。它具有靈活的計算
avatar
艾利斯
2023-09-25
深度學習之技術,讀後心得感想之如何思辨知識錯誤。如何與錯誤打交道,就是對於自身的錯誤的察覺,又或者是對於所學的知識正確性如何思辨。 大家好,今天我們來談談「第二層思考」。這是一個相當重要的概念,尤其在現代社會中,我們需要面對各種各樣的資訊和知識,但有時候這些資訊和知識並不是那麼正確。所以,我們必須學會用第二層思考去判斷和分析這些資訊和知識。 首先
Thumbnail
avatar
熱血瓜爺
2023-06-21
深度學習與教育科技的請益 feat. 陳佩英教授 師範大學的 陳佩英 教授來訪均一! 讓我們有機會向教授請益有關個人化學習的前瞻發展可能性。 教授很親切給予我們許多建言與引導,聽完教授的回饋,有三個小心得: 真的覺得自己懂得不過廣泛,也不夠深啊! 2. 也很喜歡教授提醒我們要注意工具背後的教育理念。 a. 特別是對非認知能力的評量,不能用行為主義來
Thumbnail
avatar
樂尼
2022-09-17
深度學習的技術-記憶第一章 | 獲得很不錯的記憶力    一小時讀一本書交錯的讀,比一本書讀三小時來的有效率(但你的腦袋卻會告訴你這樣沒效率,並且前者閱讀方式會讓你感到痛苦)    重讀的技巧>在你看完書之後,每天都用15分鐘複習腦袋閱讀的內容,提高記憶力,並使其進入長期記憶區。 第二章 | 理解力最大化    
avatar
紅茶拇指
2021-07-04
《深度學習的技術》:帶你打造5層次的強效學習系統!是什麼讓一個人的成長速度比另一個人更快呢? 《深度學習的技術》的作者楊大輝的答案是:學習的深淺。
Thumbnail
avatar
MaxJames
2020-10-25
深度學習的技術(下)學習如何學習(拓、活) 繼上一篇談到「記、懂、網」之後,讓我們再續談「拓」。在拓篇,我們將要增加知識的品質。而在本篇的最後一節「活」篇,則是探討到學習的管道。 所以,在讀這篇文章時,你也可以反過來,先拉到最下面的「活」篇,掌握正確的學習管道之後,你再回來這裡,將知識依照順序加工
Thumbnail
avatar
【心理學xNLP】 彭博
2020-04-24
深度學習的技術(上)學習如何「學習」 在學習的過程中,不同的階段,知識點的運用在大腦的變化不盡相同,從傳統的點線面教學、走到資訊爆炸的現在。 我們需要的是:記、懂、網、拓、活。
Thumbnail
avatar
【心理學xNLP】 彭博
2020-04-15