人工智能核心基础 - 规划和概要

閱讀時間約 3 分鐘

raw-image

Hi,你好。又见面咯,我是茶桁。

在之前,我花了两个来月的时间撰写了「Python篇」和「数学篇」,希望小伙伴们在正式进入AI之前能够打好一个基础。那么今天开始,我们将正式开始AI基础的学习。

在本篇开始之前,我需要跟“方格子”的读者说一声抱歉,由于方格子对数学公式支持不太友好的缘故,所以整个数学篇我都未在方格子上进行发布。如果大家对这部分基础感兴趣,可以去关注我的微信公众号「坍缩的奇点」,所有内容都可在那里进行了发布。

这一节课咱们先不着急直接开始课程,而是聊一下本次课程的一个规划。

在整个课程规划中,我们将会直接从机器学习开始入手,进入深度学习,然后开始接触RNN、CNN以及三大方向:NLP、CV和BI。核心能力将会分成四大部分进行展开精讲。

目录规划

基础能力

  • 人工智能导论
  • 机器学习初探
  • 机器学习进阶(这部分会比较长)
  • 深度学习进阶
  • RNN
  • CNN
  • 自然语言处理基础(NLP)
  • 计算机视觉基础(CV)
  • 商业智能(BI)

BI精讲

  • 预测全家桶与机器学习四大神器
  • Fintech数据分析
  • 数据可视化与DashBoard
  • ALS算法与推荐系统
  • SVD矩阵分解与基于内容的推荐
  • PageRank、图论与推荐系统
  • Graph Embedding
  • 强化学习

NLP精讲

  • 自然语言处理的基本过程
  1. 向量空间模型
  2. 自然语言处理初步
  3. 语言模型和概率图模型
  4. 词向量模型Word2Vec
  5. Transformer与BER,大规模预训练问题
  6. 自然语言生成
  7. 自然语言处理与人工智能前沿

CV精讲

  • 初阶计算机视觉:图像处理
  1. 中阶计算机视觉:图像描述
  2. 中阶到高阶的关键:CNN方法
  3. 计算机视觉中的图像分类
  4. 深度学习之单阶段目标检测
  5. 深度学习之两阶段目标检测
  6. 计算机视觉中的图像分割
  7. 计算机视觉中的目标跟踪

内容输出方式

以上目录中的四个部分都属于核心部分,每一个部分都会单独开一个专栏目录。一个是因为收费课程,拆散之后大家可以按照自己的需要进行购买,再一个也是将四部分区分的清晰一点。

虽然每一张专辑都是收费的,但是也并不是所有内容都需要进行购买才可查看。有的时候为了吸引流量,即便没有购买专辑,部分章节会开放阅读全部。

以上目录仅供参考,目录是按照内容概要进行规划的,并不等于实际章节。就像我在写数学篇的时候,本来就只规划了4个知识点,但是其中一个知识点可能会讲7、8个章节,也可能3、4篇就讲完了。所以届时的内容,会比从目录上看要多的多,起码就基础部分的机器学习这一知识点,可能就要十几、二十节课才能讲完。

代码库

在咱们的整个讲解过程,演示代码是不可避免的,并且其中还会包含很多数据。这部分内容基本上都会在咱们的《茶桁的AI秘籍》的代码仓库中找到,地址为:https://github.com/hivandu/AI_Cheats

其中部分数据集可能因为太大会上传到百度网盘并分享出来,分享一般都会放在文末,大家可以自取。

其他

如果您阅读时感觉文章不完整,那应该是该网站我暂时无法发布收费专栏,所以我仅提供了部分内容。



avatar-img
9會員
62內容數
从基础开始,再到Python,然后是CV、BI、NLP等相关技术。从头到尾详细的教授一边人工智能。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
茶桁的沙龍 的其他內容
因为部分自媒体上无法显示公式,为了方便,有的地方我是直接整段截图。和文章字体不一致的部分还望见谅。 Hi, 大家好。又见面了,我是茶桁。 这次我依然给大家带来的是基础部分,让我们进入《Math - 数学篇》。 数学对于计算机编程来说重要性是毋庸置疑的,更何况我们现在不仅仅是编程,而是走在「
数学对于计算机编程来说重要性是毋庸置疑的,更何况我们现在不仅仅是编程,而是走在「人工智能」的路上。可以说,数学应该是最重要的基础。 我们在学习AI的过程当中可能会遇到的一些关于数学方面的一些东西,比如说线性代数里面的矩阵运算,比如说求导,还有一些概率统计,图论方面的一些东西。
因为部分自媒体上无法显示公式,为了方便,有的地方我是直接整段截图。和文章字体不一致的部分还望见谅。 Hi, 大家好。又见面了,我是茶桁。 这次我依然给大家带来的是基础部分,让我们进入《Math - 数学篇》。 数学对于计算机编程来说重要性是毋庸置疑的,更何况我们现在不仅仅是编程,而是走在「
数学对于计算机编程来说重要性是毋庸置疑的,更何况我们现在不仅仅是编程,而是走在「人工智能」的路上。可以说,数学应该是最重要的基础。 我们在学习AI的过程当中可能会遇到的一些关于数学方面的一些东西,比如说线性代数里面的矩阵运算,比如说求导,还有一些概率统计,图论方面的一些东西。
你可能也想看
Google News 追蹤
Thumbnail
學習生成式AI,不僅僅是掌握幾個工具,而是從全方位了解AI的發展範疇及其潛力。我經常在企業教授AI課程時,會遇到HR詢問:某些工具用不上,可以不教嗎?當然可以,但如果同仁不了解生成式AI在「數位內容」上的廣泛應用,又如何掌握大語言模型的發展邊界?
Thumbnail
僅僅用了兩天就完成Google AI Essentials課程,整個課程總長約9小時,但實際上花掉的時間不用這麼多。這算是我第一次上Coursera的課、也是第一次上Google的課程,也得到不少心得。
學習是三個階段的循環: - 具體階段:情報收集,紀錄體驗 - 抽象階段:抽象化,模型化,發現模式 - 應用階段:實踐,檢證 西尾泰和這一套學習的三階段循環:具體,抽象,應用, 是一個很好的起始框架。 嘗試實踐它,然後持續修改, 你就能逐漸找到自己學習新事物的獨門心法。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 首先先展示 Transformer 的架構圖: 可以看到架構中不再出現 RNN 、 LSTM 、 CNN 等物件,因為 Recurrence 已被摒棄。
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 16走過了部分AI發展軌跡,接著繼續: 在1980年代Yann LeCun設計了Convolutional Neural N
上週發了一篇AI書單推薦 今天來談談,我是怎麼學習的,我總共學了七年AI,自然對於一個小白想入門有更深刻的體悟,更能了解怎麼樣學習才能不至於一次面臨太多困難而放棄 我的建議是這樣: 先花兩年把Machine Learning學完,當中會遇到很多數學問題,這方面可以「在遇到問題時」再去翻
機器學習是什麼? 簡單來說,機器學習就是訓練機器尋找Function的一段過程,而這個Function可以幫助我們解決我們遇到的問題,或是幫助我們
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters 延續上一篇Part 2講
這個頻道將提供以下服務: 深入介紹各種Machine Learning技術 深入介紹各種Deep Learning技術 深入介紹各種Reinforcement Learning技術 深入介紹Probabilistic Graphical Model技術 不定時提供讀書筆記 讓我們一起在未
Thumbnail
學習生成式AI,不僅僅是掌握幾個工具,而是從全方位了解AI的發展範疇及其潛力。我經常在企業教授AI課程時,會遇到HR詢問:某些工具用不上,可以不教嗎?當然可以,但如果同仁不了解生成式AI在「數位內容」上的廣泛應用,又如何掌握大語言模型的發展邊界?
Thumbnail
僅僅用了兩天就完成Google AI Essentials課程,整個課程總長約9小時,但實際上花掉的時間不用這麼多。這算是我第一次上Coursera的課、也是第一次上Google的課程,也得到不少心得。
學習是三個階段的循環: - 具體階段:情報收集,紀錄體驗 - 抽象階段:抽象化,模型化,發現模式 - 應用階段:實踐,檢證 西尾泰和這一套學習的三階段循環:具體,抽象,應用, 是一個很好的起始框架。 嘗試實踐它,然後持續修改, 你就能逐漸找到自己學習新事物的獨門心法。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 首先先展示 Transformer 的架構圖: 可以看到架構中不再出現 RNN 、 LSTM 、 CNN 等物件,因為 Recurrence 已被摒棄。
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 16走過了部分AI發展軌跡,接著繼續: 在1980年代Yann LeCun設計了Convolutional Neural N
上週發了一篇AI書單推薦 今天來談談,我是怎麼學習的,我總共學了七年AI,自然對於一個小白想入門有更深刻的體悟,更能了解怎麼樣學習才能不至於一次面臨太多困難而放棄 我的建議是這樣: 先花兩年把Machine Learning學完,當中會遇到很多數學問題,這方面可以「在遇到問題時」再去翻
機器學習是什麼? 簡單來說,機器學習就是訓練機器尋找Function的一段過程,而這個Function可以幫助我們解決我們遇到的問題,或是幫助我們
以下內容是我閱讀Probabilistic Graphical Model, Koller 2009一書的讀書筆記,未來將不定期新增內容,此技術屬AI人工智慧範疇。 1.3 Overview and Roadmap 1.3.1 Overview of Chapters 延續上一篇Part 2講
這個頻道將提供以下服務: 深入介紹各種Machine Learning技術 深入介紹各種Deep Learning技術 深入介紹各種Reinforcement Learning技術 深入介紹Probabilistic Graphical Model技術 不定時提供讀書筆記 讓我們一起在未