人工智能學習 - (總目錄)

目錄
請先看前言
前言
1 神經網絡
1.1 介紹神經網絡
1.1.1 什麼是神經網絡
1.2 神經網絡基礎
1.2.1 如何將數據輸入到神經網絡中
1.2.2 神經網絡是如何進行預測的
1.2.3 神經網絡如何判斷自己預測得是否準確
1.2.4 神經網絡是如何進行學習的
1.2.5 計算圖
1.2.6 如何計算邏輯迴歸的偏導數
1.2.7 向量化
1.2.8 如何開始使用python
1.2.9 如何向量化人工智能算法
1.2.10 [實戰編程]教你編寫第一個人工智能程序
1.3 淺神經網絡
1.3.1 淺層神經網絡
1.3.2 如何計算淺層神經網絡的前向傳播
1.3.3 如何計算淺層神經網絡的反向傳播
1.3.4 爲什麼需要激活函數
1.3.5 常見的激活函數
1.3.6 激活函數的偏導數
1.3.7 隨機初始化參數
1.3.8 [實戰編程]教你編寫淺層神經網絡
1.4 深度神經網絡
1.4.1 爲什麼需要深度神經網絡
1.4.2 如何計算深度神經網絡
1.4.3 覈對矩陣的維度
1.4.4 參數和超參數
1.4.5 [實戰編程] 構建深度神經網絡
2 實戰優化
2.1 實戰基礎
2.1.1 如何配置數據集
2.1.2 欠擬合和過擬合
2.1.3 如何解決欠擬合與過擬合
2.1.4 L2正則化
2.1.5 dropout
2.1.6 數據增強
2.1.7 將輸入特徵進行歸一化處理
2.1.8 梯度消失和梯度爆炸
2.1.9 梯度檢驗
2.1.10 [實戰編程] 構建實戰神經網絡
2.2 優化算法
2.2.1 Mini-batch 梯度下降
2.2.2 如何爲mini-batch選擇合理的大小
2.2.3 指數加權平均
2.2.4 理解指數加權平均
2.2.5 指數加權平均的偏差修正
2.2.6 momentum梯度下降
2.2.7 RMSprop
2.2.8 Adam優化算法
2.2.9 學習率衰減
2.2.10 局部最優問題
2.2.11 [實戰編程] 優化神經網絡
2.3 調試神經網絡
2.3.1 調試處理
2.3.2 爲調參選擇採樣標尺
2.3.3 調參技巧的通用性和超參數的過時性
2.3.4 調參模式
2.3.5 歸一化隱藏層
2.3.6 歸一化隱藏層的好處
2.3.7 使用模型時的隱藏層歸一化
2.3.8 Softmax 迴歸
2.3.9 深入理解softmax
2.3.10 如何選擇深度學習框架
2.3.11 手把手教你使用tensorflow
2.3.12 [實戰編程] 使用框架構建神經網絡
3 深度學習項目實戰
3.1 項目實戰一
3.1.1 決策很重要
3.1.2 正交化
3.1.3 如何判斷哪個網絡更好?——單一數值指標
3.1.4 如何判斷哪個網絡更好?——優化指標和滿足指標
3.1.5 驗證集與測試集的數據來源要一致
3.1.6 如何決定數據集的大小?
3.1.7 判定標準是可以變的
3.1.8 AI能力與人類能力的關係
3.1.9 利用貝葉斯誤差來判斷擬合度
3.1.10 人類誤差是多少呢?
3.1.11 AI超越人類
3.1.12 提升AI系統的一般流程
3.1.13 [實戰編程] 大項目神經網絡
3.2 實戰項目二
3.2.1 手工分析錯誤
3.2.2 同時手工分析多個錯誤類別
3.2.3 錯誤標籤
3.2.4 如何修正錯誤標籤
3.2.5 快速地構建一個簡單的系統
3.2.6 訓練集與驗證集的來源不一致
3.2.7 異源時的擬合度分析
3.2.8 不常用的誤差分析
3.2.9 如何解決異源問題
3.2.10 遷移學習
3.2.11 如何實現遷移學習
3.2.12 什麼時候才應該使用遷移學習?
3.2.13 多任務學習
3.2.14 [實戰編程] 優化大項目
4 人臉識別
4.1 卷積神經網絡
4.1.1 計算機視覺
4.1.2 邊緣檢測示例
4.1.3 更多邊緣檢測內容
4.1.4 Padding1.5 卷積步長
4.1.6 三維卷積
4.1.7 單層卷積網絡
4.1.8 簡單卷積網絡示例
4.1.9 池化層
4.1.10 卷積神經網絡示例
4.1.11 爲什麼使用卷積?
4.1.12 [實戰編程] 構建簡單的人臉識別程序
4.2 深度卷積網絡
4.2.1 爲什麼要進行實例探究?
4.2.2 經典網絡
4.2.3 殘差網絡
4.2.4 殘差網絡爲什麼有用?
4.2.5 網絡中的網絡以及 1×1 卷積
4.2.6 谷歌 Inception 網絡簡介
4.2.7 Inception 網絡
4.2.8 使用開源的實現方案
4.2.9 遷移學習
4.2.10 數據擴充
4.2.11 計算機視覺現狀
4.2.12 [實戰編程] 優化人臉識別程序
4.3 目標檢測
4.3.1 目標定位
4.3.2 特徵點檢測
4.3.3 目標檢測
4.3.4 卷積的滑動窗口實現
4.3.5 Bounding Box預測
4.3.6 交併比
4.3.7 非極大值抑制
4.3.8 Anchor Boxes
4.3.9 YOLO 算法
4.3.10 候選區域
4.3.11 [實戰編程] 構建商用人臉識別程序
4.4 油畫風格轉換
4.4.1 什麼是轉換?
4.4.2 One-Shot學習
4.4.3 Siamese 網絡
4.4.4 Triplet 損失
4.4.5 風格驗證與二分類
4.4.6 什麼是神經風格轉換?
4.4.7 什麼是深度卷積網絡?
4.4.8 代價函數
4.4.9 內容代價函數
4.4.10 風格代價函數
4.4.11 一維到三維推廣
4.4.12 [實戰編程] 構建風格轉換程序
5 語音識別
5.1 循環序列模型
5.1.1 爲什麼選擇序列模型?
5.1.2 數學符號
5.1.3 循環神經網絡模型
5.1.4 通過時間的反向傳播
5.1.5 不同類型的循環神經網絡
5.1.6 語言模型和序列生成
5.1.7 對新序列採樣
5.1.8 循環神經網絡的梯度消失
5.1.9 GRU單元
5.1.10 長短期記憶
5.1.11 雙向循環神經網絡
5.1.12 深層循環神經網絡
5.1.13 [實戰編程]構建簡單的語音識別程序
5.2 自然語言處理與詞嵌入
5.2.1 詞彙表徵
5.2.2 使用詞嵌入
5.2.3 詞嵌入的特性
5.2.4 嵌入矩陣
5.2.5 學習詞嵌入
5.2.6 Word2Vec2.7 負採樣
5.2.8 GloVe 詞向量
5.2.9 情緒分類
5.2.10 詞嵌入除偏
5.2.11 [實戰編程] 優化語音識別程序
5.3 序列模型和注意力機制
5.3.1 基礎模型
5.3.2 選擇最可能的句子
5.3.3 集束搜索
5.3.4 改進集束搜索
5.3.5 集束搜索的誤差分析
5.3.6 Bleu 得分
5.3.7 注意力模型直觀理解
5.3.8注意力模型
5.3.9語音識別
5.3.10觸發字檢測
5.3.11 [實戰編程] 構建商用語音識別
6 生成對抗網絡GANs
7 自動駕駛
8 強化學習
9 無監督學習
10 人工大腦

轉載自:http://blog.csdn.net/jiangjunshow

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章