原创 TensorFlow學習筆記(8) Tensorboard可視化

文章目錄Tensorboard簡介TensorFlow計算圖可視化命名空間與Tensorboard圖上節點節點信息監控指標可視化 Tensorboard簡介 Tensorboard是Tensorflow的可視化工具,通過tf程序輸

原创 TensorFlow學習筆記(5) 卷積神經網絡

目錄   卷積神經網絡的基本結構 卷積層 池化層 經典卷積網絡 LeNet-5模型 Inception-v3模型 遷移學習 卷積神經網絡的基本結構 前面所提到的MNIST是一個相對簡單的數據集,而在其他更復雜的圖像識別數據集上,卷積神經網

原创 TensorFlow學習筆記(4) 變量管理及模型持久化

目錄 變量管理 模型持久化 保存模型 讀取模型 保存爲可移植單個文件 持久化原理及數據格式 TensorFlow最佳實踐樣例程序 mnist_inference.py mnist_train.py mnist_eval.py 變量管理 隨

原创 TensorFlow學習筆記(7) 多線程輸入數據處理框架

目錄 多線程輸入數據處理框架 隊列與多線程 輸入文件隊列 組合訓練數據 輸入數據處理框架 多線程輸入數據處理框架 爲了避免圖像預處理成爲神經網絡模型訓練效率的瓶頸,TF提供了一套多線程處理輸入數據的框架。經典的輸入數據處理流程爲如圖所示。

原创 TensorFlow學習筆記(1) 計算圖、張量、會話及簡單的神經網絡

  一、TensorFlow計算模型——計算圖(Computational Graph) 二、TensorFlow數據模型——張量(tensor) 三、TensorFlow運行模型——會話(session) 四、TensorFlow實現神

原创 TensorFlow學習筆記(6) 圖像數據處理

目錄 TFRecord輸入數據格式 Tensorflow圖像預處理函數 圖像編碼處理 圖像大小調整 圖像翻轉 圖像色彩調整 處理標註框 圖像預處理完整樣例 TFRecord輸入數據格式 TF提供了一種統一的格式來存儲數據,這個格式就是TF

原创 【cs231n】深度學習優化方法

文章目錄隨機梯度下降minibatch-SGD學習率衰減動量(Momentum)更新Nesterov動量更新逐參數適應學習率方法AdagradRMSpropAdam 隨機梯度下降 minibatch-SGD 最簡單的更新形式,沿着

原创 【AndrewNg機器學習】聚類(Clustering)

文章目錄1. 無監督學習2. K-均值算法2.1 什麼是kmeans2.2 K-均值的優化目標2.3 隨機初始化 1. 無監督學習 無監督學習:數據不帶有任何標籤,訓練集只有x而沒有對應的label 聚類:如下圖中數據,可以看爲兩

原创 【AndrewNg機器學習】異常檢測(Anomaly detection)

文章目錄1 高斯分佈2 異常檢測算法3 開發和評價一個異常檢測系統4 異常檢測與監督學習之對比5 特徵的選擇6 多元高斯分佈及其應用 假設我們有數據集{x(1),x(2),……,x(m)x^{(1)},x^{(2)},……,x^{

原创 【cs231n】Detection and Segmentation

文章目錄1 語義分割1.1 Sliding Window1.2 FCN(Fully Convolutional)去池化轉置卷積2 目標檢測2.1 R-CNN2.2 Fast R-CNN2.3 Faster R-CNN2.4 YOL

原创 【cs231n】RNN LSTM

文章目錄RNN(Recurrent Neural Networks)LSTM (Long Short Term Memory )Image CaptionWord Embedding訓練測試 RNN(Recurrent Neura

原创 【cs231n】Assignment2總結

Assignment2的兩個要點: 全連接神經網絡的系統構建、深度學習優化方法、正則化、歸一化等等 內容 作業代碼 全連接神經網絡的構建 cs231n/classifiers/fc_net.py 相關層的前向與反

原创 【cs231n】卷積神經網絡及反向傳播

文章目錄卷積神經網絡卷積層池化層反向傳播卷積層反向傳播池化層反向傳播 卷積神經網絡 CNN一般由卷積層、池化層、全連接層三種類型的層構成。 卷積層 一些概念: 感受野:即每個神經元與輸入數據的局部區域連接的空間大小,其大小爲卷積核

原创 【cs231n】正則化

文章目錄L2 regularizationL1 regularizationDropout 當訓練數據過少、網絡複雜或訓練過多時,會出現過擬合。在訓練集上的準確度不斷提高,但在測試集上的準確率不高。爲了解決這個問題,就需要在損失函數中

原创 【cs231n】Batchnorm及其反向傳播

文章目錄BatchNormalization反向傳播其他Normalization方法LayerNormalizationInstanceNormalizationGroupNormalization 神經網絡中有很多層的疊加,數據經