原创 損失函數:categorical_crossentropy

損失函數:categorical_crossentropy損失函數講解合集概述正文公式分析代碼分析MORE 損失函數講解合集 binary_crossentropy categorical_crossentropy 概述 本文講解

原创 損失函數:binary_crossentropy

損失函數:binary_crossentropy損失函數講解合集概述正文公式分析代碼分析MORE 損失函數講解合集 binary_crossentropy categorical_crossentropy 概述 本文講解的是bin

原创 論文筆記:ResNet論文筆記

論文筆記:ResNet論文筆記論文地址1、 正文1.1、提出問題1.2、分析問題1.3、提出假設1.4、實驗結果2、網絡細節2.1、ResNet系列具體結構2.2、三種shortcut connections實現細節2.3、兩種b

原创 TF2.0 GradientTape()類講解

TF2.0 GradientTape類講解概述用法舉個小例子進階例子拓展昇華 概述 GradientTape()是一個Class, 其Methods有batch_jacobian, gradient, jacobian, res

原创 TF2.0模型創建

TF2.0模型創建概述1、通過tensorflow.keras.Sequential構造器創建模型2、使用函數式API創建模型3、通過繼承tensorflow.keras.Model類定義自己的模型下一篇TF2.0模型訓練 概述

原创 反向傳播:公式推導篇

反向傳播:公式推導篇概述正文隱藏層到輸出層的參數的偏導數輸入層到隱藏層的參數的偏導數這些參數是如何更新的爲什麼梯度下降法是有效的? 概述 本節推導了一個兩層的全連接層的正向傳播公式以及反向傳播公式。雖然只是用一個兩層的全連接層舉例

原创 反向傳播:代碼演示篇

反向傳播:代碼演示篇概述正文1、從零開始2、藉助深度學習框架 概述 本節繼上一節反向傳播:公式推導篇的代碼演示,本節將從零開始演示反向傳播訓練參數的整個過程,除此之外還將使用TF2.0來進行快速求導作爲拓展演示。 正文 首先想一下

原创 TF2.0模型訓練

TF2.0模型訓練概述數據集介紹1、通過fit方法訓練模型準備數據創建模型編譯模型訓練模型2、通過fit_generator方法訓練模型構建生成器創建模型編譯模型訓練模型3、自定義訓練準備數據創建模型定義損失函數及優化器訓練模型下

原创 TF2.0模型保存

TF2.0模型保存概述模型保存及加載保存爲.h5格式1、保存權重2、加載權重3、保存整個模型4、加載模型保存爲tf格式保存爲.pb格式(Saved Model)1、保存成Saved Model2、加載Saved Model完結撒花