原创 tensorflow2------dataset基礎API

import matplotlib as mpl #畫圖用的庫 import matplotlib.pyplot as plt #下面這一句是爲了可以在notebook中畫圖 %matplotlib inline import nump

原创 tensorflow2.0------自定義求導

我們在前面的模型的訓練過程中model.compile函數中指定的optimizer就是求導的算法類型,一般我們直接指定爲sgd、adam算法求導,這裏我們可以不依賴於tensorflow中相關算法求導,轉而選擇使用自定義的算法求導,這樣

原创 tensorflow2.0------tf.function 和 autograph

TensorFlow 2.0引入的eager提高了代碼的簡潔性,而且更容易debug。但是對於性能來說,eager執行相比Graph模式會有一定的損失。這不難理解,畢竟原生的Graph模式是先構建好靜態圖,然後才真正執行。這對於在分佈式訓

原创 tensorflow2.0------自定義損失函數和Layer

import matplotlib as mpl #畫圖用的庫 import matplotlib.pyplot as plt #下面這一句是爲了可以在notebook中畫圖 %matplotlib inline import nump

原创 tensorflow2.0------基礎API的使用

 這裏主要介紹了tensorflow中常量和變量的使用。 常量使用的是tf.constant或tf.ragged.constant來創建 變量使用的是tf.Variable來創建 import matplotlib as mpl #畫圖

原创 tensorflow2.0------超參數搜索

1.超參數 超參數指的是:神經網絡中有很多訓練過程中不變化的參數,一般是在訓練之前就已經認爲設定好的,不像神經單元中權重與偏置都是在模型訓練過程中值不斷改變的。 網絡結構參數:幾層,每層寬度,每層激活函數等 訓練參數:batch_si

原创 tensorflow2.0------迴歸問題california_housing_dataset

import matplotlib as mpl #畫圖用的庫 import matplotlib.pyplot as plt #下面這一句是爲了可以在notebook中畫圖 %matplotlib inline import nump

原创 tensorflow2.0------dnn實現

在tensorflow2上實現深度神經網絡的模型搭建與訓練過程。 這裏重點說明一下搭建模型過程中有使用到 批歸一化以及Dropout、selu激活函數等。 import matplotlib as mpl #畫圖用的庫 import m

原创 tensorflow2.0------分類問題fashion_mnist

這裏以分類問題fashion_mnist數據集的模型訓練和使用來介紹tensorflow2.0的開發流程。 代碼中有使用訓練數據歸一化以及使用tf.keras.callbacks來監聽管理模型訓練的過程,並可視化tensorboard模型

原创 Face Recognition人臉識別

1. Face verification && Face recognition 人臉驗證:驗證輸入圖片中的那個人是否與他聲稱的身份相符,也被稱作1對1問題。 人臉識別:從一個大量人臉數據庫中找到匹配輸入圖片中的那個人。如果你有一個上百

原创 tensorflor簡介

tensorflow簡介 Google開源的深度學習框架 採用數據流圖,用於數值計算 節點-----處理數據 線-------節點間的輸入輸出關係 線上運輸tensor張量(什麼是tensor?tensor就是所有的n維數據,所有的n維

原创 深度學習中經常使用的希臘字母

個人覺得在平時使用中希臘字母還是要會讀的,特別是在面試時,如果不知道怎麼讀會有一種很 low 、沒上道的感覺。。。。 ω(歐米伽) α( 阿而法) β( 貝塔) γ(伽馬) δ(德爾塔) ε(艾普西龍) ζ(截塔) η(艾塔) θ(西塔)

原创 Data augmentation數據增強

Mirroring(鏡像翻轉):最簡單的數據增強方式 Random Cropping(隨機裁剪): 隨機裁剪並不是一種完美的數據增強方式。存在隨機裁剪下那塊看起來不像貓的圖片的可能性,但是實際隨機裁剪效果還不錯,只要隨機裁剪的部分佔原圖片

原创 卷積神經網絡.經典神經網絡模型之Inception Network

1. 1*1卷積核 在講Inception network之前,首先介紹一下 Pointwise Network,即 1*1 卷積 如上圖所示,1*1卷積和普通卷積相同,只不過是其卷積核的寬高都是1*1的而已,所以對於1*1卷積的理解是

原创 卷積神經網絡四.經典神經網絡模型之VGG-16

VGG-16 VGG-16其中的16含義爲:含有權重參數的有16層,共包含參數約爲1.38億,這是一個相當大的網絡。但是其網絡結構很規整簡潔,沒有那麼多的超參數,專注於構建簡單的網絡結構(都是幾個卷積層後面跟一個最大池化層),通過不斷的加