原创 pytorch進行GPU訓練權重初始化的經驗總結

前言 權重如何初始化關係到模型的訓練能否快速收斂,這對於模型能否減少訓練時間也至關重要。 下面以兩個卷積層和一個全連接層的權重初始化爲例子,兩個代碼都只運行一個epoch,來進行對照實驗。 注意使用GPU訓練時候,模型的初始化要設

原创 tensorflow keras deblurGAN復現

代碼 import numpy as np import matplotlib from matplotlib import pyplot as plt import tensorflow as tf from tensorfl

原创 tensorflow keras 語義分割U-net二分類網絡

代碼 class UNet(): def __init__(self, input_width, input_height, num_c

原创 python 次級文件夾中所有文件的讀取

功能 其中Path代表文件夾的路徑 ,layer代表讀取文件夾的深度 ,例如0代表要讀取的深度中沒有次級文件夾,1代表有一個次級文件夾,注意讀取的是存放在layer深度的所有文件,淺一級的深度不做讀取。 代碼 import os

原创 python 深度學習 GOPRO數據集的裁剪

數據集樣式 生成數據集樣式 代碼 import numpy as np import matplotlib from matplotlib import pyplot as plt import cv2 import PIL

原创 tensorflow keras 關於CIFAR10數據集 CGAN的研究經驗總結

前言 目前發現本人的網絡可以在傳統的MNIST手寫數據集上有良好的表現,但是將其應用於CIFAR10數據集的時候,出現了非常嚴重的圖像模糊行爲,在實驗了多種傳統GAN的結構後,我的結論是傳統的GAN對於圖片的細節這些高頻信息生成的

原创 tensorflow keras LAPGAN CIFAR10數據集

前言 現在這裏留個坑,記錄自己學習LAPGAN的經過,首先附上論文.pdf,源代碼 (touch)LAPGAN.py 雖然論文源代碼不是tensorflow的 但是其網絡結構的設計是互通的。

原创 tensorflow keras 完整GAN網絡代碼(面向對象) 利用MNIST手寫數據集生成手寫數字

前言 鑑於網上對於GAN網絡代碼的結構不太好,甚至無法做到迭代,我決定就GAN網絡來寫一個擁有能夠一目瞭然的完整結構的代碼,以幫助那些和我一樣剛開始接觸這類網絡的人,本篇中的GAN網絡由全連接層組成,以此來複現最簡單的GAN網絡結

原创 Photoshop 深度學習 數據集標籤製作 、注意事項 以及標籤顏色的編碼、統計和快速像素替換(python)

前言 因爲photoshop功能的強大,以及工具的方便,雖然其不是專門的語義分割標註工具,但是仍然可以用其工具進行有效的標註,本文是在吸取經驗教訓的基礎上寫的,希望能夠幫到所有用這個方法標註的人。 本文的主要內容:photosho

原创 tensorflow keras數據集的讀取 fit_generator的使用,以及模型編譯保存

一、數據集的樣式以及讀取函數 數據集以x,y的形式分別保存檢測圖像和標籤,其中X存放png和jpg格式的圖像 讀取的時候用model.fit_generator函數載入數據集,關鍵點則在於生成器的構造 二、步驟 1.製作一個數據生

原创 tensorflow2.0 keras模型保存最優方法

注意事項 1.fit_generator中用的都是整型數字 2.構建checkpoing 3.模型保存的時候注意,如果有自定義層,容易出錯 代碼 #定義模型檢查點 checkpoint = keras.callbacks.Mode

原创 python 遙感圖像變化檢測數據集的製作(深度學習),圖像的裁剪

一、我們應該製作什麼樣的數據集? 首先我們應該我們瞭解到遙感圖像的變化檢測是建立在多時相的基礎上的,也就是說,我們對於神經網絡的輸入至少是有兩張圖片的,而且必須有一個標籤來知道變化的區域的是那一塊。 在雙時相變化檢測裏,一般來說對

原创 tensorflow keras 存儲模型錯誤 使用自定義層 報錯 TypeError: ('Not JSON Serializable:', ) 等

錯誤原因 原因在於使用了自定義的層 例如:定義損失函數 Loss(因爲這個函數不好,就不多做說明了,只是做個例子來說明) def contrastive_loss_layer(top_different, deep_differe

原创 tensorflow keras 報錯 :No gradients provided for any variable 原因與解決辦法

錯誤分析 No gradients provided for any variable這個意思是沒有梯度給已知的所有函數, 爲什麼會出現這個錯誤呢,因爲在深度學習中,梯度的更新是由於反向傳播算法的實現的,如果損失函數沒有與已知的任