原创 c++ 排序算法

冒泡排序 基礎版,本來想着加flag減少多餘的計算,但是我這樣做好像已經自動將多餘的運算避免了。 寫了後面的排序算法,發現我這樣寫思路就跟插入排序很像了。。百度後發現冒泡排序的取值應當是從nums.size() 到1 ,所以下面完

原创 熱力圖heatmap

這個方法又稱Class Activation Map(CAM類激活映射),由於這是基於分類問題的一種可視化技術,並且只有將全連接層改爲全局平均池化才能較好的保存圖像的空間信息,這對於訓練是不利的。2017年提出了Grad-CAM,可以

原创 注意力機制

Attention機制是什麼? 說到底attention實際上是一個加權求和,用於計算每個與attention關注的對象(其實是一個向量)的相關程度。 step1 設計一個打分函數fif ifi,針對每個hihihi,計算出一個sco

原创 WGAN, WGAN-GP, BE-GAN論文筆記

GAN網絡的重點在於均衡生成器與判別器,若判別器太強,loss沒有再下降,生成器學習不到東西,生成圖像的質量便不會再有提升,反之也是。 WGAN 待更新。。。。。 WGAN中相較於此前GAN的改進主要在於以下四點: 判別器最後一層去

原创 PIL,plt顯示tensor類型的圖像

該方法針對顯示Dataloader讀取的圖像。 PIL 與plt中對應操作不同,但原理是一樣的,我試過用下方代碼Image的方法在plt上show失敗了,原因暫且不知。 # 方法1:Image.show() # transform

原创 行列轉換,tensor變換等

行列轉換 python3 :list(zip(*a)) a = [[1, 3, 4]] b = [[2, 5, 6]] list(zip(a, b))=[[1, 2], [3, 5], [4, 6]] 取Variable的值: a

原创 GAN網絡走過的坑

所用語言:PyTorch,python3.6 問題 1、解決方案引用[1] 復現DCGAN代碼時出現ERROR如下: Trying to backward through the graph a second time, but th

原创 LeeCode 最長有效括號

基於python3實現 LeeCode 32題 搜到的答案都是java的,試圖用C實現,奈何不熟悉語法,最終還是用的python,主要參考了參考文獻鏈接的思路,講的很詳細。 主要用的是棧,帶入一段’)(()))()(‘試一下也就能理解

原创 AlexNet筆記

AlexNet的一些參數: 卷積層:5層 全連接層:3層 深度:8層 參數個數:60M 神經元個數:650k 分類數目:1000類 由於當時的顯卡容量問題,AlexNet 的60M個參數無法全部放在一張顯卡上操作,所以採用了兩張顯卡分

原创 GoogleNet系列筆記

GoogLeNet系列筆記包括: Inception v1 Batch Normalization Inception v2,Inception v3 Inception v4,Inception resnet v1,Incepti

原创 pytorch grad_fn以及權重梯度不更新的問題

前提:我訓練的是二分類網絡,使用語言爲pytorch Varibale包含三個屬性: data:存儲了Tensor,是本體的數據 grad:保存了data的梯度,本事是個Variable而非Tensor,與data形狀一致 grad

原创 LeetCode四數之和

這個改了好久,發篇博客紀念一下好了。 代碼是用python寫的。 有不對的可以改進的地方,歡迎指正。 class Solution(object): def fourSum(self, nums, target):

原创 Python ,利用cv2批量縮放圖像

先將圖像文件名稱讀取保存爲csv文件,以下爲讀取文件夾下後綴爲.py的文件名稱的代碼 #print(root) #當前目錄路徑 #print(dirs) #當前路徑下所有子目錄 #print(files) #當前路徑下所有非目