原创 歸一化(Batch Normalization)

BN是由Google於2015年提出,這是一個深度神經網絡訓練的技巧,它不僅可以加快了模型的收斂速度,而且更重要的是在一定程度緩解了深層網絡中“梯度彌散”的問題,從而使得訓練深層網絡模型更加容易和穩定。所以目前BN已經成爲幾乎所有卷積神經

原创 PyTorch 0.4新版本 升級指南

搬運:  https://blog.csdn.net/jacke121/article/details/80597759

原创 xavier_initializer初始化

xavier_initializer( uniform=True, seed=None, dtype=tf.float32 ) 返回對權重執行“ Xavier”初始化的初始化器。 使用: def initial

原创 python路徑問題

路徑不要又用/又用//,容易出問題 表示路徑有以下三種方式 path=r'E:\rec\data\train\call' path='E:\\rec\\data\\train\\call' path='E:/rec/data/train

原创 R-CNN、Fast R-CNN,Faster R-CNN

        最近正要看Contextual Action Recognition with R*CNN,學習基於動態圖像圖像的行爲識別,所以要惡補下它所需要的知識。 也就是目標檢測常見的幾種算法。 1、首先目標檢測是什麼?      

原创 pytorch的自動求導機制

搬運: http://ddrv.cn/a/586632

原创 邏輯迴歸判斷cat的Tips

昨天第一天敲python深度學習的代碼,感覺還是很奇妙的吧,把昨天的錯誤和疑惑總結一下 1、在線性迴歸和邏輯迴歸中可以採用0初始化,而在神經網絡中不能採用(實際上不光是0初始化,將權值初始化爲任意相同值,都很有可能使模型失效);因爲神經網

原创 第一課第一次編程作業讀取h5數據集

先說h5文件的讀取,要知道讀取h5的文件大概幹了什麼,是如何讀取的?這裏reshape是把一維的數列變爲二維矩陣。 此時各個矩陣的大小如下,train_set_x和train_set_y的大小都是不符合我們邏輯迴歸的輸入的,所以要res

原创 處理標籤和損失的兩種方法

第一種方法是one-hot 編碼是分類數據廣泛使用的一種格式,也叫分類編碼(categorical encoding)。 def to_one_hot(labels, dimension=46): results = np.ze

原创 第一課第一次編程作業思路的思考

邏輯迴歸的三個重要內容: 1、初始化參數 2、計算cost函數和梯度 3、優化算法(梯度下降) 相互之間的關係,每個函數需要什麼參數,輸出什麼參數都要比較清楚,解決了這三個問題思路就會很清晰了,嘿! 開始把!仔細捋一遍邏輯迴歸的實現過程!

原创 林軒田機器學習基石關於機器學習爲什麼有效的思路(上)

第四章:     首先引入九宮格的故事,表示我們的模型在訓練集D上完全正確,不代表我們在未知數據上也能與真是結果一致,我們很難從樣本中國學到一個固定的模型答案。所以這一章主要印證是否訓練集和情況可以適用於整個輸入空間。       所以我

原创 PLA的公式推導

 

原创 機器學習可行性論證

https://zhuanlan.zhihu.com/p/30657547

原创 目標檢測的玩意兒

經典的目標檢測網絡RCNN系列分爲兩步,目標proposal和目標分類。 ====》Faster-RCNN中把目標proposal和目標分類作爲一個網絡的兩個分支分別輸出,大大縮短了計算時間。 ====》Yolo系列則把這兩個分支都省了,

原创 621任務管理器(python實現)

1、第一種方法:排序         我們規定 n + 1 個任務爲一輪,這樣的好處是同一輪中一個任務最多隻能被安排一次。在每一輪中,我們將當前的任務按照它們剩餘的次數降序排序,並選擇剩餘次數最多的 n + 1 個任務依次執行。如果任務的