原创 【論文筆記】【cnn】Densenet詳解

Densenet受啓發於resnet,通過shortcut(skip connection)建立前面層到後面層的聯繫,有助於訓練過程中的梯度反向傳播。相比於resnet,densenet設計了更密集的shortcut,建立了前面的所有層和

原创 【論文筆記】【目標檢測】Fast RCNN詳解

Fast RCNN是對RCNN論文的改進。   RCNN簡介: (1)image input; (2)利用selective search 算法在圖像中從上到下提取2000個左右的Region Proposal; (3)將每個Region

原创 python處理xlsx多sheet文件

需求:每個xlsx共有20個sheet,每個sheet兩列。對第一列每個值加0.924,第二列每個值除以0.19625。對處理後的結果,以第一列爲x,第二列爲y,生成一條曲線,求與指定直線的交點。其中sheet1-10的指定直線爲x=0.

原创 【算法】只出現一次的數字

1. leetcode136  給定一個非空整數數組,除了某個元素只出現一次以外,其餘每個元素均出現兩次。找出那個只出現了一次的元素。 要求時間複雜度O(n),空間複雜度O(1)。 示例:輸入[4, 1, 2, 1, 2],輸出4 (1)

原创 過擬合和欠擬合現象及解決方案

過擬合和欠擬合 欠擬合:(under-fitting)也稱爲欠學習,它的直觀表現是算法訓練得到的模型在訓練集上表現差,沒有學到數據的規律。引起欠擬合的原因有:模型本身過於簡單,例如數據本身是非線性的但使用了線性模型;特徵數太少無法正確的建

原创 池化層詳細介紹

常見的池化層 它實際上是一種形式的降採樣。有多種不同形式的非線性池化函數,而其中“最大池化(Max pooling)”是最爲常見的。它是將輸入的圖像劃分爲若干個矩形區域,對每個子區域輸出最大值。直覺上,這種機制能夠有效地原因在於,在發現一

原创 計算機視覺秋招準備(2):一文看懂dropout

1. Dropout出現的原因 在機器學習的模型中,如果模型的參數太多,而訓練樣本又太少,訓練出來的模型很容易產生過擬合的現象。在訓練神經網絡的時候經常會遇到過擬合的問題,過擬合具體表現在:模型在訓練數據上損失函數較小,預測準確率較高;但

原创 【算法】比較類的原地算法

力扣41 class Solution { public: int firstMissingPositive(vector<int>& nums) { int n=(int)nums.size();

原创 【算法】二分查找及變體

如果看到在某個查找問題時間要求logn,那基本是考二分查找。平衡二叉樹的本質也是二分查找,寫樹還費時。 二分查找的前提是數組有序,如果無序需要先排序。 二分查找框架: int binarySearch(int[] nums, int t

原创 【算法】螺旋矩陣

力扣54 雙百答案 class Solution { public: vector<int> spiralOrder(vector<vector<int>>& matrix) { vector <int> re

原创 【論文筆記】【cnn】ResNest詳解

摘要:ResNest主要貢獻是設計了一個Split-Attention模塊,可以實現跨通道注意力。通過以ResNet樣式堆疊Split-Attention塊,獲得了一個ResNet的變體。ResNest網絡保留了完整的ResNet結構,可

原创 【論文筆記】【目標檢測】fpn詳解

fpn是在卷積神經網絡中圖像金字塔的應用。圖像金字塔在多尺度識別中有重要的作用,尤其是小目標檢測。 論文中給了這麼一張圖來展示4種利用特徵的形式。 (a)圖像金字塔。這個是直接把圖片resize成不同的尺度,使用不同的尺度對應生成不同的

原创 【目標檢測】【cnn】Densenet詳解

Densenet受啓發於resnet,通過shortcut(skip connection)建立前面層到後面層的聯繫,有助於訓練過程中的梯度反向傳播。相比於resnet,densenet設計了更密集的shortcut,建立了前面的所有層和

原创 【論文筆記】【cnn】ResNeXt詳解

ResNeXt解決的問題: 傳統的要提高模型的準確率,都是加深或加寬網絡,但是隨着超參數數量的增加(channels,filter size等),網絡設計的難度和計算開銷也會增加。本文提出的ResNeXt結構可以在不增加參數複雜度的情況下

原创 【論文閱讀】【cnn】resnet

resnet解決的是網絡的退化問題。在vgg中提出,增加網絡深度可以增加模型的表達能力。但是人們發現深度達到一定之後,CNN網絡再一味增加層數並不能帶來分類性能的提高,甚至會讓網絡收斂變慢,測試集精度下降。訓練集精度下降可以說明這個不是過