原创 python:單引號,雙引號和三引號及其區別

簡單總結,快速瀏覽: 單引號、雙引號和三引號都可以用於表示字符串: 單引號可以在句子內部有雙引號時使用,避免歧義,雙引號反之; 三引號可以保持換行格式完整性,且可以用於註釋。 單引號和雙引號 在Python

原创 像素座標系與圖像座標系

參考:https://jingyan.baidu.com/article/63f2362826ea1c0208ab3dec.html 1. 像素座標系: 如下圖所示:像素座標系u-v的原點爲O0, 橫座標u和縱座標v分別是圖像所在的行和列

原创 殘差網絡resnet詳解

1 產生背景網絡的深度對於特徵提取具有至關重要的作用,實驗證得,如果簡單的增加網絡深度,會引起退化問題[Degradation問題],即準確率先上升然後達到飽和,再持續增加深度會導致準確率下降。該實驗說明了深度網絡不能很好地被優化,也就是

原创 目標檢測--FPN解析

轉載:Feature Pyramid Networks for Object Detection 總結最近在閱讀FPN for object detection,看了網上的很多資料,有些認識是有問題的,當然有些很有價值。下面我自己總結了一

原创 深度學習:Pooling池化操作的反向梯度傳播

參考博客:https://blog.csdn.net/qq_21190081/article/details/72871704 在看卷積神經網絡的時候,突然想起來池化是會改變特徵圖的尺寸的,那反向傳播是怎麼實現的呢。於是搜了一些博客,感覺

原创 COCO數據集標註信息

本文轉載自 http://blog.csdn.net/qq_30401249/article/details/72636414 轉載,留作筆記 instances_train2014.json instances_val

原创 等比數列、等差數列

1.等比數列求和公式 公式描述: 公式中a1爲首項,an爲數列第n項,q爲等比數列公比,Sn爲前n項和。   2.等差數列通項公式、求和公式 公式描述: 式一爲等差數列通項公式,式二爲等差數列求和公式。其中等差數列的首項爲a1,末

原创 訪問私有變量:友元函數、友元類

轉自:友元函數、友元類、訪問私有數據成員、友元關係[C++]:https://www.cnblogs.com/JCSU/articles/1044346.html 一 友元函數(friend function) 1. 什麼是友元函數?  

原创 圖像處理:中值濾波&均值濾波

轉自:openCV之中值濾波&均值濾波(及代碼實現):https://blog.csdn.net/weixin_37720172/article/details/72627543  在開始我們今天的博客之前,我們需要先了解一下什麼是濾波:

原创 二分查找(循環法+遞歸法)

1.要求: 給定已按升序排好序的n個元素a[0:n-1],現要在這n個元素中找出一特定元素x。 2.分析: 該問題的規模縮小到一定的程度就可以容易地解決; 如果n=1即只有一個元素,則只要比較這個元素和x就可以確定x是否在表中。因此這個

原创 C/C++ float與double的有效數字位

版權聲明:本文爲博主原創文章,未經博主 請隨意轉載!! https://blog.csdn.net/VonSdite/article/details/76575247 結論: 有些編譯器 float的有效數字位是 8位 , 有些有效數字位

原创 TensorFlow中CNN的兩種padding方式“SAME”和“VALID”

轉載請標明出處:http://blog.csdn.net/wuzqchom/article/details/74785643 在用tensorflow寫CNN的時候,調用卷積核api的時候,會有填padding方式的參數,

原创 SVM 的核函數選擇和調參

請查看轉載來源:SVM 的核函數選擇和調參:https://blog.csdn.net/aliceyangxi1987/article/details/80617649 本文結構:  1. 什麼是核函數  2. 都有哪些 & 如何選擇 

原创 圖像變換:仿射變換

轉自: 圖像幾何變換之仿射變換:https://www.cnblogs.com/liekkas0626/p/5238564.html 1. 原理   仿射變換(Affine Transformation 或Affine Map)是一種二維

原创 爲什麼小樣本不建議用深度學習?

機器學習裏,模型越複雜、越具有強表達能力越容易犧牲對未來數據的解釋能力,而專注於解釋訓練數據。這種現象會導致訓練數據效果非常好,但遇到測試數據效果會大打折扣。這一現象叫過擬合(overfitting)。 深層神經網絡因爲其結構,所以具有相