原创 目標函數,損失函數,代價函數,經驗風險,結構風險

損失函數=代價函數,都用於衡量模型擬合的程度。比如: ,損失函數越小就代表擬合得越好。   關於訓練集的平均損失稱作經驗風險(empirical risk),即  ,所以我們的目標就是最小化  ,稱爲經驗風險最小化。 但僅僅經驗風險最小化

原创 LR 邏輯迴歸 總結

  目錄   LR的兩種理解 LR的損失函數 求解(梯度法,牛頓法,擬牛頓法) 梯度下降法:隨機梯度下降和批量梯度下降 牛頓法: 擬牛頓法: 邏輯迴歸用於多分類 one-vs-all: one-vs-one: softmax: LR的並行

原创 集成學習-面試思路

       集成學習直觀上來說達到了三個臭皮匠能抵一個諸葛亮的效果,從機器學習的角度來說,集成學習融合了特徵轉換和正則化兩個特點,通常的機器學習模型只能注重一點,這也是集成學習能達到不錯的效果的原因。通常來說要求基學習器都“還行”而且方

原创 SLIC 簡單線性迭代聚類

優點:SLIC在運行速度、生成超像素的緊湊度、輪廓保持方面都比較理想。 步驟:1.初始化聚類中心            2.以種子點爲中心在3x3範圍內選最小梯度點作爲新的聚類中心.            3.確定搜索範圍2S*2S,爲範

原创 核邏輯迴歸--kernel logistics regression

基於sklearn實現anova核邏輯迴歸 import numpy as np from sklearn.metrics.pairwise import check_pairwise_arrays from scipy.linalg

原创 SVM 支持向量機

     SVM簡單的說就是尋找一個超平面來分割我們的正反樣本。超平面可以用二維平面的線和三維空間的面來理解。而超平面可以用w.X+b=0來表示。對於某一個點Xi來說,如果w.Xi+b>0視爲正,Yi=1;反之視爲負,Yi=-1。它到超平

原创 Structure-Texture Image Decomposition—Modeling, Algorithms, and Parameter Selection;圖像降解,結構和紋理部分

1.如果已知紋理部分非常結構化,那麼TV-L 1方法是最佳選擇。 2.在定向紋理的情況下或者如果已知紋理的頻率估計,並且如果紋理相當平滑,那麼TV-Gabor模型是更合適的方法。 3.在一般情況下,當沒有紋理的先驗知識時,我們提倡TV-L

原创 Sketch Tokens: A Learned Mid-level Representation for Contour and Object Detection

論文閱讀參考 https://blog.csdn.net/seavan811/article/details/46598281

原创 Contour Detection and Hierarchical Image Segmentation

文獻閱讀參考 https://blog.csdn.net/nature_XD/article/details/53375344?locationNum=9&fps=1

原创 EM算法

    EM算法是一種迭代算法,用於含有隱變量(即我們無法觀測到具體數據的但又客觀存在的變量)的概率模型參數的極大似然估計(或極大後驗概率估計)。em算法的每次迭代由兩步組成:E步,求期望(expectation);m步,求極大值(max

原创 目標檢測中一些主要的顏色處理方法

一.  在各個顏色通道上應用基於形狀的圖像描述子,例如SIFT描述子,常見的有HSVsift,Opponentsift和related Csift descriptors。SIFT算子是David G Lowe在2004提出的,即尺度不變

原创 一些RGB色差度量公式

1)RGB色差公式[1]:其定義如下:RGB顏色空間中兩個顏色,座標分別爲xi=(ri,gi,bi)和xj=(rj,gj,bj),兩者間色差爲:即以兩者間的空間距離作爲色差值。2)RGB加權色差公式:由於R

原创 numpy基礎

arange函數:類似於python的range函數:指定起始值、終止值和步長來創建數組 # 和Python的range類似,arange同樣不包括終值;但arange可以生成浮點類型,而range只能是整數類型 # a = np.ara

原创 廣義線性模型(GLM)

    在線性迴歸中,y丨x;θ~N(μ,σ^2)。在邏輯迴歸中,y丨x;θ~Bernoulli(Φ)。這兩個都是GLM中的特殊的cases。我們首先引入一個指數族(the exponential family)的概念。如果一個分佈能寫成