原创 An introduction to kernel density estimation

概述 這一講分爲三個部分:首先是直方圖——如何構造直方圖及其屬性;接下來是核密度估計——它是直方圖的泛化和改進。 最後是如何選擇最合適的核,以便我們提取數據中的所有重要特徵。 1. 直方圖 直方圖是最簡單最常見的一種非參數密度估計

原创 詳讀AlexNet論文

論文鏈接:ImageNet Classification with Deep Convolutional Neural Networks 摘要 作者在LSVRC(Large scale visual recognition cha

原创 協方差矩陣計算方法

原文鏈接:https://blog.csdn.net/Mr_HHH/article/details/78490576 1. 協方差矩陣 X,YX,YX,Y是兩個隨機變量,X,YX,YX,

原创 第8章 從源文件到可執行文件

源代碼完成後,就可以編譯生成可執行文件了。負責實現該功能的是編譯器。本章圍繞編譯器的功能,詳細介紹從程序編寫到運行爲止的流程。首先,看一下源文件是如何通過編譯轉化爲可執行文件的。接下來,我們會繼續關注可執行文件被加載到內存後的運行機制

原创 第7章 程序是在何種環境下運行的

7.1 運行環境 = 操作系統 + 硬件 程序的運行環境包括兩個方面:操作系統和硬件。下圖是office2007的運行環境介紹,可以看到裏面既註明了操作系統也填寫了硬件要求。 從程序的運行環境這一角度來考量硬件時,CPU的種類是特別重

原创 1.2 Combining Functions; Shifting and Scaling graphs

本文爲《Thomas’ Calculus Early Transcendentals》閱讀筆記 In this section we look at the main ways functions are combined or tr

原创 1.1 Functions and their graphs

本文爲《Thomas’ Calculus Early Transcendentals》閱讀筆記 Definition: A function fff from a set DDD to a set YYY is a rule tha

原创 間隔的直觀理解

1. 間隔的直觀理解 這一章從“間隔”這個概念開始講述SVM(支持向量機)模型。本文會以實際的例子讓讀者對於“間隔”的概念有一個更清晰直觀的理解。我們會將前兩節總結的思想在第三節通過數學語言來描述。 對於logistic分類模型,由公式h

原创 pycharm常用快捷鍵

pycharm有默認的快捷鍵,我把自己常用的記錄下來。 編輯類: Ctrl + / 行註釋 Ctrl + D 複製選定行或區域 Ctrl + Y 刪除光標所在行 Ctrl + Q 快速查看文檔 Ctrl + Numpad+/- 展

原创 矩陣及其運算

數域F中的m×n 個數aij(i=1,⋯,m;j=1,⋯,n) 排成m行n列的數表。 ⎡⎣⎢⎢⎢⎢a11a21⋮am1a12a22⋮am2⋯⋯⋯a1na2n⋮amn⎤⎦⎥⎥⎥⎥ 叫做F上的m×n 矩陣, 簡稱矩陣,其中aij 叫做此矩陣

原创 最大化對數似然函數——牛頓方法(The Newton's method)

回到邏輯迴歸中sigmoid函數g(z) ,我們討論另一個最小化對數似然函數的方法。 讓我們從使用牛頓方法求0點開始。給一個一元函數f:R↦R ,我們試圖去找一個點θ 使得f(θ)=0 。其中θ 是一個實數。牛頓方法將會這樣迭代尋找0點

原创 向量和向量空間

向量和向量空間 數域F中的n個數x1,⋯,xn 組成的有序數組[x1,⋯,xn] ,在數學上稱爲數域F上的n維(行)向量。 向量的運算 設α=[a1,⋯,an]T ,β=[b1,⋯,bn]T 都是n維列向量。 加法  α+β=[a1+b

原创 分類和邏輯迴歸(Classification and logistic regression)

這一章將主要討論分類問題,相比於迴歸問題,分類問題的預測值y 並非連續的數,而是一些離散的數值。現在我們會集中在二項分類問題(即只有0和1兩個值),二項問題中的結論大部分都可以推廣到多類問題中。比如,我們要構造一個垃圾郵件分類器,x(i)

原创 閒談:感知器學習算法(The perceptron learning algorithm)

這一節我們簡單地介紹歷史上的著名算法——感知器算法,這在後面的學習理論中也會有所提及。設想我們改變邏輯迴歸算法,“迫使”它只能輸出-1或1抑或其他定值。在這種情況下,之前的邏輯函數g 就會變成閾值函數sign : sign(z)={1−1

原创 多特徵線性迴歸

有多個特徵的線性迴歸就是我們常說的多變量線性迴歸。我們先申明一些數學標記的含義: x(i)j 代表第i個樣本中第j個特徵 x(i) 代表第i個樣本的所有特徵 m 代表訓練樣本個數 n 代表特徵個數 模型的多變量形式如下: hθ(x