原创 矩陣乘法的四種理解方式

先介紹向量的兩種運算,一個行向量乘以一個列向量稱作向量的內積,又叫作點積,結果是一個數; 一個列向量乘以一個行向量稱作向量的外積,外積是一種特殊的克羅內克積,結果是一個矩陣, 假設和b分別是一個行向量和一個列向量,那麼內積

原创 主成分分析和核函數

主成分分析(PCA)的主要作用是降低數據的維度,提取其主要特徵,因爲現實中很多數據都是很稀疏的,通過提取主要特徵過濾噪音發現其潛在的規律;核函數表示了兩個數據之間的相似性。那麼這兩者之間存在什麼樣的關係?直觀上理解,PCA和核側重的

原创 廣義線性模型

廣義線性模型是經典線性模型的推廣,因此要了解廣義線性模型,我們先看一下經典線形模型。給定一個預測值y,經典線性模型假設y是由兩部分組成,一部分是隨機成分,另一部分是確定成分。對於隨機成分而言,假設y是隨機變量Y的觀測值,並且Y的均值是。

原创 極大似然估計和貝葉斯估計

極大似然估計和貝葉斯估計分別代表了頻率派和貝葉斯派的觀點。頻率派認爲,參數是客觀存在的,只是未知而矣。因此,頻率派最關心極大似然函數,只要參數求出來了,給定自變量X,Y也就固定了,極大似然估計如下所示: D表示訓練數據集,是

原创 樸素貝葉斯分類器

樸素貝葉斯分類器是基於條件獨立性提出的一種分類方法。現實中存在這樣一類問題,特徵的個數遠大於訓練集的個數或者與訓練集個數相當,因此容易出現過擬合現象。如在文檔分類問題,我們的目標對是一篇文檔進行分類,可以把文檔的每個詞看做文檔的一個特徵

原创 概率隱語義分析和奇異值分解

推薦系統中經常用到的兩個基本模型,一個是概率隱語義分析(Probabilistic Latent  Semantic Indexing簡稱PLSA),另一個是奇異值分解(SVD),下面分析一下二者的區別和聯繫。 從形式上看

原创 25年後的統計系會是什麼樣?

本文是統計學家Leo Breiman1994年在加州伯克利統計系畢業典禮上的講話,原文請參考此處, 中文譯稿可參見施濤博客,本文對其進行了修改和潤色。 Leo Breiman簡介:加州伯克利統計系教授,美國國家科學院院士,20世紀偉

原创 如何下載videolectures的視頻

因爲最近在複習《信息論基礎》,教材實在是看不懂,證明多,術語多,而且翻譯得使書很難讀,所以上網找找有沒有合適的資源,中文就不用說了,幾乎沒什麼好資料,也從側面說明信息論比較難吧。在http://videolectures.net上找到了

原创 伽瑪分佈

伽瑪分佈是統計學中的一種連續概率函數,包含兩個參數a和b,其中a稱爲形狀參數,b稱爲率參數,定義如下: 令(尺度參數),得到伽瑪分佈的另一種形式, 其中稱爲伽瑪函數,是階乘運算在實數集上的泛化,滿足.伽瑪分佈一個重要應用就是

原创 機器學習算法及應用領域相關的中國大牛

李航:http://research.microsoft.com/en-us/people/hangli/,是MSRA Web Search and Mining Group高級研究員和主管,主要研究領域是信息檢索,自然語言處理和統計學

原创 怎樣才能常常保持好心情

原文地址:怎樣才能常常保持好心情作者:李銀河   人生不如意事常八九。在小時候不會這樣感覺,也不願相信事情竟會是這樣的,可是有了點年紀之後,就會認可這一說法,覺得此言不虛。可能是由於身體狀況大不如前,也可能是由於閱歷增多。    

原创 查看ubuntu是32位還是64位

用sudo uname --m, 顯示i686表示32位,x86_64表示64位 另外: sudo uname --s  內核名字s sudo uname --r   內核版本 sudo uname --n  網絡主機名 su

原创 nips 2013 deep learning 深度學習相關論文 (僅參考題目)

Adaptive dropout for training deep neural networks J. Ba, B. Frey A Deep Architecture for Matching Short Texts Z. L

原创 主成分分析

主成分分析是一種降維方法,主要用於數據壓縮,數據可視化以及特徵提取等方面。 現實中我們經常可以遇到維數很高的數據,如一張28*28的圖片,可以看作維度爲784。類似圖片這樣的高維數據,實際上各個維度之間具有高度的關聯性,即維度之間並非完

原创 推斷和學習

在機器學習裏面經常遇到推斷和學習兩個詞,下面對其進行區分。 圖模型通常包括三種節點,觀測變量、隱變量和參數, 分別用  表示。習慣上把計算隱變量分佈的過程稱作推斷,把對參數的後驗估計稱作學習。具體的,推斷是指計算的過程, 而學習是計