原创 linux學習(四)--用戶與組命令

用戶與組命令 添加新用戶:Useradd 例:useradd + 用戶名   常見問題: 使用的是非root用戶,無法使用這個函數,要用root登陸,或者獲得root權限+環境變量。 如何獲得root權限:su -,並且輸入密碼即可

原创 Linux學習(五)--文件權限,信息顯示,管道,重定向

文件權限 四種權限:r,w,x –,分別對應可讀,可寫,可運行,不可。   文件權限通常由10個字符組成,含義如下: 第一個字符 - 文件 L 鏈接 D 文件夾 後9個字符分爲3,3,3三組。 第一組:這個文件的所有者具有的權限 第二組:

原创 神經網絡

神經網絡是常見的機器學習模型。通過模擬人類神經網絡的運行方式,來達到學習的目的。 基本原理 假設如下的圖爲一個神經元的工作原理: 輸入N維的X,每個Xi經過權重wi處理後,相加得到能量值,作爲神經元的輸入。如果這個能量值超過一個閾

原创 線性迴歸

Ng的一個例子:假設我們要用房子的大小來預測其價格,得到的數據如下: 我們畫在二維平面上,得到如下: 我們可以大概地用一個函數來擬合如上的數據: Price=h(area),其中h爲線性函數,則稱爲線性迴歸,得到下面的一條預測直

原创 交叉驗證

之前的blog討論過經驗風險與結構風險之間相互限制的關係,如下圖: http://blog.csdn.net/ice110956/article/details/14002791 我們在相同VC維的模型中,選擇經驗風險最小的模型,能

原创 基於矩陣分解的隱因子模型

推薦系統是現今廣泛運用的一種數據分析方法。常見的如,“你關注的人也關注他”,“喜歡這個物品的用戶還喜歡。。”“你也許會喜歡”等等。 常見的推薦系統分爲基於內容的推薦與基於歷史記錄的推薦。 基於內容的推薦,關鍵在於提取到有用的用戶,物品

原创 SVM(二)——寬鬆SVM

錯分問題與離羣點問題 之前的SVM(http://blog.csdn.net/ice110956/article/details/23436171)推導前提條件是樣本線性可分,或者至少在高維空間中線性可分。但是許多情況下,並不是高維可分

原创 生成模型之高斯鑑別分析

線性迴歸中,我們假設Y滿足以sita*X爲均值的高斯分佈。也就是假設P(Y|X)~N(sita*X,yita)。這種假設擬合P(Y|X)的方法我們稱爲判別法。 有這麼一種方法,嘗試去假設X的分佈情況,也就是假設擬合P(X|Y)。這就是生成

原创 核方法原理

核方法原理 1.無力的線性分類器 一般情況下,我們考慮構造一個線性分類器來解決問題。但是實際中,線性分類器的效果達不到要求,因爲大部分數據都不是線性可分的,如下面這幅圖。一種改進的方法是把多個弱的線性分類器組合得到一個強分類器,如決策樹

原创 PCA matlab實現

PCA 流程如下: 1、去均值  2、計算協方差矩陣 3、計算協方差特徵值和特徵向量 4、降序排列特徵值選取較大的特徵值,選擇相應的特徵值和特徵向量 以下按照步驟編寫matlab代碼。   1.去均值 Matlab函數mean可得:如下

原创 SVM(一)

SVM(support vector machine,支持向量機)是最好的分類模型之一。通過尋找高維空間上的超平面,把樣本分隔爲兩類,並且計算複雜度並沒有因爲高維映射而增加。   間隔 在logistic迴歸中,通過logistic函數

原创 acm.njupt--1882

C. 數字串劃分 時間限制(普通/Java):1000MS/3000MS          運行內存限制:65536KByte 總提交:17            測試通過:6 描述     給你連續的N個數字符,在其中插入K個乘

原创 linux學習(三)--基本命令

幫助命令 Man + 命令 命令 +  -help whatis + 命令1 + 命令2:可簡單解釋多個命令 查詢命令的幫助   文件,目錄常見命令 ls  列出當前目錄下文件+目錄(-開頭爲文件,dir開頭爲目錄) cd

原创 線性迴歸中最小二乘的概率解釋

最小二乘法是常見的構造代價函數, 擬合參數的方法,如下: Cost=(h(x)-y)^2 這裏探討最小二乘的概率依據。   最大釋然理論 一個簡單的例子: 假設一個袋子裏有無限個球,白球出現的比例是P,黑球爲1-P。 那麼我從中取10

原创 推薦系統之改進版SVD

之前的blog(http://blog.csdn.net/ice110956/article/details/21955461 )簡單闡述了基於SVD矩陣分解的隱因子模型。 隱因子模型通過假設一個隱因子空間,通過矩陣分解,得到隱因子空間