原创 基於物品的協同過濾算法分析

分析說明 本文主要對下面博文進行分析 推薦系統方法(利用用戶行爲數據) 基於物品的協同過濾算法 原文中的公式: Wij=∣Ni∩Nu∣∣Ni∣W_{ij}=\dfrac{|N_i \cap N_u|}{|N_i|}Wij​=∣

原创 吳恩達機器學習筆記之邏輯迴歸

邏輯迴歸 原來的線性迴歸函數: hθ(x)=θT∗x h_{\theta}(x) = {\theta}^T * x hθ​(x)=θT∗x θT∗x==θ⋅x{\theta}^T * x == \theta \cdot xθT∗

原创 隨機變量的熵的定義與計算公式

引用說明 本文所引用的分析來自於: 百科 信息熵 熵的定義 熵是對混亂程度的度量,熵值越大,說明混亂程度越大,越不確定,也就越隨機, 則概率就越小。 通常,一個信源發送出什麼符號是不確定的,衡量它可以根據其出現的概率來度量。概

原创 從偏微分角度理解神經網絡的反向傳播

神經網絡結構 這裏我們以3層神經網絡爲例,來分析反向傳播的過程,結構圖如下: 3層神經網絡結構圖 這裏的每一個神經元的計算都可以理解爲一次邏輯迴歸的計算過程,其中: hθ(x)=g(θT∗x)h_{\theta

原创 概率論與數理統計--第一章

概率爲0的事件是不可能事件(錯誤) 袋子裏有白球6個,黑球4個,依次抽取3個球,那麼至少有2個是白球的概率爲: 至少有2個是白球, 就是2個或者3個全是白球的組合: C62∗C41+C63C_6^2*C_4^1 + C_

原创 使用微積分和線性代數的基礎知識來推導線性迴歸

這裏參考吳恩達的機器學習的1-5章,主要講線性迴歸的應用。 1. 通過微分方法推導線性迴歸 這裏主要講解一個特徵變量下的線性迴歸方法的使用: 假設函數(Hypothesis Function) : hθ(x)=θ0+θ1xh_

原创 貝葉斯法則求壟斷者阻撓概率的動態博弈問題

貝葉斯法則舉例分析 引用貝葉斯法則的舉例分析 第1步 計算P(B): 挑戰者B不知道原壟斷者A是屬於高阻撓成本類型還是低阻撓成本類型,但B知道,如果A屬於高阻撓成本類型,B進入市場時A進行阻撓的概率是20%(此時A爲了保持壟

原创 吳恩達機器學習筆記

邏輯迴歸 原來的線性迴歸函數: hθ(x)=θT∗x h_{\theta}(x) = {\theta}^T * x hθ​(x)=θT∗x 在此基礎上增加Sigmoid函數,改成如下的邏輯迴歸函數: hθ(x)=1(1+e−θT∗

原创 概率論與數理統計

互補相容的事件A1,A2,...AnA_1,A_2, ... A_nA1​,A2​,...An​ P(⋃k=1nAk)=∑k=1nP(Ak) P(\bigcup_{k=1}^{n} A_k) = \sum_{k=1}^n P(A_

原创 泰勒公式

第三節 泰勒公式 P150 泰勒中值定理 P151 第三節 泰勒公式 P150 對於一些較複雜的函數,爲了便於研究,往往希望用一些簡單的函數來僅是表達。對於用多項式表示的函數,只要對自變量x進行有限次加減乘三種算術運算,便能

原创 函數與反函數的圖像性質

函數與反函數的圖像性質標題 函數與反函數的圖像性質(標題) Refer P10 相對於反函數y=f−1(x)y=f−1(x) 來說,原來的函數y=f(x)y=f(x) 稱爲直接(原)函數,把直接函數和它的反函數的圖形畫

原创 函數與極限

第一節 映射與函數 P16 一 映射 第一節 映射與函數 P16 一 映射 映射概念 定義: 設X、YX、Y 是兩個非空集合,如果存在一個法則ff ,使得對XX 中每個元素xx ,按法則ff ,在YY 中有唯一確定

原创 模擬多個客戶端IP發送udp包

始終沒有找到這個模擬多個IP發包的工具,所以自己動手寫了一個 因爲時間緊迫,也沒有去優化,支持多個線程併發發包,希望大家可以對它進行優化和改造,分享給更多有需要的朋友 呵呵 // Created by lijg, 2013-04-28