原创 密度建模中的混合高斯、學生t分佈與因子分析模型——比較和組合——CVMLI Prince讀書隨筆第7章

目錄共同點區別組合 共同點 三者都是一組正態分佈的加權和或積分。 區別 高斯混合:KKK個不同均值,不同方差,高斯分佈加權和 t分佈:相同均值,不同方差,正態分佈積分。魯棒性強於高斯混合 因子分析模型:不同均值,相同對角協方差,

原创 對偶迴歸(Dual Regression)——CVMLI Prince讀書隨筆第8、9章

目錄概念對偶線性迴歸最大似然貝葉斯解相關向量迴歸(Relevance vector regression)對偶邏輯迴歸最大似然貝葉斯對偶邏輯迴歸相關向量分類與核函數的關係 這兩天看到一個很有趣的迴歸模型,叫做dual regres

原创 Mac打字和終端有關的基礎操作

目錄打字終端 本文適合會操作linux command,以及windows的各種操作,但對mac非常陌生的童鞋 作爲一隻不會用mac的弱雞,今天上手了一本mac pro 15,連基本操作都非常不熟練,所以這裏簡記一下。把常用的記

原创 一些python方法備忘

目錄repr與str私有化查看內存idParser傳參setattr和getattrfilter過濾函數import shutil改顯卡cuda_visible_device獲取當前目錄 repr與str str() 與 repr

原创 【算法】——浮點數開方

目錄題目隨想思路代碼 題目 給一個浮點數x>0x>0x>0,計算x\sqrt xx​,返回值也爲float類型。 隨想 之前一次面試,被問到這個題。當時忘了解法,用泰勒展開,折騰半天,啥也沒搞出來,無奈寫了二分法。這裏寫篇博客強記

原创 置信傳播(Belief Propagation)與鏈式有向圖模型前向後向算法——CVMLI Prince讀書隨筆第11章

目錄前向後向算法置信傳播鏈式有向圖前向過程反向過程計算邊緣樹模型無向圖 這本書把置信傳播算法講的非常清楚。所以這裏mark一下。以下閱讀請先知道鏈式有向圖前後向算法的原理。 前向後向算法 記鏈式有向圖隱變量爲w1....Nw_{1

原创 吉布斯採樣,馬爾科夫鏈蒙特卡洛方法MCMC——CVMLI Prince讀書隨筆第10章

目錄問題方法吉布斯採樣後記 以前對吉布斯採樣一直很迷,今天把它弄清楚! 問題 採樣即從待推斷的環境中獲取樣本。 對於有向圖模型,可以通過原始採樣法(ancestral sampling),即按照拓撲順序採樣。這樣得到的每一維度都是

原创 馬爾科夫隨機場與條件隨機場——CVMLI Prince讀書隨筆第12章

目錄馬爾科夫隨機場(MRF)條件隨機場(CRF)區別 記www爲隱變量(label),xxx爲觀測變量(feature)。 馬爾科夫隨機場(MRF) 建模P(w,x)P(w,x)P(w,x),例如同時建模P(w)P(w)P(w)

原创 一些numpy方法備忘

反向切片: flow_numpy[..., 1] np.genfromtxt(att_file, skip_header=2, usecols=0, dtype=np.str) 類似於pd.read_csv 查找元

原创 Git Note

目錄日常使用的6個命令單分支git statusgit add -ugit show <commit-id>git diff <filename>git stashgit blame <filename>查看commit記錄回滾多

原创 C++的一些特性

最近在讀一份C++項目,對C++有了很多新的認識。這裏隨意記錄一下。內容多爲轉載整理 C++11 : 外部模板(Extern Template),顯式的實例化與外部模板的聲明 轉自http://book.51cto.com/art

原创 論文閱讀記錄

2019-4-19 Disentangling Factors of Variation with Cycle-Consistent Variational Auto-Encoders ECCV2018 學習解綁VAE,x和z都有

原创 Pytorch Note

總的來說,大部分情況下,設置這個 flag 可以讓內置的 cuDNN 的 auto-tuner 自動尋找最適合當前配置的高效算法,來達到優化運行效率的問題。 一般來講,應該遵循以下準則:如果網絡的輸入數據維度或類型上變化不大,設置

原创 CS231n Assignment3 備忘

關於LSTM 反向傳播時狀態s也要反向傳播,而且要初始化爲0。原因和h類似,建議畫一下圖。 h在反向傳播時,是後一個節點和當前層輸出對應loss的傳播之和。整體反向傳播的輸入參數的dh一般是指每一層的輸出對應的loss傳播。 關於

原创 CS231n Assignment2 備忘

最後的softmax之前千萬不要加relu,否則經過一段時間的sgd,會導致輸出全0。反向求導也無效。 x.reshape(x.shape[0], -1).T != x.reshape(-1x.shape[0])