原创 數據降維-多維尺度縮放(MDS)

多維尺度縮放(MDS)是一種比較經典的降維方法,它利用在低維度空間維持高維度空間的距離矩陣來學習數據在低維度空間的表示。算法如下: 以上算法來自西瓜書的截圖。  python代碼如下: #Multiple Dimensional Sc

原创 數據降維-核化線性降維(kernelized PCA)

主要是在傳統的PCA中加入了kernel。傳統的PCA使用的是線性變換,爲此(Schoelkopf et al. 1998)在傳統的PCA中引進了kernel的技巧,本文的主要參考文獻爲MLAPP,參考的是第14章的第四小節,算法如下:

原创 Embedding Projector

    Embedding Projector 是一款embedding 可視化化的工具,通過特定的降維算法如PCA,T-sne將原始數據降維到三維空間,我只需要導入我們的數據就可以可視化,非常方便,當然,你也可以使用sklearn中的t

原创 TD(λ)--Eligibility Traces

Eligibility traces在backward view中扮演者重要的角色。它的由來主要來自於解釋分數(獎懲)的由來,如圖,這種電擊的原因有兩種啓發式的解釋,一種是頻率派,認爲電擊來自於出現頻率最多的情況,即鈴聲。另外一種是近因派

原创 採樣-Gibbs採樣

MCMC蒙特卡洛馬爾科夫鏈採樣,非常重要的採樣算法,而Gibbs算法也是MCMC種的一種,主要用於高維分佈的採樣。介紹MCMC的書籍有很多,https://victorfang.wordpress.com/2014/04/29/mcmc-

原创 Kernel Regression

在prml這本書的第六章kernel methods提到了一種非參數迴歸的方法Kernel regression,這種模型是基於(特徵x之間)特徵越相似的則其所對應的y值也應該很相似,只不過他引進了kernel函數來衡量特徵之間的相似度。

原创 David Silver的強化學習視頻的相關ppt

下面是David Silver的強化學習視頻的相關ppt的下載網址:http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching_files 上面的網址可能下載有點慢,我再發一個我下載好的百度雲

原创 低維嵌入-多維尺度縮放(MDS)

多維尺度縮放(MDS)是一種比較經典的降維方法,它利用在低維度空間維持高維度空間的距離矩陣來學習數據在低維度空間的表示。算法如下: 以上算法來自西瓜書的截圖。  python代碼如下: #Multiple Dimensional Sc

原创 遷移學習

下面的模型的代碼,我使用了mnist數據構建了一個簡單的分類模型,並對模型進行了保存。  import tensorflow as tf from tensorflow import keras tf.set_random_seed(1

原创 matrix_band_part 和tf.linalg.band_part

新版本,tf.matrix_band_part挪到了tf.linalg.band_part,它的主要功能是以對角線爲中心,取它的副對角線部分,其他部分設置爲0,視覺就像是一個band(帶),tf.linalg.band_part主要有三個

原创 tensorflow—共享變量

import tensorflow as tf #設定隨機種子,使得每次隨機初始化都一樣 tf.set_random_seed(1234) #這是我們要共享的變量函數 def share_variable(input): wei

原创 梯度下降中的線性搜索-Line search

       在普通的梯度下降過程中通常使用這個公式來更新參數, ,而學習率的選擇就顯得非常的重要了,如上圖所示,學習率選擇過小,就會導致左圖的情況,學習率過小在到達碗底平緩地區,導數值也非常小,從而導致損失函數移動的速度非常的慢,使得很

原创 狄利克雷分佈的三維實現和狄利克雷過程中的stick—breaking算法的實現

轉載請標明作者 首先是狄利克雷分佈的三維實現,由於沒法保證下面的座標值加起來唯一,所以我採用了抽樣的方法,從dirchidirichlet~(1,1,1)中抽的三維圖像的座標值,我只去前兩個作爲我的x,y值,代碼如下: import n