原创 《A Closed-Form Solution to Natural Image Matting》的一句話的理解

《A Closed-Form Solution to Natural Image Matting》【1】是作者:Anat Levin, Dani Lischinski, and Yair Weiss等人在2008年2月的一篇文章,它所用摳

原创 從一個菜鳥開始學習機器學習

今晨看了一篇文章,說是2025年十大最有前途的技術,當然有“移動互聯網”,而其間也有一個是“自動化知識處理”,這其中的關鍵技術是機器學習。機器學習是一個交叉學科,它與科學計算有很密切的關係,但不完全是數學,它與程序設計很多關聯,但卻也不是

原创 GAN的Loss的比較研究(3)——Wasserstein Loss理解(1)

前兩篇文章討論了傳統GAN的Loss,該Loss有些不足的地方,導致了GAN的訓練十分困難,表現爲:1、模式坍塌,即生成樣本的多樣性不足;2、不穩定,收斂不了。Martin Arjovsky在《Towards principled met

原创 GAN的Loss的比較研究(2)——傳統GAN的Loss的理解2

判別器(Discriminator)輸入一個圖片xx ,輸出y表示分類(僅有0和1兩個分類)的概率,該模型可以很直觀地用條件概率來描述——PD(y|x)PD(y|x) ,於是展開有: PD(y|x)=⎧⎩⎨⎪⎪PD(y=1|x∈Xr)P

原创 ALI比GAN的優勢在哪裏?

本文參考:Adversarially Learned Inference,(2017.2)作者:Vincent Dumoulin(MILA, Université de Montréal,) 原文:https://ishmaelbelg

原创 Bayesian Network的輔助模型

Bayesian Network是有向無環圖(directed acyclic graph, DAG),其推斷的過程是由根節點(root node)逐次擴散到葉節點(leaf node)的過程,在Bayesian Network的一個節點

原创 VAE與GAN的關係(1)

VAE(Variational Auto-Encoder)和GAN(Ganerative Adversarial Networks)都是生成模型(Generative model)。所謂生成模型,即能生成樣本的模型。我們可以將訓練集中的數

原创 Pytorch構建模型的技巧小結(1)

1、保存模型參數和加載模型參數 (A)保存參數 # 2 ways to save the net torch.save(net1, 'net.pkl') # save entire net torch.save(net1.state_d

原创 GAN的Loss的比較研究(4)——Wasserstein Loss理解(2)

關於Wasserstein Distance的計算,似乎還有一個簡單一點的推導方法,在《BEGAN: Boundary Equilibrium Generative Adversarial Networks》中給出了一個推導的過程: W

原创 Deformable Convolutional Network的原理與實現

Deformable Convolutional Network的原理與實現 Deformable Convolutional Network(簡稱Deform-conv)是微軟亞洲研究院(MSRA)2017年的作品,它賦予了CNN位置變