原创 感覺來到了一個新世界!

今天把導師要求的作業寫完了,挺happy,紀念一下。 從13年10月份來,開始根據導師要求的節奏進行學習。對於我這種大學四年混子型的選手,重新感受到了學習的魅力…… 看了人工神經網絡基礎這本書,就開始看UFLDL的教程,寫編程作業。提一句

原创 Understanding Deep Image Representations by Inverting Them

核心公式: This paper proposed an optimisation method to invert shallow and deep representations based on optimizing an obj

原创 生成模型與判別模型

博客判別式模型與生成式模型 上面文章用表格形式很好總結了兩種模型。 我的理解 李航《統計學習》書裏:監督學習的任務就是學習一個模型,應用這一模型,對給定的輸入預測相應的輸出,這個模型的一般形式爲決策函數: Y=f(x) 或者條件概

原创 我竟然博士了

2014年4月1日寫的第一篇博客,沒想着要讀博,只爲了更好的工作也有逃避的思想,稀裏糊塗的上了碩士。 現在博士開學2個多月,3年碩士勤勤懇懇,讓我找到了努力的方向,雖與大牛們相差甚遠,但慶幸自己沒有與當下世界的科技盛宴擦肩而過。

原创 A Powerful Generative Model Using Random Weights

文章未看,和作者同學在mla會議上交流,大致意思,在Understanding Deep Image Representations by Inverting Them文章基礎上,alex-model(vgg?)中的weight爲

原创 Salient deconvolutional networks

Related work DeConvNets最初用於非監督學習【1】【2】,後被用於可視化【3】。文章【4】基於文章【5】,文章【5】是在先前hog,sift,BoVW或其他一些神經網絡表達基礎上。【6】學習第二個網絡用於第一

原创 Python小記(一)

1、numpy.histogram用法 numpy.histogram(a,bins=10,range=None,normed=False,weights=None,density=None) return hist(arra

原创 GAN與WassersteinGAN代碼keras分析

https://github.com/tdeboissiere/DeepLearningImplementations 使用mnist數據集。 train_GAN.py: gen_loss = 100

原创 HMM學習

馬爾科夫過程: 該過程中,每個狀態的轉移只依賴於之前的 n 個狀態,這個過程被稱爲1個 n 階的模型,其中 n 是影響轉移狀態的數目。 如果是1階: 狀態只與前一時刻狀態有關。 隱馬爾科夫模型: 狀態不可獲得,稱作隱藏狀態,

原创 文章標題

總結:此教程通過簡單的例子介紹遞歸神經網絡,很簡短的的python實現。 先給出代碼: import copy, numpy as np np.random.seed(0) # compute sigmoid nonli

原创 python三維、四維數組相乘

沒找到規則,只能通過具體例子理解,有知道具體規則的望不吝賜教。 例1,三維數組相乘 import numpy as np a=np.zeros((2,2,2)) a[:,:,0]=([[3,6],[5,8]]) a[:,:,1]=([[

原创 一維搜索的最優方法(黃金分割法)matlab程序

例題: 用0.618法求解下列問題: mine−x+x2 要求最終區間長度L≤0.2 ,初始區間爲[0,1]。 執行文件:executegoldenOpt.m clear all;clc %% the original co

原创 Pycharm 的python console 啓動'PyDevTerminalInteractiveShell' object has no attribute 'has_readline'

python啓動後報錯 AttributeError: 'PyDevTerminalInteractiveShell' object has no attribute 'has_readline' 這個問題源於pycharm versio

原创 會議時間表及級別

轉自:http://www.cvchina.info/tag/icpr/ 以下是全文 放上來共享,兼備忘。 http://iris.usc.edu/Information/Iris-Conferences.html 下面這張表早晚得過

原创 KL散度

百度百科相對熵 在概率論或信息論中,KL散度( Kullback–Leibler divergence),又稱相對熵(relative entropy),信息散度(information divergence),信息增益(informa