原创 最近鄰搜索之乘積量化(Product Quantizer)

=================================================== http://blog.csdn.net/CHIERYU/article/details/50321473 ============

原创 兩幅圖像線性拼接

1. 收藏鏈接:https://blog.csdn.net/wd1603926823/article/details/49582461一、2幅圖像拼接流程1>>>提取局部特徵,計算特徵點對應,本文使用rootSIFT計算特徵點的最近鄰,然

原创 tensorflow代價敏感因子、增加正則化項、學習率衰減

1.代價敏感:   outputs, end_points = vgg.all_cnn(Xinputs, num_classes=num_cla

原创 KL距離

KL散度(Kullback-Leibler_divergence) KL-divergence,俗稱KL距離,常用來衡量兩個概率分佈的距離。 根據shannon的信息論,給定一個字符集的概率分佈,我們可以設計一種編碼,使得表示該字

原创 計算機視覺三大頂級國際會議和國外知名期刊投稿

第一次寫英文文章,2018-1-30投了個IEEE SIGNAL PROCESSING LETTERS,不知道命運如何,mark。 中國計算機學會推薦國際學術會議和期刊目錄 http://history.ccf.org.cn/si

原创 深度神經網絡-初始化+訓練-工程經驗

以下內容來源:https://blog.csdn.net/liyaohhh/article/details/77165483如果激活函數使用sigmoid和tanh,怎最好使用xavirtf.contrib.layers.xavier_i

原创 LSH系列三:

詳見1:  http://lib.csdn.net/article/machinelearning/47115      <Good> 詳見2: http://blog.csdn.net/guoziqing506/article/det

原创 Tensorflow中dropout和batch normalization

直接上代碼探討: def batch_norm_layer(x, train_phase, scope_bn):##x is input-tensor, train_phase is tf.Variable(True/False)

原创 tensorflow 1.0 較舊版變動地方

from: https://www.cnblogs.com/studyDetail/p/6512270.html XLA(實驗版):初始版本的XLA,針對TensorFlow圖(graph)的專用編譯器,面向CPU和GPU。 Tensor

原创 matplotlib使用

除了自己寫的,還可以參考:http://blog.csdn.net/u010668907/article/details/51114659,3D繪圖參考:http://blog.csdn.net/Eddy_zheng/article/de

原创 ROC曲線與AUC值 (轉)

from: https://www.cnblogs.com/gatherstars/p/6084696.html ROC曲線與AUC值 本文根據以下文章整理而成,鏈接: (1)http://blog.csdn.net/ice11

原创 LSH系列概述:局部敏感哈希(Locality-Sensitive Hashing, LSH)方法介紹

轉載來源:http://blog.csdn.net/icvpr/article/details/12342159 局部敏感哈希(Locality-Sensitive Hashing, LSH)方法介紹 本文主要介紹一種用於海量高維

原创 cnn閱讀計劃

1. https://blog.csdn.net/whz1861/article/details/78160190  -----inception v1 2. -----inception v2

原创 圖像增強第三方Python庫imgaug學習筆記

參考博文: https://blog.csdn.net/u012897374/article/details/80142744 official website of imgaug: http://imgaug.readthedocs.i