原创 nlp-形式語言與自動機-ch10-統計機器翻譯

1、基於規則的轉換翻譯方法: 對源語言和目標語言都進行適當描述、把翻譯機制與語法分開、用規則描述語法的實現思想。 2、翻譯過程分爲三段: 1)對輸入文本進行分析,形成源語言抽象的內部表達; 2)將源語言內部表達轉換成抽象的目標語言內部表達

原创 MATLAB讀寫hdf5—caffe讀取hdf5

1、將圖片數據寫入hdf5數據庫:  h5create(filename, '/data', [dat_dims(1:end-1) Inf], 'Datatype', 'single', 'ChunkSize', [dat_dims(1:

原创 20歲懂點經濟學——讀書筆記

1、1776年英國人亞當斯密出版《國民財富的性質和原因的研究》簡稱國富論,第一本真正意義上的經濟學著作,他本人被認爲開創了古典政治經濟學,被譽爲“經濟學之父”。 2、亞當斯密在經濟學上的主要貢獻: 3、亞當斯密提出了“小政府”的標準。 4

原创 邏輯迴歸的來源及邏輯迴歸隱含的一些內容

首先下幾個結論: 1、邏輯迴歸是廣義線性模型(注意,不是嚴格的:線性模型) 2、邏輯迴歸處理的是二分類,源自於y的分佈:二項分佈。 接着,邏輯迴歸的幾個問題: 1、邏輯迴歸,爲什麼叫回歸,卻處理分類問題。 2、邏輯迴歸怎麼就是廣義線性模型

原创 隱馬爾可夫模型hmm

參考博客: https://www.cnblogs.com/skyme/p/4651331.html 1、最大熵的直觀解釋: “最大熵”這個名詞聽起來很深奧,但是它的原理很簡單,我們每天都在用。說白了,就是要保留全部的不確定性,將風險降到

原创 機器學習之-使用FP-growth算法來高效發現頻繁項集-具體怎麼實現及應用

1、FP-growth算法可以高效地發現頻繁項集,但不能用於發現關聯規則。 2、FP-growth發現頻繁項集的基本過程: 1)構建FP樹 2)從FP樹種挖掘頻繁項集。 3、FP樹有其數據結構,一般用該數據結構對數據集進行編碼。 4、一棵

原创 Deep Joint Face Hallucination and Recognition——閱讀筆記

1、In this paper, we address this problem by jointly learning a deep model for two tasks, i.e. face hallucination and re

原创 nlp-形式語言與自動機-ch09-詞義消歧

1、詞義消歧方法分爲:監督的和無監督的。 2、有監督的語義消歧方法:基於互信息的消歧方法: 基本思路:對每個需要消歧的多義詞尋找一個上下文特徵,這個特徵能夠可靠地指示該多義詞在特定上下文語境中使用的是哪種語義。 3、有監督的語義消歧方法:

原创 caffe源碼——Euclidean Loss是怎麼實現的

引用: http://blog.csdn.net/fangjin_kl/article/details/54131144 損失函數: 對的偏導: 對的偏導:- forward_cpu: template <typename Dtype>

原创 CNN FOR LICENSE PLATE MOTION DEBLURRING--閱讀筆記

1、We focus on blurred images from a real-life traffic surveillance system, on which we, for the first time, demonstrate

原创 機器學習之-使用Apriori算法進行關聯並分析-具體怎麼實現及應用

1、從大規模數據集中尋找物品間的隱含關係被稱作關聯分析或者關聯規則學習。 2、頻繁項集:經常出現在一塊的物品的集合。 3、關聯規則:暗示兩種物品之間可能存在很強的關係,而支持度和可信度是用來量化關聯分析是否成功的方法。 4、一個項集的支持

原创 機器學習之-用k-均值聚類算法對未標註數據分組-具體怎麼實現及應用

1、什麼叫做k-均值? 它可以發現k個不同的簇,且每個簇的中心採用簇中所含值的均值計算而成。 2、k-均值聚類的算法: 創建k個點作爲起始質心(經常是隨機選擇) 當任意一個點的簇分配結果發生改變時 對數據集中的每個數據點 對每個質心 計算

原创 hive使用小結

1、hive解析array中的json 比如要查詢poschain中的gameId的值: get_json_object(poschain,'$[0].gameId') 2、hive中下劃線怎麼用like進行匹配: pos like '

原创 從決策樹到gbdt

1、決策樹用做分類和迴歸 問題: 決策樹如何做迴歸? 2、決策樹的生成算法有哪幾種 id3、c4.5、CART 3、決策樹的結構: 內部節點表示特徵,葉節點表示類。 決策樹的內部節點的分支是多分支(一個內部節點可以有多個子節點)。 決策樹

原创 em算法的總結

首先來幾個博客: 1、https://www.jianshu.com/p/c57ef1508fa7 2、http://www.cnblogs.com/jerrylead/archive/2011/04/06/2006936.html 3、