原创 Tensorflow 利用高階API Estimater.predict 實現實時預測,避免reload計算圖

Estimater.predict是tensorflow的高階API,但是在使用中常常會遇到如下情況: 單次預測一個大文件的速度正常,但是想做成接口來實時預測速度卻緩慢:因爲每次預測都會重新reload一遍計算圖。 那麼這個問題是否有

原创 Tensorflow Estimater.predict 實現實時預測

Estimater.predict是tensorflow的高階API,但是在使用中常常會遇到如下情況: 單次預測一個大文件的速度正常,但是想做成接口來實時預測速度卻緩慢:因爲每次預測都會重新reload一遍計算圖。 那麼這個問題是否有

原创 GreenPlum數據倉庫快速配置,通過python連接

GreenPlum數據倉庫快速配置,通過python連接 數據庫期末作業要用GP開發一個項目,弄的蛋疼,這裏總結下我的快速配置過程… 1.docker官網下載docker客戶端,安裝 官網鏈接: 點擊這裏 2.拉取GP的docker鏡像,

原创 CentOS7下修改docker鏡像源(解決TSL timeout問題)

問題是這樣的: 4e1bafcdbc6f: Waiting bafbeb6b464b: Waiting c0e0660d6638: Waiting 269e6f7314e4: Waiting 05fd6d8029

原创 解決fasttext內存不足無法讀取模型的問題

fasttext是個好東西,是由facebook在2016年推出的一個訓練詞向量的模型。相比於之前Google的word2vec,fasttext可以解決out of vocabulary的問題。fasttext還能夠用於有監督的文本分類

原创 解決Linux下同時使用有線和無線網絡時,網絡連接的優先級問題

問題是這樣的:本人自己用一臺Linux服務器,平時當FTP和爬蟲用。還有一臺mac開發用,經常需要用網線和linux通過網線直連來傳輸數據和控制服務器。蛋疼的事發生了:Linux服務器一旦插上網線,網絡流量就只能經過有線網絡了,導致Li

原创 淺析機器學習中各種損失函數及其含義

常見的損失函數 1.0-1損失函數(0-1 loss function) L(Y,f(X))={1,Y≠f(X)0,Y=f(X)   可以看出,該損失函數的意義就是,當預測錯誤時,損失函數值爲1,預測正確時,損失函數值爲0。該損失函數不考

原创 與信息熵相關的概念梳理(條件熵/互信息/相對熵/交叉熵)

香農信息量 信息量表示不確定性的大小。 信息量的單位是比特(bit)。 香農信息量=log1p=−logp(以2爲底) 上式中,p越小,則不確定性越大,包含的信息量就越多。比如32支球隊,在無任何先驗信息的前提下,用二分法猜冠軍隊伍,最多

原创 NLP中基本概念入門

詞向量(Word Embedding)   詞向量主要用於將自然語言中的詞符號數學化,這樣才能作爲機器學習問題的輸入。   數學化表示詞的方式很多,最簡單的有獨熱編碼,即“足球”=[0,0,1,0,0,0,0,…],“籃球”=[0,0,0

原创 從牛頓法到L-BFGS的算法演變

前言 (本文主要學習自該博主的文章:http://blog.csdn.net/itplus,以下是本人的筆記,主要記錄了結論部分,省略了推導的部分。對具體推導過程有興趣的同學請訪問原博主的博客~)   擬牛頓法是求解非線性優化問題最有效

原创 共軛梯度法的推導與完整算法

共軛梯度法 學習自知乎:https://www.zhihu.com/question/27157047 and wikipedia and 非線性規劃課 簡介 在數值線性代數中,共軛梯度法是一種求解對稱正定線性方程組Ax=b的迭代方法。

原创 灰色預測模型GM(1,1) 與例題分析

灰色預測模型 灰色預測的概念 (1)灰色系統、白色系統和黑色系統 白色系統是指一個系統的內部特徵是完全已知的,既系統信息是完全充分的。 黑色系統是一個系統的內部信息對外界來說是一無所知的,只能通過它與外界的聯繫來加以觀測研究。 灰色系

原创 數據庫相關理論知識整理複習

什麼是DBMS? Database Management System(DBMS)數據庫管理系統是一個爲存儲和管理數據庫的軟件包。 數據庫技術發展歷史 (1)從數據模型的發展來看: 無管理(60年代之前):科學計算 文件系統:簡單的數

原创 最優化問題基礎框架學習

局部最優的充分和必要條件 ∇f(x∗)=0,∇2f(x∗)≻0(Hessian矩陣正定)⇒x∗爲局部最優點 x∗爲局部最優點⇒∇f(x∗)=0,∇2f(x∗)⪰0(Hessian矩陣半正定) 最優化算法的核心 當求min f(x)時,使

原创 隨機森林算法學習(RandomForest)

隨機森林算法學習 最近在做kaggle的時候,發現隨機森林這個算法在分類問題上效果十分的好,大多數情況下效果遠要比svm,log迴歸,knn等算法效果好。因此想琢磨琢磨這個算法的原理。 要學隨機森林,首先先簡單介紹一下集成學習方法和決策樹