原创 CentOS7系統編譯Bitcoin-core

1. 準備一臺乾淨的CentOS7系統   2. 倉庫配置 這裏我用了阿里雲的centos7相關軟件倉庫。因爲這兩個在國內,所以訪問速度比較快 curl -o /etc/yum.repos.d/CentOS-Base.repo http

原创 區塊鏈性能評價工具Hyperledger Caliper

Hyperledger Caliper https://github.com/hyperledger/caliper https://github.com/cao0507/Hyperledger-caliper Caliper 是一個區塊

原创 梯度消失、梯度爆炸

梯度消失、梯度爆炸 深度模型有關數值穩定性的典型問題是消失(vanishing)和爆炸(explosion)。 當神經網絡的層數較多時,模型的數值穩定性容易變差。 假設一個層數爲LLL的多層感知機的第lll層H(l)\boldsy

原创 理解多層感知機

多層感知機的基本知識 深度學習主要關注多層模型。在這裏,我們將以多層感知機(multilayer perceptron,MLP)爲例,介紹多層神經網絡的概念。 隱藏層 下圖展示了一個多層感知機的神經網絡圖,它含有一個隱藏層,該層中

原创 深入學習深度學習——線性迴歸

線性迴歸 主要內容包括: 線性迴歸的基本要素 線性迴歸模型從零開始的實現 1 線性迴歸的基本要素 模型 爲了簡單起見,這裏我們假設價格只取決於房屋狀況的兩個因素,即面積(平方米)和房齡(年)。接下來我們希望探索價格與這兩個因素

原创 LASSO原理及代碼實現

LASSO 從這個對比圖可以看出,LASSO算法使得某個點的特徵參數爲0,例如橫座標原點對應的的值,而嶺迴歸很難實現。 sklearn實現: # 創建模型 model = linear_model.LassoCV() mod

原创 CNN及LeNet介紹

從神經網絡到卷積神經網絡(CNN) 我們知道神經網絡的結構是這樣的:   那捲積神經網絡跟它是什麼關係呢? 其實卷積神經網絡依舊是層級網絡,只是層的功能和形式做了變化,可以說是傳統神經網絡的一個改進。比如下圖中就多了許多傳統神經網絡沒有

原创 ensemble learning 2—— booasting and stacking

1 Boosting AdaBoost是英文“Adaptive Boosting”(自適應增強)的縮寫,它的自適應在於:前一個基本分類器被錯誤分類的樣本的權值會增大,而正確分類的樣本的權值會減小,並再次用來訓練下一個基本分類器。

原创 GraphSense介紹

GraphSense是一個跨賬本加密貨幣分析平臺 它的介紹在這裏 代碼也是開源的 graphsense-dashboard 用於交互式加密貨幣分析的Web儀表板。 可以看導進數據的情況 需要安裝NodeJS/NPM 爲了安裝所有

原创 ensemble learning 1—— bagging and Random Forset

當做重要決定時,大家可能都會考慮吸取多個專家而不只是一個人的意見。集成學習也是如此。集成學習就是組合多個學習器,最後可以得到一個更好的學習器。 When making important decisions, everyone m

原创 比特幣區塊數據的解析python實現

如果你對比特幣交易等數據感興趣的話,可以自己部署一個BitcoinCore的全節點來同步數據  推薦京東的bds-btc,它已經修改了源碼可以將區塊的raw_data 發送到kafka中,然後能夠從kafka中取消費它  https://

原创 GRU及雙向RNN介紹

GRU 假設我們已經熟知循環神經網絡(RNN)及長短時間記憶網絡(LSTM)。相比於簡單的RNN,LSTM增加了記憶單元(memory cell)、輸入門(input gate)、遺忘門(forget gate)及輸出門(outp

原创 bash Shell 簡單介紹

Shell 簡單介紹 Shell 是一個用 C 語言編寫的程序,它是用戶使用 Linux 的橋樑。Shell 既是一種命令語言,又是一種程序設計語言。 Shell 是指一種應用程序,這個應用程序提供了一個界面,用戶通過這個界面訪問操作系統

原创 CART decision tree &Code

~~*Definition:* The generation of CART decision tree is the process of constructing binary decision tree recursivel

原创 模型選擇、過擬合和欠擬合

模型選擇、過擬合和欠擬合 訓練誤差和泛化誤差 在解釋上述現象之前,我們需要區分訓練誤差(training error)和泛化誤差(generalization error)。通俗來講,前者指模型在訓練數據集上表現出的誤差,後者指模