原创 I2C總線

一、概述         I2C是Inter-integrated circuit的縮寫,兩條雙向的線,一條SDA (Serial Data Line),另一條SCL (Serial Clock)。 SCL:上升沿將數據輸入到每個EEPR

原创 IC設計流程概述

        芯片設計分爲前端設計和後端設計,前端設計(也稱邏輯設計)和後端設計(也稱物理設計)並沒有統一嚴格的界限,涉及到與工藝有關的設計就是後端設計。 1. 規格制定        芯片規格,也就像功能列表一樣,是客戶向芯片設計公

原创 ASIC/SoC驗證

Mentor ASIC/FPGA驗證平臺介紹         ASIC/FPGA設計驗證流程是一個複雜的過程,它由多個工作環節組成,對於工程師團隊來說哪一個環節沒有把握好都有可能會引入嚴重的設計問題,我們推薦的ASIC/FPGA設計驗證流

原创 機器學習之邏輯迴歸 Logistic Regression(一)

參考http://blog.csdn.net/han_xiaoyang/article/details/49123419一、邏輯迴歸        

原创 機器學習之集成學習(四)GBDT

一、概述         GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一種迭代的決策樹算法,該算法由多棵決策樹組成,所

原创 機器學習之集成學習(二)AdaBoost算法

一、boosting算法的基本原理         集成學習器根據個體學習器的生成是否存在依賴關係,可以分爲兩類:個體學習器間存在強依賴關係,必須串行生成,代表算法是boosting系列算法;個體學習器之間不存在強依賴關係,可以並行生成,

原创 機器學習之集成學習(七)隨機森林scikit-learn庫

一、scikit-learn隨機森林類庫概述        在scikit-learn中,RF的分類類是RandomForestClassifier,迴歸類是RandomForestRegressor。RF的變種Extra Trees也有

原创 機器學習之集成學習(五)GBDT算法scikit-learn庫

參考:http://www.cnblogs.com/pinard/p/6143927.html 一、GBDT類庫概述         在scikit-learn中,GradientBoostingClassifier爲GBDT的分類類,

原创 機器學習之集成學習(六)Bagging與隨機森林

        集成學習有兩個系列,一個是boosting系列,它的特點是各個弱學習器之間有依賴關係。另一個是bagging系列,它的特點是各個弱學習器之間沒有依賴關係,可以並行擬合。本文就對集成學習中Bagging與隨機森林算法做一個總

原创 機器學習之集成學習(三)AdaBoost算法scikit-learn庫

參考:https://www.cnblogs.com/pinard/p/6136914.html 一、AdaBoost類庫概述         scikit-learn中AdaBoost類庫比較直接,就是AdaBoostClassifi

原创 機器學習之支持向量機SVM Support Vector Machine (五) scikit-learn算法庫

參考:http://www.cnblogs.com/pinard/p/6117515.html 一、scikit-learn SVM算法庫概述         scikit-learn中SVM的算法庫分爲兩類,一類是分類算法庫,包括S

原创 機器學習之線性迴歸 Linear Regression(三)scikit-learn算法庫

參考http://www.cnblogs.com/pinard/p/6026343.html         scikit-learn對於線性迴歸提供了比較多的類庫,這些類庫都可以用來做線性迴歸分析,本文就對這些類庫的使用做一個總結,重

原创 機器學習之樸素貝葉斯Naïve Bayes (二) scikit-learn算法庫

參考:http://www.cnblogs.com/pinard/p/6074222.html 一、scikit-learn 樸素貝葉斯類庫概述         樸素貝葉斯是一類比較簡單的算法,scikit-learn中樸素貝葉斯類庫

原创 機器學習之支持向量機SVM Support Vector Machine (六) 高斯核調參

參考:http://www.cnblogs.com/pinard/p/6126077.html         在支持向量機(以下簡稱SVM)的核函數中,高斯核(以下簡稱RBF)是最常用的,理論上 RBF一定不比線性核函數差,但是在實際

原创 機器學習之支持向量機SVM Support Vector Machine (四) SMO算法

一、基本思想         序列最小最優化算法(Sequential Minimal Optimization, SMO)。優化目標函數:         解需要滿足的KKT對偶互補條件爲:         SMO算法是一種啓發式算法,