原创 百毒不侵打卡01

線性迴歸 day1 假如你正在實現一個全連接層,全連接層的輸入形狀是7×8,輸出形狀是7×1,其中7是批量大小,則權重參數w和偏置參數b的形狀分別是____和____ A. 1×8,1×1 B. 1×8,7×1 C. 8×1,1x1 D

原创 Task03:邏輯迴歸

理論部分 邏輯迴歸與線性迴歸的聯繫與區別 模型建立:邏輯迴歸原理、邏輯迴歸模型 學習策略:邏輯迴歸損失函數、推導及優化 算法求解:批量梯度下降 正則化與模型評估指標 邏輯迴歸的優缺點 樣本不均衡問題 sklearn參數詳解 案例: i

原创 Task06:樸素貝葉斯

理論部分 相關概念 生成模型 判別模型 樸素貝葉斯基本原理 條件概率公式 乘法公式 全概率公式 貝葉斯定理 特徵條件獨立假設 後驗概率最大化 拉普拉斯平滑 樸素貝葉斯的三種形式 高斯型 多項式型 伯努利型 極值問題情況下的每個

原创 Task04:決策樹

理論部分 特徵選擇:信息增益(熵、聯合熵、條件熵)、信息增益比、基尼係數 決策樹生成:ID3決策樹、C4.5決策樹、CART決策樹(CART分類樹、CART迴歸樹) 決策樹剪枝 sklearn參數詳解 實戰部分 利用sklearn解決分類

原创 Task01:機器學習概述

機器學習面試問題: 機器學習 :機器學習是什麼,怎麼來的,理論基礎是什麼,爲了解決什麼問題。 機器學習是從已知的數據和答案中尋找出某種規則。區別傳統編程基於規則和數據,得到一個答案。 機器學習以計算機爲工具和平臺,以數據爲研究對象,以學習

原创 MySQL任務3 - 2天

  項目十: 各部門工資最高的員工(難度:中等) 創建Employee 表,包含所有員工信息,每個員工有其對應的 Id, salary 和 department Id。   -- 創建employee表 CREATE TABLE emp

原创 【Task】安裝selenium學習 學習IP相關知識

3.1 安裝selenium並學習 安裝selenium並學習。 什麼是selenium Selenium是基於WEB應用的驗收測試工具集合,直接運行在瀏覽器中,通過一系列命令來模擬用戶操作,Selenium可以將這些命令轉化成實際的

原创 任務3 - 邏輯迴歸算法梳理

1.信息論基礎(熵 聯合熵 條件熵 信息增益 基尼不純度)  香農公式: 在被高斯白噪聲干擾的信道中,傳送的最大信息速率C由下述公式確定: C=W*log₂(1+S/N) (bit/s) 2.決策樹的不同分類算法(ID3算法、C4.5、

原创 【Task 4】實戰大項目

模擬登錄丁香園,並抓取論壇頁面所有的人員基本信息與回覆帖子內容。 丁香園論壇:http://www.dxy.cn/bbs/thread/626626#626626 。 思路介紹:           1.首先利用selenium登錄網站切

原创 Mysql任務4 MySQL 實戰 - 複雜項目

  MySQL 實戰 - 複雜項目   #作業#   項目十六 分數排名 (難度:中等) 依然是昨天的分數表,實現排名功能,但是排名需要是非連續的,如下: +-------+------+ | Score | Rank | +------

原创 MySQL任務2 - 4天

  #作業#   項目三:超過5名學生的課(難度:簡單) 創建如下所示的courses 表 ,有: student (學生) 和 class (課程)。 例如,表: +---------+------------+ | student |

原创 任務2 - 邏輯迴歸算法梳理

 1、邏輯迴歸與線性迴歸的聯繫與區別 可以認爲邏輯迴歸的輸入是線性迴歸的輸出,將邏輯斯蒂函數(Sigmoid曲線)作用於線性迴歸的輸出得到輸出結果。 邏輯迴歸用於分類,而不是迴歸。 2、 邏輯迴歸的原理 對於邏輯迴歸,輸入可以是連續的[

原创 【Task 2】學習beautifulsoup和學習xpath

學習beautifulsoup,並使用beautifulsoup提取內容。 使用beautifulsoup提取丁香園論壇的回覆內容。 丁香園直通點:http://www.dxy.cn/bbs/thread/626626#6266

原创 任務1 - 線性迴歸算法梳理

A.機器學習的一些概念 有監督、無監督、泛化能力、過擬合欠擬合(方差和偏差以及各自解決辦法)、交叉驗證 1.機器學習流程  機器學習是一個數據流轉、分析以及得到結果的過程,它的整個流程大致可以分爲六個步驟,按照數據流自上而下的順序排列分別

原创 【Task 1】學習get與post請求和正則表達式

1.學習get與post請求,嘗試使用requests或者是urllib用get方法向https://www.baidu.com/發出一個請求,並將其返回結果輸出。  import requests r = requests.get(