原创 深度學習(二)——案例,兩層DNN進行圖片識別

只有一層隱藏層,一般叫多層感知機 深度神經網絡(DNN) 除了輸出層,每層都包括bias,都是全連接到下一層 人工神經網絡(ANN)有兩個或兩個以上隱藏層 每根線上都有w 代碼: import tensorflow as tf

原创 機器學習(十五)——Canopy聚類

一次迭代就出結果,適用於初始的k箇中心點 參數:T1,T2 規則: T2內的點和黑色點是一個類別,並且不能成爲其他類別的中心點 T1內T2外的小藍點和黑點是一個類別,也可以成爲其他類別的中心點 T1之外的點不是這個類別,可以成

原创 es命令行用法

轉載於:Khttps://www.ituring.com.cn/book/tupubarticle/18380 1. 索引相關操作 先查詢ES集羣中有哪些索引。 curl localhost:9200/_cat/indices

原创 深度學習(一)——placeholder的使用

使用placeholder import tensorflow as tf # 讓我們修改前面的代碼去實現Mini-Batch梯度下降 # 爲了去實現這個,我們需要一種方式去取代X和y在每一次迭代中,使用一小批數據 # 最簡單的

原创 深度學習(四)——卷積神經網絡CNN

卷積層 如下圖,從底層看起把兩個矩陣卷積爲兩個點,第二層再把一個矩陣卷積爲一個點,所以這是兩層卷積 DNN是輸入層直接全連接隱藏層 而CNN是輸入層先連接卷積層,再連接隱藏層 如何卷積? 例:如下圖,從綠色的第0行開始先選33

原创 機器學習(十七)——密度聚類

1. 層次聚類 分離的層次聚類:分裂,求相似性,相似性達到了,停止,沒有達到則繼續分裂… 樣本中有層次的包含關係(如省,市,縣)適合用層次聚類,如果用層次聚類,人們一般用凝聚的層次聚類 如上圖,d,e被聚在一個縣裏(de),c

原创 編譯過程(概念)

1. 詞法分析Lexical Analysis 從左到右一個字符一個字符的讀入源程序,對構成源程序的字符串進行掃描和分解,從而識別出一個個單詞(也稱單詞符號或簡稱符號) 例如某源程序片段如下: var sum, first,

原创 python實現斐波那契

非遞歸 def func(n): f1=0 f2=1 i=3 while i <= n: f1,f2=f2,f1+f2 i+=1 return f2 遞歸 def func(n): if n==1:

原创 數據庫併發控制機制

wom知道事務的ACID特性被破壞的原因之一就是多個事務對數據庫的併發操作造成的。所以 數據庫管理系統需要對這些併發操作進行正確的調度,併發控制機制就是用正確的方式調度併發操作,使一個用戶事務不收其他事務的干擾。 併發控制的技術主

原创 機器學習(十六)——聚類評估

1. Given label Given label就是有給了y,給了y’的好處就是可以根據真實的y來和預測出來的y對比,以此來評估聚類的結果怎麼樣 例:男女分類,均一性就是男類別裏都是男的,但並不是所有男的都分進來了;完整性就是

原创 機器學習(十四)——K-Means聚類

理解聚類: 本質: 1. K-Means做聚類 理解k-Means過程 例:對下圖做聚類 先隨機生成k箇中心點,如下圖,k=3 然後給定一個初始化分 計算每個cluster的x,y的均值,使得每個cluster都產生一個

原创 redHat 7.2 安裝docker

分爲2步: 安裝yum 切阿里源 https://www.jianshu.com/p/96a8c2489b94 安裝docker https://blog.csdn.net/neu_xiaolu/article/details/

原创 遺忘的矩陣基礎知識

特殊矩陣 矩陣的轉置 矩陣的運算規則 矩陣的逆

原创 推薦算法——Surprise

Surprise入門使用 官網:https://yiyibooks.cn/sorakunnn/surprisesurprise-v1.0.5/surprise-v1.0.5/index.html 1. 使用movielens數據集

原创 python的 __new__ 和 __init__

_ _ new _ _在生成對象之前被調用,用來創建對象並返回對象,接收的是cls類參數。 _ _ init _ _ 在生成對象之後被調用,用來初始化對象,接收的參數是self對象 也就是: __new__先被調用,__init_