原创 機器學習—— 評價指標

一、分類指標 1、準確率和召回率 準確率(Precision)是你給出的正確結果數佔你給出的所有結果數的比例。 召回率(Recall)是你給出的正確結果數佔所有正確結果數的比例。 比如:池塘裏共有200生物,其中魚140,蝦30,

原创 基於用戶跟基於物品的協同過濾的區別

基於用戶 基本思路: 當用戶A需要個性化推薦的時候,可以先找到和他興趣相似的用戶羣體G,然後把G中所包含的且A中沒有的東西進行預測評估,最後根據預測評估值對用戶A進行推薦。 方法: 1、找到與用戶A興趣相似的用戶羣體 2、對G

原创 Python 網頁爬蟲

import re #匹配的庫 import requests headers = { 'Cookie':'UM_distinctid=16828a999356ee-01dbffc4bd71a8-33504275-144

原创 梯度下降

翻譯|Gradient Descent in Python import numpy as npimport matplotlib.pyplot as plt%matplotlib inline plt.style.use([

原创 機器學習前期知識點整理

一、貝葉斯公式 二、後驗概率,最大後驗概率 三、激活函數 四、BP算法思想 五、損失函數(均方誤差mse、自定義損失函數、交叉熵) 六、K近鄰算法(曼哈頓距離、歐式距離、夾角餘弦、卡爾德相似係數、卡爾頓距離【決策規則——多數表決法

原创 卷積神經網絡

卷積神經網絡(Convolutional Neural Network,CNN)是一種前饋神經網絡,它的人工神經元可以響應一部分覆蓋範圍內的周圍單元,對於大型圖像處理有出色表現。 它包括卷積層(convolutional l

原创 神經網絡及反向BP

下面我就一個簡單的例子來說明一下自己對於神經網絡的理解和認識。 輸入層包含兩個輸入項,隱藏層包含兩個項(隱含層爲一層),輸出層爲兩個。 個人理解(文字) 相應代碼 import numpy as np import matpl

原创 K-近鄰算法(KNN)

<div id="post_detail"> 機器學習(一)——K-近鄰(KNN)算法      最近在看《機器學習實戰》這本書,因爲自己本身很想深入的瞭解機器學習算法,加之想學python,就在朋友的

原创 CNN——池化、結構、誤差反向傳播

CNN反向傳播算法總結 上一篇介紹了CNN基本概念和卷積的知識,CNN的特徵抽取除了包含卷積,還包含池化。池化池化又叫子採樣,是特殊的卷積。池化比較好理解,還是上篇公司工作交接的例子,每個銷售區域有100個老員工,我們可以先推

原创 樸素貝葉斯

樸素貝葉斯原理: 對於給出的待分類項,求解在此項出現的條件下各個類別出現的概率,哪個最大,就認爲此待分類項屬於哪個類別。 分類問題 樸素貝葉斯公式中要求各個項目之間是相互獨立的,因此有下面的公式: 它可以幫助我們更好的理解

原创 基於物品的協同過濾

ItemCF:ItemCollaborationFilter,基於物品的協同過濾 算法核心思想:給用戶推薦那些和他們之前喜歡的物品相似的物品。 比如,用戶A之前買過《數據挖掘導論》,該算法會根據此行爲給你推薦《機器

原创 超參數權值初始化問題

深層神經網絡的搭建中,我們提到關於超參數權值的初始化至關重要。今天我們就來談談其重要性以及如何選擇恰當的數值來初始化這一參數。1. 權值初始化的意義     一個好的權值初始值,有以下優點:加快梯度下降的收斂速度增加梯度下降到最

原创 深度學習——動量的最優化方法

本文是Deep Learning 之 最優化方法系列文章的Momentum(動量)方法。主要參考Deep Learning 一書。 整個優化系列文章列表: Deep Learning 之 最優化方法 Deep Learnin

原创 六、K近鄰算法

曼哈頓距離、歐式距離、夾角餘弦、卡爾德相似係數、卡爾頓距離【決策規則——多數表決法、加權表決法】 曼哈頓距離 曼哈頓距離又叫出租車距離,計算距離最簡單的方法是曼哈頓距離。假設,先考慮二維情況,只有兩個樂隊 x 和 y,用戶A的

原创 機器學習測試一總結

1、神經網絡中權值絕對值儘可能小的原因是什麼?爲什麼不直接設置爲0? 2、CNN(卷積神經網絡)中梯度梯度不穩定是指什麼?梯度消失的原因是什麼?如何防止這種情況的出現? 3、損失函數中採用交叉熵而不是均方差的原因是什麼? 4、BP