原创 離散數學基本概念

1. 羣環域 羣:{G,·}中“乘法“運算滿足封閉性、結合律、單位元、逆元。 環:<R,+,·>中<R,+>爲阿貝爾羣,<R,·>爲半羣,”乘法“對”加法“滿足分配律。 域:<R,+,·>中<R,+>爲交換羣,<R-{0},·>爲交換羣,

原创 推薦系統遇上深度學習(十六)--詳解推薦系統中的常用評測指標

最近閱讀論文的過程中,發現推薦系統中的評價指標真的是五花八門,今天我們就來系統的總結一下,這些指標有的適用於二分類問題,有的適用於對推薦列表topk的評價。 1、精確率、召回率、F1值 我們首先來看一下混淆矩陣,對於二分類問題,真實的樣本

原创 初學者如何查閱自然語言處理(NLP)領域學術資料

昨天實驗室一位剛進組的同學發郵件來問我如何查找學術論文,這讓我想起自己剛讀研究生時茫然四顧的情形:看着學長們高談闊論領域動態,卻不知如何入門。經過研究生幾年的耳濡目染,現在終於能自信地知道去哪兒瞭解最新科研動態了。我想這可能是初學者們共通

原创 Kaggle滑水 - CTR預估(LR)

下面,我們結合Kaggle賽題:Avazu:Click-Through Rate Prediction,練習數據挖掘技術在CTR預估中的應用。本文內容包括賽題任務簡析,以及基於LR(邏輯斯蒂迴歸)的初步實現。本文的源碼託管於我的Githu

原创 各大公司廣泛使用的在線學習算法FTRL詳解

轉載請註明本文鏈接:http://www.cnblogs.com/EE-NovRain/p/3810737.html    現在做在線學習和CTR常常會用到邏輯迴歸( Logistic Regression),而傳統的批量(batch)算

原创 LogisticRegression - 參數說明

LogisticRegression,一共有14個參數: 邏輯迴歸參數詳細說明 參數說明如下: penalty:懲罰項,str類型,可選參數爲l1和l2,默認爲l2。用於指定懲罰項中使用的規範。newton-cg、sag和lbfgs求解算

原创 交叉熵(Cross-Entropy)與最大似然

交叉熵(Cross-Entropy) 交叉熵是一個在ML領域經常會被提到的名詞。在這篇文章裏將對這個概念進行詳細的分析。 1.什麼是信息量? 假設XX是一個離散型隨機變量,其取值集合爲X,概率分佈函數爲p(x)=Pr(X=x),x∈p

原创 學習SVM(四) 理解SVM中的支持向量(Support Vector)

學習SVM(四) 理解SVM中的支持向量(Support Vector) 版權聲明:本文爲博主原創文章,轉載請註明出處。 https://blog.csdn.net/chaipp0607/article/details/73716226

原创 谷歌開源TF-Ranking可擴展庫,支持多種排序學習

銅靈 發自 凹非寺   量子位 出品 | 公衆號 QbitAI 最近,谷歌新開源了可擴展的TensorFlow庫TF-Ranking,可用於學習排序。所謂學習排序,也就是對項目列表進行排序,從而將整個功能最大化的過程。   TF-Rank

原创 從ctr預估問題看看f(x)設計—DNN篇

從ctr預估問題看看f(x)設計—DNN篇 lambdaJi how to model anything 已關注 吳海波 等 223 人讚了該文章 上接機器學習模型設計五要素,這一篇接着講模型結構設計 從ctr預估問題看看f(x)設計—

原创 【論文閱讀筆記】Deep Learning based Recommender System: A Survey and New Perspectives

【論文閱讀筆記】Deep Learning based Recommender System: A Survey and New Perspectives 2017年12月04日 17:44:15 cskywit 閱讀數:1116更多 個

原创 N-gram語言模型 & Perplexity & 平滑

N-gram語言模型 & Perplexity & 平滑 2018年04月03日 18:16:20 qjf42 閱讀數:646 版權聲明:本文爲博主原創文章,歡迎交流分享,未經博主允許不得轉載。 https://blog.csdn.net

原创 煉丹術的終結——神經網絡結構搜索之一

煉丹術的終結——神經網絡結構搜索之一 2018年04月10日 00:23:14 張雨石 閱讀數:2820 標籤: 強化學習深度學習網絡結構搜索RLNAS 更多 個人分類: 論文筆記 版權聲明:本文爲博主原創文章,未經博主允許不得轉載。 h

原创 sklearn與Keras的verbose相關源碼

  GridSearchCV的verbose參數 grid_search.py 813行 838行 555行 if self.verbose > 0: if isinstance(parameter_iterable, Sized):

原创 機器學習(二):線性迴歸、梯度下降、正規方程組

線性迴歸(Linear Regression) 1 最小二乘法(Least Mean Squares) 梯度下降(Gradient Descent) 2 正規方程組(Normal Equations) 3 極大似然法 4 Locally