原创 決策樹系列思路

首發鏈接:https://zhuanlan.zhihu.com/p/149950949 本文涉及決策樹、隨機森林、adaboost、xgboost等的思路系統。都是大思路,和各算法之間的差異對比,沒有推導過程。 1、單棵決策樹 單

原创 xgboost基本過程、公式推導

給自己的學習過程做個記錄。不是學習攻略。

原创 知識圖譜問答的思路 -- 筆記1

收發地址:https://zhuanlan.zhihu.com/p/143722983 本文是趙軍《知識圖譜》一書第十章“知識問答與對話”的筆記。(我覺得用處小的略。同時夾私貨。) 有不對的地方請評論告訴我哈,謝謝。 一、知識圖譜

原创 [對應示例]λ-算子、λ-DCS、SPARQL、Cypher

舉例:people who had children born in Seattle 對應的 λ-算子: λx.∃y.Chilren( x , y ) ∧ PlaceOfBirth( y , Seattle ) λ-DCS:

原创 【知識圖譜應用】實體鏈接的思路

首發:https://zhuanlan.zhihu.com/p/144183030 本文是段楠《智能問答》一書第三章“實體鏈接”的筆記。(其中有略的部分。同時夾私貨。) 有不對的地方請評論告訴我哈,謝謝。 實體鏈接(entity

原创 知識圖譜問答的思路 -- 筆記2

首發地址:https://zhuanlan.zhihu.com/p/144311555 本文是段楠《智能問答》一書第五章“知識圖譜問答”的筆記。(其中有略的部分。同時夾私貨。)本文和姊妹篇《知識圖譜問答的思路 – 筆記1》是兩本書

原创 知識圖譜問答的思路

收發地址:https://zhuanlan.zhihu.com/p/143722983 本文是趙軍《知識圖譜》一書第十章“知識問答與對話”的筆記。(我覺得用處小的略。同時夾私貨。) 有不對的地方請評論告訴我哈,謝謝。 一、知識圖譜

原创 梯度消失、梯度爆炸的解決方法及其解釋

首發地址:https://zhuanlan.zhihu.com/p/143417405 1、梯度消失 1.1、換激活函數 從sigmoid換成relu或relu的一系列改進版,比如leaky relu等。sigmoid中導數接近於

原创 【NLP碎碎念】關於口語文本的一點想法

(很久沒在csdn寫文章了,一直在知乎,現在慢慢搬過來,原創在https://blog.csdn.net/weixin_38100489哈) 看了https://zhuanlan.zhihu.com/p/142168215有一點思

原创 【智能問答】社區問答(CQA)的思路

詳詳細細的記載了我做CQA時的思考: https://zhuanlan.zhihu.com/p/84694993

原创 【tensorflow】多維張量做tf.matmul

首發地址:https://zhuanlan.zhihu.com/p/138731311 線性代數都學過二維矩陣的乘法,而tf.matmul還可以處理多維矩陣,比如 import tensorflow as tf import nu

原创 GBDT詳解

原地址:https://www.cnblogs.com/peizhe123/p/5086128.html GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive R

原创 bagging和隨機森林的原理和區別

來自西瓜書 區別在於,隨機森林在採樣時不僅“重採樣”,而且只選了部分的“列”(特徵)。好處就是第三張圖的上面的三個小圖,可以出來更多的線來用。

原创 “熵”與“基尼不純度”同爲判斷混亂程度的標準

“熵”與“基尼不純度”同爲判斷混亂程度的標準 1、信息熵 信息論中的信息量和信息熵。 信息量: 信息量是對信息的度量,就跟溫度的度量是攝氏度一樣,信息的大小跟隨機事件的概率有關。 例如: 在哈爾濱的冬天,一條消息說:哈爾濱明天溫

原创 【大坑啊,已出坑】ubuntu tensorflow/keras 使用gpu

【大坑啊,已出坑】ubuntu tensorflow/keras 使用gpu 一望一抹淚~ 一試一滴血~ 這是我自學機器學習以來第二大坑,不是一個坑,是“坑羣”。 ———————–靜心,靜心,彆着急———————— 當你看到這裏時,不管