原创 機器學習算法概覽

本文是翻譯文章,但我並未逐字句的翻譯,而是有所刪減,並加入了一些自己的補充。 轉載請註明:http://blog.csdn.net/stdcoutzyx/article/details/44501797 機器學習(Machine L

原创 python+Opencv視頻讀取問題+官網光流法示例程序報錯問題解決

注:適用於python2及Opencv2     前幾天安裝了Opencv,與我的Anaconda配合使用,今天想測試一下Opencv下光流法的實現過程,但是第一步就卡在了視頻讀取上面,相信很多童鞋都遇到過類似錯誤。解決了這個問題之後,又

原创 ROS初探

ROS初探 ROS(Robot Operating System) 相關術語 ROS:讓機器人和計算機進行交互的操作系統。ROS network: 由一個通過ROS通訊的機器人系統的不同部分組成。ROS master: 協調ROS網絡中的

原创 Windows下安裝python版的XGBoost教程(Anaconda)

Windows下安裝python版的XGBoost(Anaconda)        XGBoost是近年來很受追捧的機器學習算法,由華盛頓大學的陳天奇提出,在國內外的很多大賽中取得很不錯的名次,要具體瞭解該模型,可以移步GitHub,本

原创 Logistic 迴歸的三個視角(極大似然估計/熵/形式化損失函數)

介紹 Logistic的基本形式: 需要明確的概念: 邏輯迴歸解決的不是迴歸的問題,而是分類的問題 邏輯迴歸是線性模型,其中sigmoid函數只是非線性激活函數 極大似然視角下的Logistic 極大似然與伯努利分佈 假設 x,y∼

原创 機器學習經典損失函數比較

經典損失函數比較 1 平方誤差損失函數 損失函數: minJ(w)=1n∑i=1nH(yif(xi,w)),whereH(t)={t20t<0t≥0 分類實例: 優點:容易優化(一階導數連續) 缺點:對outlier點很敏感(因

原创 Batch normalization及其在tensorflow中的實現

Batch normalization(BN) BN是對輸入的特徵圖進行標準化的操作,其公式爲: x^=γ(x−μ)/σ2+ϵ−−−−−√+β x - 原輸入 x^ - 標準化後的輸入 μ - 一個batch中的均值 σ2

原创 視覺注意力的循環神經網絡模型

Recurrent Models of Visual Attention(RAM) 摘要 在大量圖片上使用深度卷積網絡的計算量隨着圖片像素的增加而線性增加。本文提出一個循環神經網絡模型,能夠選擇性地從圖片或視頻中提取一系列的區域位置,使其

原创 Tensorflow中的Lazy load問題

問題描述 用tensorflow訓練或者inference模型的時候,有時候會遇到運行越來越慢,最終內存被佔滿,導致電腦死機的問題,我們稱之爲內存溢出。出現這種問題很可能是因爲在一個session中,graph循環建立重複的節點所導致的L

原创 Anaconda使用pip install依賴包時提示超時的解決方法

Anaconda使用pip install依賴包時提示超時的解決方法使用Anaconda的pip install安裝包,如果總提示超時,很可能是因爲Anaconda中pip默認的鏡像源訪問不了。由於時期特殊(比如最近的十九大),一些國外的

原创 用scikit-learn的三種詞袋(BoW)生成方法爲機器學習任務準備文本數據

用scikit-learn的三種詞袋(BoW)生成方法爲機器學習任務準備文本數據 本文爲翻譯博客,詳見: 原文 在使用文本數據建立預測模型之前,需要做特別的數據預處理工作。 文本必須先進行分詞(tokenization)操作,然後進行特徵

原创 keras 或 tensorflow 調用GPU報錯:Blas GEMM launch failed

GPU版的tensorflow在模型訓練時遇到Blas GEMM launch failed錯誤,或者keras遇到相同錯誤(keras 一般將tensorflow作爲backend,如果安裝了GPU版本的tensorflow,那麼在使用

原创 理解長短期記憶(Long Short Term Memory, LSTM)模型(colah 原文翻譯)

本文爲譯文,詳見原文 遞歸神經網絡(Recurrent Neural Network, RNN) 人類每時每刻的思考都不是孤立的從頭開始,就像你在閱讀這篇文章時,你對每個詞的理解都是基於對先前詞的理解而產生的,因爲你的想法是具有時序關聯性

原创 Tensorflow在不同訓練場景下讀取和使用不同格式pretrained model的方法

不同應用場景分析與示例 Tensorflow讀取預訓練模型是模型訓練中常見的操作,通常的應用的場景包括: 1)訓練中斷後需要重新開始,將保存之前的checkpoint(包括.data .meta .index checkpoint這四個文

原创 深度學習原理解釋及實踐經驗總結(來自Ilya Sutskever)

深度學習原理解釋及實踐經驗總結(來自Ilya Sutskever) 1. 爲什麼深度學習是可行的 首先,工欲善其事,必先利其器。如果缺乏一個足夠強大的模型,再好的學習算法也只能隔靴搔癢。 其次,該模型必須是可訓練的。否則在瞬息萬變