原创 RCNN:Rich feature hierarchies for accurate object detection and semantic segmentation

RCNN:Regions with CNN 背景 在RCNN出現以前,目標檢測系統一般通過將多個low-level圖像特徵進行結合,來產生high-level的特徵。 創新點 1.將CNN與region proposals

原创 A3C代碼詳解

莫煩大神的A3C連續控制代碼詳解 """ Asynchronous Advantage Actor Critic (A3C) with continuous action space, Reinforcement Learning. Th

原创 構建一個Mapreduce作業

一、下載數據 這些數據即將作爲mapreduce作業的輸入 $ wget http://www.gutenberg.org/cache/epub/4300/pg4300.txt $ wget http://www.gutenberg.or

原创 Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

Background Covariance shift ——when the input distribution to a learning system changes, it is said to experience

原创 Hadoop安裝&單機/僞分佈式配置_Hadoop2.7.2/Ubuntu14.04

一、安裝Java 1.下載jdk-8u91-linux-x64.tar.gz文件,網址爲:http://www.oracle.com/technetwork/java/javase/downloads/index.html 2.安裝: #

原创 About Adaboost

大部分博客中關於Adaboost算法的講解都大同小異,算法很容易看明白,但是一些細節只有在編程實現的時候纔會真正弄明白。 Adaboost算法如下圖: 初始化樣本權值向量,使得每個樣本的權重相同;對每次迭代:         找到當前樣

原创 Visualizing and Understanding Convolutional Networks閱讀筆記

本文采用Deconvnet對CNN學習到的features進行可視化。 核心思想 對CNN的第n層中的某一個feature map,每一個unit就是一個activation,當我們想要可視化某一個activation時,

原创 From Inception to Xception

首先介紹1x1卷積核的作用,其次分別引出Inception及Xception的思想 1x1卷積核的作用 1.實現跨通道信息的整合或拆分 首先看一下2x2的卷積核 輸入:4x4x3 卷積核:2x2x3x1 輸出:3x3x1

原创 ubuntu系統+英偉達顯卡臺式機無法調節屏幕亮度

突然發現臺式機屏幕亮度好高,看的眼睛都要瞎掉了= =但是在系統設置裏面卻找不着屏幕亮度調節的按鈕,試了網上說的好幾種方法都沒有用,最後用下面的方法解決了。 在命令行中輸入 nvidia-settings 以啓動NVIDIA X Ser

原创 ResNet:Deep Residual Learning for Image Recognition

背景 There exists a solution by construction to the deeper model: the added layers are constructed as identity mapp

原创 cross-entropy for one-stage detecor

cross-entropy for one-stage detecor 將講述三種cross-entropy,分別爲standard cross-entropy、 balanced cross-entropy、focal lo

原创 歡迎使用CSDN-markdown編輯器

歡迎使用Markdown編輯器寫博客 本Markdown編輯器使用StackEdit修改而來,用它寫博客,將會帶來全新的體驗哦: Markdown和擴展Markdown簡潔的語法 代碼塊高亮 圖片鏈接和圖片上傳 LaTex數學公

原创 On-policy Sarsa算法與Off-policy Q learning對比

Sarsa 算法(on-policy) 在s狀態時,跟據當前Q網絡以及一定的策略(e-greedy)來選取動作a,進而觀測到下一狀態s',並再次根據當前Q網絡及相同的e- greedy策略選擇動作a',這樣就有了一個<s,a,r,s',

原创 梯度下降法Python代碼

前一篇已經總結了梯度下降法,今天嘗試將代碼用Python實現,之所以選擇Python是因爲用python寫的代碼可以短一些=。= 如果哪裏不對了,希望可以幫我糾正~~ 首先是批量隨機梯度法,適用於訓練樣本數目不是特別多的情況,而且可以用於

原创 Policy Gradient Methods in Reinforcement Learning

Objective Function 不同於value-based methods,policy-based methods的目標是: 對於給定的policy:  其中θ爲參數,以求找到使得policy最好的θ 那麼如何衡量一個po