原创 cs231n_神經網絡筆記_部分總結工作1_理解、準備、訓練

cs231n神經網絡NN(或稱爲人工神經網絡ANN或稱爲多層感知器MLP)基礎知識部分集中在PPT的lecture05~lecture07,且有整理的筆記(搜索關鍵字都能搜到),已經算是非常棒了,此處僅針對個人再做下簡化、整理。 神經網絡

原创 cs231n_2018_lecture08_notes_nn硬軟件平臺

CS231n課程從lecture08後面就沒有相對官方、認可度高的整理過的筆記了。本文將針對lecture08該PPT做些簡單的筆記工作。    要點:神經網絡的硬件和軟件平臺 在課件最開始總結了lecture07講的關鍵: opti

原创 cs231n_2018_lecture09_notes_知名CNN結構分析

這一講的ppt內容相當之大,主要介紹了幾個較爲出名的CNN結構。在其他人所作的再整理中也就都是非常簡單地介紹了這幾個網絡,實際上想要深入理解還是需要找出以原paper讀讀,然後再針對單個網絡搜搜看看別人的理解。此處也僅簡單概括幾個案例,作

原创 cs231n_神經網絡筆記_部分總結工作2_cnn基礎

關於神經網絡的基礎知識在“cs231n_神經網絡筆記_部分總結工作1”已經做了簡單介紹了,此處特別針對卷積神經網絡CNN做簡單筆記。對幾個卷積神經網絡的案例介紹在下一章“cs231n_2018_lecture09_notes”。 卷積神經

原创 概念比較_迴歸regression+分類calssification

在學習機器學習的過程中,經常會看到“迴歸(regression)”這個詞,感覺很熟悉,但卻說不清楚,於是做個整理。 迴歸和分類可以是一樣的輸入,都是爲了預測,但它們的輸出不同,可以把迴歸看作是連續數值輸出,有着詳細的確定的數值,而分類是離

原创 cs231n_2018_lecture10_notes_RNN基礎

這一章節就是主要圍繞RNN(recurrent neural network)的概念和計算機視覺方面的應用了,由於我之前的工作都是爲了圖像的檢測識別分類,知識側重於經典的圖像處理、經典的機器學習算法和卷積神經網絡,對RNN的計算原理之類的

原创 21caffe[1]_caffe初見

開坑,在拙劣地使用過caffe後,讀《21天實戰caff》,記錄些理論知識,會夾雜些從網絡上蒐集到的其他。 1、基礎概念:泛化、過擬合;機器學習、深度學習;監督學習、無監督學習。 2、從傳統的機器學習到深度學習:構建模式識別或機器學習系統

原创 Transfer Learning 概念

在學習pytorch然後刷官方的pytorch-tutorials到講解Image/Finetune_Torchvision_Models時,看到Transfer Learning, 它在提及fine-tune和feature extra

原创 C++數據結構與算法分析_排序(1)

學習數據結構,記錄以c++語言解釋的排序算法。介紹基礎的插入排序、選擇排序和冒泡排序,以及高效的希爾排序,剩下的堆排序、快速排序、歸併排序、基數排序在下一篇提到。 關鍵屬性/衡量標準 當對可選方法進行比較效率時,定義了兩個時間複雜度關鍵屬

原创 C++數據結構與算法分析_排序(2)

前面已經介紹了基礎的插入排序、選擇排序和冒泡排序,以及高效的希爾排序,看這裏。下面介紹剩餘的部分。 五、高效的排序方法之堆排序 堆排序使用了選擇排序固有的方法,採用找最大元素的方法,從數組末尾開始放置:將數組建堆,堆的根節點數值最大,將其

原创 cs231n_2018_lecture13_notes_強化學習

在連接主義學習中,把算法分爲三種類型,即非監督(unsupervised learning)、監督學習(supervised leaning)和強化學(reinforcement learning)。 概念: 強化學習通過 “採取動作 —

原创 cs231n_2018_lecture13_notes_可視化

對神經網絡的可視化可以幫助我們理解“網絡在做什麼?提取的是什麼特徵?”等一系列關於網絡工作的本質問題。結合代碼測試,觀察效果可能來理解更好,留坑目前還沒做理解,此處就只列下目錄了。 一、第一層的可視化 即將第一層濾波器根據它的權重值可視。

原创 cs231n_2018_lecture12_notes_無監督學習和生成模型

一、無監督學習 先介紹熟悉的有監督學習supervised learning——已知:數據和標籤;目標:學習得到一個函數使得能夠將數據映射到標籤。 有監督學習的例子:分類classification、迴歸regression、目標檢測ob

原创 cs231n_2018_lecture11_notes_rnn視覺應用

這章節主要講解RNN能在計算機視覺領域完成什麼任務。 目前爲止好像都是以線性分類器作基礎講解神經網絡的,具體實現比如網絡最後一層有4096神經元而我們要做個10分類,那麼需要添加10個神經元與前面的4096個神經元全連接,這樣輸出的10個

原创 學習環境搭建

之前在移動硬盤上安裝了ubuntu1604,然後是cuda+cudnn+anaconda+opencv+caffe,在之前的博客中都有記錄,當然還是去官網看install tutorial之類的,少走彎路,遇到問題baidu、google