原创 VggNet介紹(1)

一.背景介紹 vggnet是由牛津大學視覺幾何組和 google deepmind 共同研發的模型。該模型在2014 Image大賽上取得了分類任務的亞軍和定位任務的冠軍。其最主要的特點是:由3*3的卷積核和2*2的最大池化構成模型的主幹

原创 使用vgg19進行微表情分類

介紹:通過pytorch提供的預訓練模型進行遷移學習,進行微表情分類。先說一下數據集: Kaggle的另一項挑戰,Facial Expression Recognition Challenge(FER)(面部表情識別挑戰)的目標是僅從他們

原创 Python基礎之抽象——對象

python和java,C++等語言一樣,是一種面向對象的語言,具有多態、封裝、繼承等優點。 1、多態:即指多種形態,大致意味着即便你不知道變量指向的是哪種對象,也能夠對其執行操作,且操作的行爲將隨對象所屬的類型而異。多態是python的

原创 AlexNet介紹(2)---------遷移學習

本文使用pytorch提供的預訓練模型訓練牛津大學提供的flower數據集。該數據集共1360張,分爲17類,每類80張。爲了方便,我把順序打亂後從中拿出1000張作爲訓練集,剩下的作爲驗證集。數據集下載    import torch

原创 AlexNet介紹(1)

一.背景介紹:       第一個典型的卷積網絡是lenet5,但是第一個引起大家極大關注的卷積網絡確是AlexNet。該模型在2012年ImageNet競賽中取得冠軍,並與第二名拉開了較大的差距,所以在當時對學術界和工業界帶來了較大的影

原创 自然語言處理筆記001----介紹

自然語言(Natural Language)其實就是人類語言,自然語言處理(NLP)就是對人類語言的處理,當然主要是利用計算機。自然語言處理是關於計算機科學和語言學的交叉學科,常見的研究任務包括: 分詞(Word Segmentation

原创 自然語言處理筆記002----字符串處理

NLP處理的對象是文本字符串內容,一般來講,文本基本都是有字符串構成的。文本基本上也是由字符串組成的。 1.lstrip  rstrip strip--->去掉特殊字符,包括空格,換行符等 import numpy as np s="

原创 1.從頭開始

作爲一個只知道寫代碼的碼農,對於寫文章實在不在行,本想寫個摘要啥的,想來想去總是乾巴巴的幾句話。算了,隨便寫幾句吧: 圖像處理大概分成幾個內容來寫: (1)分類:分類是圖像的基礎,現在主要用來進行特徵提起。主要使用的算法有:       

原创 機器學習之決策樹算法(3)

今天看了一個視頻,發現有很多值得學習的地方,把代碼分享給大家。數據清洗部分很值得學習。算法部分最好還是自己找個合適的跑一跑 import pandas as pd; import os; from dateutil.parser imp

原创 機器學習之決策樹算法(1)

決策樹算法是一種有監督的機器學習算法,它的結構類似於流程圖的樹狀結構。由節點和有向圖組成,節點分爲葉子節點和內部節點。葉子節點代表樣本的類別,內部節點表示一個特徵或者屬性。根節點到葉子節點的每一天路徑構建一條規則。而葉子節點代表對應的規則

原创 機器學習之決策樹算法(2)

上面一篇博文我們使用決策樹建立模型預測泰坦尼克號倖存者的數量。但出現了過擬合現象,現在我們嘗試着優化模型參數,提高預測精度。 首先我們把上面一篇數據處理的代碼複製過來: import pandas as pd; def DataAnal

原创 機器學習之K-最鄰近算法(3)

本文使用knn算法及其變種,對kaggle大賽中的糖尿病進行預測。廢話省略,直接代碼 ''' kaggle大賽中的糖尿病預測。 ''' import pandas as pd; import numpy as np; from skle

原创 機器學習之K-最鄰近算法(1)

K_最鄰近算法:k最鄰近算法又稱爲knn算法,是一種有監督的機器學習算法。k_鄰近算法的核心思想是:未標記的樣本類別,由距離其最近的k個鄰居投票決定。距離計算一般採用歐式距離或者曼哈頓距離。 具體原理如下: (1)計算測試數據與每個樣本之

原创 機器學習之K-最鄰近算法(2)

前面一篇文章說了用knn算法進行分類,現在嘗試用knn算法進行線性迴歸分析。不說了,直接上代碼。 """ 使用knn實現簡單的線性迴歸.sk中進行迴歸和分類的knn算法的API不一樣,這點需要注意一下。 """ import nump

原创 梯度下降法解讀

梯度下降法,是當今最流行的優化(optimization)算法,亦是至今最常用的優化神經網絡的方法。本文旨在讓你對不同的優化梯度下降法的算法有一個直觀認識,以幫助你使用這些算法。我們首先會考察梯度下降法的各種變體,然後會簡要地總結在訓練(