原创 rnn神經網絡概述-tensorflow實現

cnn卷積神經網絡在前面已經有所瞭解了,目前博主也使用它進行了一個圖像分類問題,基於kaggle裏面的food-101進行的圖像識別,識別率有點感人,基於數據集的關係,大致來說還可行。 下面我就繼續學習rnn神經網絡。 rnn神經

原创 BM25-nlp經典算法

前兩天老師給我們講解了BM25算法,其中包括由來解釋,以及算法推導,這裏我再將其整理,這裏我不講解之前的BIM模型,大家有興趣可以自行了解。 Okapi BM25:一個非二值的模型 bm25 是一種用來評價搜索詞和文檔之間相關性的

原创 python-tensorflow 實現圖像分類

前段時間,日劇《輪到你了》大火,作爲程序員的我,看到了另外一個程序員—二階堂,他的生活作息,以及飲食規律,讓我感同身受,最讓我感觸的是他做的AI聊天機器人,AI菜品分析機器人,AI罪犯分析。  這讓作爲程序員的我突然萌生了一股攀比

原创 CA-RNN

CA-RNN: Using Context-Aligned Recurrent Neural Networks for Modeling Sentence Similarity(CA-RNN:使用上下文對齊的遞歸神經網絡建模句子相

原创 datawhale爬蟲

下面直接爬取所有數據: import requests from bs4 import BeautifulSoup url='http://www.dxy.cn/bbs/thread/626626#626626' headers

原创 HTML5列表和塊的相關

下面瞭解關於HTML5列表的製作和塊:如下圖 列表分爲有序列表,無序列表,嵌套列表,自定義列表,我們可以一一嘗試輸出,對比,給出代碼如下: 無序列表:<br/> disc:實體圓 circle:空心圓 squ

原创 datawhale爬蟲(正則入門and第一個爬蟲)

1.正則表達式基礎介紹 Python 的 re 模塊(Regular Expression 正則表達式)提供各種正則表達式的匹配操作,和 Perl 腳本的正則表達式功能類似,使用這一內嵌於 Python 的語言工具,儘管不能滿足所

原创 datawhale爬蟲(xpath爬取丁香網評論)

1.xpath基礎學習 前面我們介紹了 BeautifulSoup 的用法,這個已經是非常強大的庫了,不過還有一些比較流行的解析庫,例如 lxml,使用的是 Xpath 語法,同樣是效率比較高的解析方法。如果大家對 Beautif

原创 tensorflow—卷積神經網絡(例:手寫數字識別)

傳統的神經網絡中的不足: 上圖中,我們需要計算的權值非常多,就需要大量的樣本訓練,我們模型的構建,需要根據數據的大小來建立,防止過擬合,以及欠擬合。 因此,cnn算法通過感受野和權值共享減少了神經網絡需要訓練的參數個數,如圖:

原创 機器學習—神經網絡-代價函數,反向傳播算法

在神經網絡中,我們瞭解了,神經網絡類似於一個一個的節點,當我們輸入數據,然後就會有一輸出,輸出再作爲輸入,直到最後輸出,其中,隱藏層的節點,我們如何知道其算法呢? 神經網絡代價函數: 下面是邏輯迴歸的代價函數的一般式: 我們不再

原创 機器學習—神經網絡入門

神經網絡基礎 在機器學習中,線性迴歸和邏輯迴歸用來處理相關問題很簡單,當我們的數據集如下時: 例如一個房屋有很多的特徵時,特徵點有多個,算出如上的邏輯迴歸,此時函數很複雜,所以這不是一個好辦法。 於是,我們使用神經網絡算法可以來

原创 機器學習—梯度下降

單變量梯度下降 在我們學習的損失函數後,梯度下降就是求解損失函數的一種方法 我們求出θ0,θ1,使得J(θ0,θ1)最小,同理也是求出θ0,θ1,θ2,θ3…θn使得J(θ0,θ1,θ2,θ3…θn)最小,或者局部最小值,我們僅用

原创 tensorflow—圖,會話,常量,變量

tensorflow基礎篇 圖(graphs),會話(session),張量(tensor),變量(Variable),節點(operation) 1.在會話中執行任務 2.在圖中表示計算任務 3.張量(tensor)表示數據 4

原创 python爬取豆瓣影評—《惡人傳》

前面爬取過毒液影評,這段時間很多人找我要源碼,我之前的代碼已經遺失,所以重新做了下,分享給大家,希望幫到大家😀 爬取豆瓣電影惡人轉:https://movie.douban.com/subject/30211551/comment

原创 機器學習—代價函數

學習了機器學習,以及tensorflow,想將這個重點思想回顧,複習——基於吳恩達的機器學習。 代價函數 代價函數(Cost Function )是定義在整個訓練集上的,是所有樣本誤差的平均,也就是損失函數的平均。 例如,在上述