原创 Leetcode_215_Kth Largest Element in an Array

Find the kth largest element in an unsorted array. Note that it is the kth largest element in the sorted order, not

原创 Leetcode_88_Merge Sorted Array

Given two sorted integer arrays nums1 and nums2, merge nums2 into nums1 as one sorted array. Note: You may assume

原创 Leetcode_75_Sort Colors

Given an array with n objects colored red, white or blue, sort them so that objects of the same color are adjacent,

原创 BP神經網絡-前向傳播

前言 回顧 前向傳播 前言 本文是接着上一文多層感知機所寫的。上一文說的瞭如何初始化一個MLP。本文簡單介紹一下前向傳播的概念以及代碼實現。 上文:http://blog.csdn.net/skullfang/artic

原创 tensorflow搭建簡單迴歸模型

前言 這是使用tensorflow 搭建一個簡單的迴歸模型,用於熟悉tensorflow的基本操作和使用方法。 模型說明 這是一個簡單的線性迴歸模型 損失函數是均方誤差 這個有機器學習基礎的同學應該很熟悉了。 模型數據 造

原创 深度學習-多層感知器

多層感知器 多層感知器(Multilayer Perceptron,縮寫MLP)是一種前向結構的人工神經網絡,映射一組輸入向量到一組輸出向量。MLP可以被看作是一個有向圖,由多個的節點層所組成,每一層都全連接到下一層。除了輸入節點

原创 Idea 2017配置struts2--超坑爹問題解決

一、博文說明 爲啥寫這東西,因爲struts2 是web開發必備知識,雖然現在可能不會使用,但是面試一般可能問到。現在struts2升級到2.5這與2.3有很大區別,詳細很多小夥伴照着網上各種教程都沒有辦法成功。然而idean內

原创 神經網絡識別手寫優化(二)

前言 本文接着一寫的,還是對之前實現的神經網絡進行一個優化。 DropOut 這個東西也是防止過擬合的。意思就是每一輪訓練完了之後,丟棄掉一些神經元。從而防止過擬合。 這是什麼原理? 因爲我們網絡的神經元過多,有些神經元把沒有泛化

原创 神經網絡識別手寫優化(一)

手寫識別優化 前言 之前實現的神經網絡還有很多可以優化的地方。本文主要正對其進行優化。 初始化 在訓練神經網絡之前參數初始化。這裏的參數就是w,b。 w,b的初始化。 權重w初始化基於正態分佈模型(高斯分佈): 以0爲均值,

原创 神經網絡識別手寫優化(三)

前言 本文是爲了實現存儲自己訓練好的模型 結構和參數,以及加載訓練好的模型進行預測。 代碼 保存 def save(self,filename): """ 模型保存 :par

原创 神經網路識別手寫(Mnist)

神經網路識別手寫(Mnist) 前言 本文是之前我們實現的神經網路對手寫體識別的一個實踐。使用的數據是經典的Mnist數據。 下載鏈接爲: http://www.iro.umontreal.ca/~lisa/deep/data

原创 神經網絡-自適應神經元

自適應神經元 前言 感知機存在的問題 自適應神經元 算法步驟 權重初始化 計算預測值 更新權重 更新閾值 代碼部分 自適應神經元 前言 本博客講解的是自適應性神經元,爲以後的深度學習打下基礎。 本文章是閱覽

原创 卷積神經網絡組件之卷積&池化層

前言 其實之前使用的bp前饋神經網絡就是一個全連接神經網絡,現在就是要把它封裝成一個層。在卷積神經網絡中會使用到。 卷積神經網路(CNN) 卷積神經網絡也是一種前饋神經網絡,相對於傳統的神經網絡,它的人工神經元可以響應一部分覆蓋範

原创 神經網絡-感知器

目錄 目錄 前言 感知器 Frank Rosenblatt感知器 Heaviside階躍函數 算法步驟 權重初始化 計算預測值 更新權重 更新閾值 代碼部分 前言 這是一篇神經網絡最最最基礎的博文! 講解的是

原创 Pycharm+Scrapy安裝並且初始化項目

前言 Scrapy是一個開源的網絡爬蟲框架,Python編寫的。最初設計用於網頁抓取,也可以用來提取數據使用API或作爲一個通用的網絡爬蟲。是數據採集不可必備的利器。 安裝 pip install scrapy 如果使用上面的命