原创 國內計算機學科十大名校

最近,總有好多人問我關於擇校問題。我就下面細說一下計算機學科國內前十高校。 1.清華大學         清華大學計算機科學與技術系(以下簡稱計算機系)成立於1958年。經過50多年的不懈努力,已發展成爲我國計算機學科領域內教學、科研綜合

原创 保研路--雙非到八所985高校錄取的坎坷歷程

個人簡介 本科軟件工程專業,最終專業排名2/277,績點:4.21,前五學期1/281(參加夏令營時參考前五學期排名)。 大學期間在班級擔任學習委員,學院ACM協會會長,競賽集訓隊隊長,多次參與校內外程序設計賽事命題工

原创 Bi-LSTM-CRF(一)--tensorflow源碼解析

1.1.核心代碼: cell_fw = tf.contrib.rnn.LSTMCell(num_units=100) cell_bw = tf.contrib.rnn.LSTMCell(num_units=100) (outputs, o

原创 正則化

通過降低複雜模型的複雜度來防止過擬合的規則稱爲正則化。 L1正則化,即原損失函數 + 所有權重的平均絕對值 * λ ,其中λ >0 L2正則化,即原損失函數 + 所有權重平方和的平均值 * λ / 2 , λ>0 L1 正則化可以理解爲每

原创 Bi-LSTM-CRF(二)--tensorflow源碼解析

CRF 對於序列標註問題,通常會在LSTM的輸出後接一個CRF層:將LSTM的輸出通過線性變換得到維度爲[batch_size, max_seq_len, num_tags]的張量,這個張量再作爲一元勢函數(Unary Potential

原创 GRU

GRU:有兩個有兩個門,即重置門reset gate、更新門update gate。這兩個門控機制的特殊之處在於,它們能夠保存長期序列中的信息,且不會隨時間而清除或因爲與預測不相關而移除。從直觀上來說,重置門決定了如何將新的輸入信息與前面

原创 梯度消失和梯度爆炸

1.梯度爆炸 1)原因 在深層網絡或遞歸神經網絡中,誤差梯度在更新中累積得到一個非常大的梯度,這樣的梯度會大幅度更新網絡參數,進而導致網絡不穩定。在極端情況下,權重的值變得特別大,以至於結果會溢出(NaN值,無窮與非數值)。當梯度爆炸發生

原创 生成模型和判別模型

輸入變量與輸出變量均爲連續變量的預測問題成爲迴歸問題; 輸出變量爲有限個離散變量的預測問題稱爲分類問題; 輸入變量與輸出變量均爲序列的預測問題稱爲標註問題。 1生成模型     生成模型估計的是聯合概率分佈(joint probabili

原创 退役帖

當你真正感受到了痛,才知道痛是什麼,而當我真正要告別它的時候,真正明白了這種感覺。事到如今,這條路也算走到盡頭了吧。總在缺乏鬥志的給予人走下去的勇氣。 曾經迷茫過,彷徨過,但最後磕磕碰碰還是走下來了。我不是oi,這或許是我最大遺憾,如

原创 部分處理文件格式代碼

1.轉換編碼: 原編碼\xe7\x97\x85\xe7\x90\x86\xe5\x8f\x8d\xe5\xb0\x84 轉換爲中文編碼:”引出” import re def unicodetostr( s ): strTob

原创 Hopfield-數字識別

import numpy as np import neurolab as nl import matplotlib .pyplot as plt target = np.array([[0,0,0,0,0,0,0,0,

原创 Eclipse配置python插件

一.給Eclipse安裝PyDev插件 啓用Eclipse————如果前面的步驟都正確無誤的話,那麼Eclipse就該能夠正常啓動了。 第一次啓動會讓你選擇一個工作空間,按缺省設置,勾選一下不再提醒,就可以了。 在Help菜單中,選擇

原创 長短時記憶網絡--代碼實現

import matplotlib.pyplot as plt import numpy as np class IdentityActivator(object): def forward(self, weighted_inp

原创 BP神經網絡--代碼實現

import random from numpy import * from functools import reduce def sigmoid(inX): return 1.0 / (1 + exp(-inX)) cl

原创 Hopfield神經網絡詳解

起源 根據神經網絡運行過程中的信息流向,可分爲前饋式和反饋式兩種基本類型。前饋網絡的輸出僅由當前輸入和權矩陣決定,而與網絡先前的輸出狀態無關。 美國加州理工學院物理學家J.J.Hopfield教授於1982年提出一種單層反饋神經網絡,後