原创 使用Numpy實現一個神經網絡

import numpy as np N, D_in, H, D_out = 64, 1000, 100, 10 x = np.random.randn(N, D_in) y = np.random.randn(N, D_out) w1

原创 遞歸求二叉樹葉子節點和

使用遞歸解決此類問題,可以首先分析問題及其拆解,這裏面可以將求葉子節點的和拆解爲求左子樹葉子節點和與求右子樹的葉子節點和,然後分析遞歸出口,這裏即訪問到葉子節點退出,返回葉子節點本身的值。 class Solution{ pub

原创 【深度學習筆記整理-2.2】張量Tensor

1.什麼是張量(Tensor)? 張量是可存儲數據的容器,之前將數據存儲在多維numpy數組中,這就是張量。張量擁有自己的維度,也叫軸。例如:矩陣就是二維張量. 2.標量scalar,向量vector,矩陣matrix 標量即0維張量,向

原创 遞歸求二叉樹的高度

此問題可拆解爲求左右子樹最高的高度加1,遞歸出口爲訪問到葉子節點本身時其高度爲1,此時返回0即可。 class Solution{ public int height(TreeNode root){ if(roo

原创 DataFountain疫情情緒分析(一)---數據預處理

一,數據讀取 1.下載到手裏面的數據如果直接使用pandas或者numpy讀取會出現各類編碼問題,使用各種方法測試均失效,解決辦法:先使用excel內置工具將文檔轉爲csv-utf8格式,再使用pandas讀取相關數據。 2.相對於num

原创 RE模塊總結筆記

1.元字符 ①方括號 [ ]:指定一個字符類用於存放你需要匹配的字符集合  [abc] 會匹配字符 a,b 或 c;  [a-c] 可以實現相同的功能  [akm$] 會匹配任何字符 'a','k','m' 或 '$','$' 是一個元字

原创 單鏈表的創建及增刪查驗

1.單鏈表的初始化 單鏈表是由節點構成的,所以,在創建單鏈表時,我們首先應該創建構成單鏈表的節點 class ListNode{ public int val; public ListNode next; pub

原创 向二叉搜索樹中插入節點

向二叉搜索樹插入節點需要保持其本身的性質,即節點左子樹的節點值皆小於其根節點的值,節點右子樹的節點值皆大於其根節點的值。 這裏使用遞歸解決 class Solution{ public TreeNode insert(TreeN

原创 【深度學習筆記整理-6.4】GRU

GRU相比於LSTM運算量小了許多,其中LSTM是SimpleRNN四倍,GRU是三倍。GRU只有更新門和重置門,其中更新門類似將遺忘門和輸入門使用這一個門統一調控,重置門會將上一次的記憶重置後投入“信息門”使用。 更新門 使用更新門

原创 【深度學習筆記整理-6.3】循環神經網絡:LSTM

LSTM是RNN中最爲常用的模型,其需要估計的參數量是普通RNN的4倍,LSTM擁有“四進一出”,四進中又包含了三個門,分別爲遺忘門,輸入門和輸出門。其中,遺忘門用於決定上一層數據保留的比率,輸入門決定當下數據保留的比例,輸出門決定最後輸

原创 【深度學習筆記整理-6.2】循環神經網絡:SimpleRNN

在之前的文章中,我們使用全連接神經網絡解決了很多的問題,但是,這種解決問題的神經網絡是不考慮順序的,對於漸進式的,有順序的數據,全連接神經網絡往往不如循環神經網絡的效果更好。 循環神經網絡的最初想法,就是在全連接網絡的基礎之上,考慮前一層

原创 【深度學習筆記整理-6.1】處理文本數據

一般而言,我們若想處理文本數據,一種是將文本數據轉爲one-hot向量處理,另一種是轉爲下標組成的向量然後通過一層詞嵌入轉爲待處理的向量。 keras內置的函數可以快速幫助我們達到目的: 首先我們需要引入Tokenizer from k

原创 2019年吉大967專碩複試回憶版

1,名詞解釋: 接入網,碼元速率,套接字,密碼散列函數,防火牆,協議和服務,smtp 2,論述題: 公鑰和私鑰 tcp三次握手原理 報文完整性的含義 路由器與交換機特點 因特網提供的三種典型服務 3.大題: 段式存儲管理的原理 索引

原创 【深度學習筆記整理-5.3】使用預訓練模型

1.爲什麼神經網絡可以使用預訓練模型? 所謂使用預訓練的模型,就是使用別人已經訓練好的模型及參數,雖然利用到的數據集不同,但是前幾層幾乎做的事情是相同的,就拿CNN舉例,前幾層都是在找一些簡單的線條,對於足夠大的網絡和足夠多的數據,前幾層

原创 【深度學習筆記整理-5.2】貓狗大戰:小樣本訓練處理

 1.資料獲取      辨別貓狗的圖片資源來自與Kaggle的數據集,自行搜索下載即可。由於知名原因,如果沒有條件進入到Kaggle競賽網站,可以使用以下鏈接下載:https://pan.baidu.com/s/1pBSenGv248o