原创 mysql學習筆記(4)

4.1 MySQL 實戰 學習內容 數據導入導出 將之前創建的任意一張MySQL表導出,且是CSV格式 關於csv文件,navicat for mysql中不包含cav文件的格式。嘗試用MySQL workbench,可以導出

原创 mysql學習筆記(2)

導入sql文件 用Navicat for Mysql導入.sql文件 - 路修遠而求索 - 博客園 如果右鍵刷新失敗,則用F5刷新,就會顯示成功。 常用語句 SQL是一種用於操作數據庫的語言。SQL是用於所有數據庫的基本語言

原创 動手學(4)

批量歸一化(BatchNormalization) 對輸入的標準化(淺層模型) 處理後的任意一個特徵在數據集中所有樣本上的均值爲0、標準差爲1。 標準化處理輸入數據使各個特徵的分佈相近 批量歸一化(深度模型) 利用小批量上的均值和

原创 動手學(2)

模型選擇、過擬合和欠擬合 訓練誤差和泛化誤差 訓練誤差(training error)指模型在訓練數據集上表現出的誤差,泛化誤差(generalization error)指模型在任意一個測試數據樣本上表現出的誤差的期望,並常常通

原创 動手深度學習(1)

(1)假如你正在實現一個全連接層,全連接層的輸入形狀是7×8,輸出形狀是7×1,其中7是批量大小,則權重參數ww和偏置參數bb的形狀分別是8x1和1x1.。 (2) 課程中的損失函數定義爲: def squared_loss

原创 動手學(3)

循環神經網絡 循環神經網絡的構造 one-hot向量 裁剪梯度 困惑度 我們通常使用困惑度(perplexity)來評價語言模型的好壞。困惑度是對交叉熵損失函數做指數運算後得到的值。特別地, 最佳情況下,模型總是把標籤類別的

原创 Inception網絡

inception網絡 inception介紹 ResNet 爲了使網絡更深,Inception 可以讓神經網絡爲了更寬。Inception 在不增加計算成本的前提下擴展神經網絡的一種方案。 Inception 最早的論文關注的是

原创 Lenet5和VGG16介紹

Lenet5和VGG16 Lenet5 LeNet-5共有7層,不包含輸入,每層都包含可訓練參數;每個層有多個Feature Map,每個FeatureMap通過一種卷積濾波器提取輸入的一種特徵,然後每個FeatureMap有多

原创 10個梯度下降優化算法

梯度下降是一種尋找函數極小值的優化方法,在深度學習模型中常常用來在反向傳播過程中更新神經網絡的權值。 梯度下降法優化器對梯度部分使用的是指數移動平均值(EMA),對學習率部分使用均方根(RMS)。 爲什麼要對梯度取指數移動

原创 遞歸

遞歸三大定律 ● 所有遞歸算法必須具備基本結束條件。 ● 遞歸算法必須要減小規模,改變狀態,向基本結束條件演進。 ● 遞歸算法必須調用自身(遞歸地)。 ● 某些情況下,遞歸可以代替迭代循環。 ● 遞歸

原创 空間域和通道域注意力機制

計算機視覺中的注意力機制 簡介 計算機視覺(computer vision)中的注意力機制(attention)的主要是想讓系統學會把注意力放在感興趣的地方。具備注意力機制的神經網絡一方面能夠自主學習注意力機制,另一方面則是注意力

原创 計算機視覺五大技術

計算機視覺五大技術文章來源:企鵝號 - AI火箭營 計算機視覺五大技術 - 雲+社區 - 騰訊雲 當前計算機視覺是深度學習領域最熱門的研究領域之一。計算機視覺實際上是一個跨領域的交叉學科,包括計算機科學(圖形、算法、理論、系統、體

原创 梯度下降算法

梯度下降算法 訓練神經網絡流程: <1>獲得數據; <2>通過計算圖前向傳播,獲得loss; <3>反向傳播計算梯度,這個梯度能告訴我們如何去調整權重,最終能夠更好的分類圖片; <4>用計算出的梯度去更新參數 (1)、梯度

原创 神經網絡細節

神經網絡細節 一、激活函數(Activation Function) Sigmoid sigmoid函數又被稱爲擠壓函數,取值爲[0,1]之間的實數。同時,sigmoid存在3個問題: (1)一個飽和的神經元(S

原创 pandas匹配特定值索引選取多行數據

df.iloc[i]返回df的第i行。 i不引用索引標籤,i是從0開始的索引。 相反,屬性index返回實際的索引標籤,而不是數字row-indices: df.index[df['BoolCol'] == True].tolis