原创 PyTorch實現DenseNet

import numpy as np import torch from torch import nn from torch.autograd import Variable from torchvision.datasets im

原创 PyTorch實現ResNet

import numpy as np import torch from torch import nn from torch.autograd import Variable import torch.nn.functional a

原创 PyTorch實現GoogLeNet(InceptionNet)

import numpy as np import torch from torch import nn from torch.autograd import Variable 定義一個卷積加batchnorm,以及relu激活函數

原创 PyTroch報錯NotImplementedError:

1.在寫PyTorch網絡模型時出現以下報錯: NotImplementedError,該錯誤表示尚未成功的實現某種方法。以下爲報錯界面,經過查詢錯誤位置。在‘forward’定義處! 2.查找錯誤 經過查看,'forward’定義

原创 AlexNet模型參數詳解及PyTorch實現

文章目錄一、卷積池化層原理二、全連接層原理三、模型參數詳解注:AlexNet論文錯誤點1.卷積池化層1(1)卷積運算(2)分組(3)激活函數層(4)池化層(5)歸一化處理(6)參數數量2.卷積池化層2(1)卷積運算(2)分組(3)激活

原创 讀《利用python進行數據分析》總結

文章目錄第一章 省略第二章 Python語言及jupyter notebook2.2 Jupyter notebook基礎1.Tab鍵補全2.內省3.%run和%load4.按Ctrl + C 中斷代碼。5.魔術命令2.3 Pytho

原创 PyTorch優化函數

PyTorch優化器導入 文章目錄一、導入PyTorch二、定義模型三、導入優化器導入優化器1 :梯度下降法SGD導入優化器2 :SGD+momentum導入優化器3 :Adagrad導入優化器4 :RMSprop導入優化器5 :Ad

原创 深度學習

文章目錄第一節 激活函數1.基本情況2.全連接層網絡3.激活函數第二節 損失函數1.迴歸損失函數2.分類損失函數(1)獨熱編碼轉化(2)損失函數 第一節 激活函數 1.基本情況 權重,激勵函數,損失函數,反向傳播

原创 2

(4)用戶騎行持續時間的分佈 我們從上面的綜述統計數據中瞭解到,平均行程持續時間爲851秒(約14分鐘),標準偏差較大(4489秒或75分鐘)。 讓我們更詳細地看一下分佈。 # 收集所有騎行持續時間大於1小時的數據 duration_

原创 共享單車-隨機森林迴歸分析

Capital Bikeshare trip data 數據特徵 總共七個特徵: Duration:騎行持續時間,數據形式:844108ms和14h 26min. 2sec Start date:開始日期,數據形式:12/31/201

原创 基於sklearn的分類鳶尾花卉——邏輯迴歸實戰

https://www.jianshu.com/p/e51e92a01a9c#fn1

原创 Markdown快速使用手冊

1. 日常使用操作: https://www.zybuluo.com/mdeditor?url=https://www.zybuluo.com/static/editor/md-help.markdown (該鏈接可以直接在線編輯練習

原创 LeetCode-10 正則表達式匹配

一、題目 給定一個字符串 (s) 和一個字符模式 §。實現支持 ‘.’ 和 ‘*’ 的正則表達式匹配。 ‘.’ 匹配任意單個字符。 ‘*’ 匹配零個或多個前面的元素。 匹配應該覆蓋整個字符串 (s) ,而不是部分字符串。 說明: s

原创 機器學習算法梳理-LightGBM

文章目錄一、LightGBM的起源二、Histogram與pre-sorted比較1.優勢2.劣勢三、leaf-wise VS level-wise四、特徵並行和數據並行1.特徵並行1.1傳統算法的的特徵並行1.2 傳統的特徵並行方法

原创 ROC曲線與AUC值

一、相關概念 ROC的全名叫做Receiver Operating Characteristic,其主要分析工具是一個畫在二維平面上的曲線——ROC curve。平面的橫座標是false positive rate(FPR),錯誤率。