原创 PyTorch:學習conv1D,conv2D和conv3D

背景 CNN是深度學習的重中之重,而conv1D,conv2D,和conv3D又是CNN的核心,所以理解conv的工作原理就變得尤爲重要。在本博客中,將簡單梳理一下這三種卷積,以及在PyTorch中的應用方法。 參考 https

原创 Pytorch : Run FlowNet2 with Pytorch

Method Install Ubuntu16.04 Install NVIDIA Driver and CUDA 10.0 Install Anaconda python3.7 Change Anaconda Mirror I

原创 讀後感--《魔鬼數學:大數據時代,數學思維的力量》

背景 這是在學習數學看的第一本科普類數學書,大概記錄了一下看每章的讀後感,記錄一下。 第一章 第一部分簡單的講解了線性模型,泰勒展開,線性迴歸,大數定理以及負數等等概念;用一些實際生活中的例子來幫助讀者理解這些概念,以及爲什麼

原创 偷懶性開發:gitblid+jenkins持續性開發與集成

背景 最近在做項目的時候,由於“每次commit代碼後,還需要人工編譯代碼,然後再跑測試”,感覺特別浪費時間和麻煩。因此準備開始偷懶,就上網瀏覽了一下有沒有偷懶的方法。果然,程序員偷懶是普世道理,我很快就找到了一些比較流行的方法:

原创 PyTorch(1.3.0+):學習torch.nn.functional.grid_sample

背景 最近在學習SfMLearner,其中一個非常重要的部分是Differentiable depth image-based rendering,翻譯過來就是基於深度的可微圖像渲染。這看起來好像很高大上,但是換句話說其實就是要根

原创 PyTorch(1.3.0+):基於UNet和camvid數據集的道路分割

警告 請注意PyTorch使用的版本!!! 背景 語義分割是深度學習中的一個非常重要的研究方向,並且UNet是語義分割中一個非常經典的模型。在本次博客中,我嘗試用UNet對camvid dataset數據集進行道路分割,大致期望

原创 PyToch:基於神經網絡的數字識別(MNIST數據集)

背景 最近在學習PyTorch和深度學習,所以決定先用MNIST數據集試試手,利用神經網絡做一個簡單的數字識別。 參考代碼來源於: https://github.com/udacity/deep-learning-v2-pytor

原创 Windows10-Linux18.04子系統:界面可視化及CMake配置筆記

參考資料 https://intellij-support.jetbrains.com/hc/en-us/community/posts/360003413779-Troubles-with-WSL-toolchain-Test-

原创 PyTorch:學習torch.nn.functional.grid_sample

背景 最近在學習SfMLearner,其中一個非常重要的部分是Differentiable depth image-based rendering,翻譯過來就是基於深度的可微圖像渲染。這看起來好像很高大上,但是換句話說其實就是要根

原创 2020給自己立一個FLAG

背景 2019年馬上就要結束了,2020已經迫在眉睫。回顧2019年以來,我總是在博客上寫一些比較無聊且沒有技術含量的博客。 因此,在博客上給自己立下一個Flag: 2020年要多些技術硬核類的博客!! 結語 2020加油!

原创 PyTorch:基於循環神經網絡利用sin預測cos

背景 之前在學習深度學習的時候,由於只是做一些圖像處理相關的東西,因此關注的重心都在CNN上;但是目前,RNN也逐漸在圖像處理上發揮了非常重要的作用,所以學習並瞭解一些RNN的基礎和原理也是非常重要。 本次,將利用sin函數值預測

原创 PyTorch:Digit Recognizer比賽後續-訓練優化

背景 上篇博客嘗試了數據增強,取得了不錯的效果,但是結果仍舊不是特別好。所以這次又從訓練的角度進行了一些優化,包括: BatchNorm 使用變化的學習率 繼續增加epoch 最終實驗結果還是非常棒的,代碼和結果如下。目前已經

原创 PyTorch:Digit Recognizer比賽後續-數據增強

背景 上次利用PyTorch做了一個模型以後,訓練的結果只有94%左右,並不是特別好。本次進行了一些改進: 增加訓練次數 添加數據增強 代碼鏈接: https://www.kaggle.com/yannnnnnnnnnnn/k

原创 PyTorch:Digit Recognizer比賽

背景 自從上次學了PyTorch以後,又丟下了很長一段時間,都快忘光了。這次刷了一遍《Dive into DL PyTorch》後,又嘗試做了Kaggle上的Digit Reconizer比賽。 參考資料 https://tang

原创 PyTorch:模型參數讀取與設置--以FlowNetSimple爲例

一、背景 在“搞”深度學習時,除非富如東海,往往都不會直接用大量數據來訓練一個網絡;一般情況下,比較省錢且高效的思路是利用一些預訓練的模型,並在其基礎上進行再訓練優化,達到自己的目的。 因此,在本博客中將簡單記錄一下,如何在PyT