原创 windows控制檯常用命令

常用基礎命令 copy /b ED_1920_1080_24fps.7z.* ED_1920_1080_24fps.7z # 拼接二進制文件 netsh winsock reset 重置網絡服務 dir dir /b/B/on

原创 pytorch數據並行

原文鏈接:DATA PARALLELISM 在這個教程中,我們將學習怎樣通過DataParallel在多GPU上實現數據並行。 在pytorch中使用GPUs非常簡單,比如可以通過下面語句將模型放入一張GPU中: device

原创 SDR HDR 區別

SDR (Standard Dynamic Range), 標準動態範圍 HDR (High Dynamic Range), 高動態範圍 通俗地講就是8位和10位的區別(不夠準確的說法,但是可以很方便地看出兩者的區別)。標準動

原创 git常用命令

git add . # 添加所有文件 git commit -m “notice message” # 提交更改 git push -u origin master # 更新到github

原创 快速連接網絡打印機

WIN R 輸入control panel 打開控制面板 設備和打印機——添加打印機——我的打印機未列出——通過手動添加本地打印機或網絡打印機(o)——創建新端口——Local Port——端口名:\ip地址(機器名)\打印機名——從

原创 FFmpeg命令行記錄

FFmpeg常用命令/參數 常用命令 ffmpeg -s:v 1920x1080 -r 25 -i input.yuv -vf scale=960:540 -c:v rawvideo -pix_fmt yuv420p out.yu

原创 深度學習常用損失函數

損失函數的作用是衡量實際輸出與預計輸出之間的差異,損失函數的設計是深度學習中十分重要的部分,不僅會影響到訓練的速度,還會影響隱含層中數據的分佈情況。目前僅僅是總結了部分常用損失函數的計算方法,其中涉及很多統計學最優化知識,對此僅僅是淺

原创 PyTorch教程之DCGAN

原文連接:DCGAN TUTORIAL 簡介 本教程通過例程來介紹 DCGANs 。我們使用名人照片來訓練 GAN 網絡使其能夠生成新的名人。 這裏使用的大部分代碼都來自pytorch/examples,本篇教程會出該實現的詳細介紹,

原创 深入理解 TORCH.NN

原文地址:WHAT IS TORCH.NN REALLY? 本人英語學渣,如有錯誤請及時指出以便更正,使用的源碼可點擊原文地址進行下載。 pytorch提供了許多優雅的類和模塊幫助我們構建與訓練網絡,比如 torch.nn, tor

原创 pytorch常用語法

記錄常用語法以備忘,記得不是很規範,主要方便自己遺忘時查閱… 本文從以下三個方面記錄pytorch的常用語法,並會隨着將來的使用不斷更新: 張量操作 數據預處理 網絡構建 1 張量操作 1.1 張量創建 x = torch.e

原创 linux常用命令(ubuntu)

使用中的常用命令 常用基礎命令: cat /etc/issue $ # 查看系統版本 lspci | grip -i nvidia # 查看pci總線下得nvidia設備

原创 神經網絡的雛形:從M-P模型到感知機

1 序 1943年,心理學家McCulloch和數學家Pitts建立起了著名的閾值加權和模型,簡稱爲M-P模型,其拓撲結構便是現代神經網絡中的一個神經元,發表於數學生物物理學會刊《Bulletin of Methematical Bi

原创 視頻硬編碼筆記

由於項目要求,需要對1080P以及4K的視頻實時編解碼,編碼格式爲H265。首先使用X265編碼測試,無奈平均編碼速度僅有6.08fps,遠遠無法滿足實時性的要求。之後依次使用Intel與nvidia的硬編碼測試效果,總算滿足了實時編

原创 B幀 P幀 I幀

視頻編碼中經常遇到的名詞,本來很簡單的問題,但查到的解釋總是很羅嗦(就不能給出個英文全稱嗎,一看就懂),下面是簡單的解釋。 B-frame (bi-directional frame) 雙向預測編碼,編碼幀參考前後幀,編碼效率最高

原创 動量梯度下降法(gradient descent with momentum)

簡介 動量梯度下降法是對梯度下降法的改良版本,通常來說優化效果好於梯度下降法。對梯度下降法不熟悉的可以參考梯度下降法,理解梯度下降法是理解動量梯度下降法的前提,除此之外要搞懂動量梯度下降法需要知道原始方法在實際應用中的不足之處,動量梯