原创 pytorch學習之七 批訓練

批訓練是什麼東西呢?在之前的迭代訓練代碼中。 for t in range(100): out = net(x) loss = loss_func(out,y) optimizer.zero_grad()

原创 pytorch學習之四 簡單的二類分類問題

文章目錄@[toc] 用神經網絡解決一個簡單的二類分類問題構建僞數據搭建神經網絡以及梯度下降繪圖過程 用神經網絡解決一個簡單的二類分類問題 仍然是看莫煩pytorch的教程。先上代碼 from torch.autograd imp

原创 pytorch學習之五 快速搭建法

上一課,搭建神經網絡的代碼是這樣的 class Net(torch.nn.Module): #繼承torch.nn.Moudle這個模塊,可以調用這個模塊的接口 def __init__(self, n_features

原创 pytorch學習之六 保存神經網絡

我們訓練好的神經網絡,需要保存下來下次使用,有幾種方法來做。 torch.save( net1,'net.pkl' ); torch.save( net1.state_dict(),'net_params.pkl' ); 第

原创 pytorch學習 之二 pytorch的一些基礎的概念

幾個pytorch的基本概念 文章目錄幾個pytorch的基本概念Tensor動態計算圖定義自動微分變量PyTorch的autograd的簡介requires_grad屬性Function類backward函數autograd的一

原创 pytorch學習之三 簡單的迴歸問題

文章目錄@[toc] 用神經網絡解決迴歸問題代碼分析構造僞數據定義一個神經網絡類優化算法與目標函數反向傳播,調整參數 用神經網絡解決迴歸問題 機器學習的問題分爲兩大類: 迴歸問題 分類問題 對於輸出值是連續型的,稱爲迴歸問題。

原创 pytorch 學習第一日

今天看是學習pytorch,視頻教程是莫煩的pytorch教程,安裝花了一天時間,主要是pytorch用conda下載不下來,建議離線下載,然後要找離線的方式安裝,這個靠譜。 首先就是tensor,variable的概念,tens

原创 Linux驅動程序之同步互斥阻塞

Linux驅動程序之同步互斥阻塞 文章目錄Linux驅動程序之同步互斥阻塞簡單例子說明多進程互斥的基本方法原子操作信號量阻塞與非阻塞 有時候一個驅動程序,同一時刻只允許有一個用戶程序能夠打開,訪問設備,否則會出錯,那麼怎麼完成這種

原创 LINUX驅動之異步通信FSYNC機制

LINUX驅動之異步通信 文章目錄LINUX驅動之異步通信簡介簡單的應用程序的例子按鍵程序異步通信流程的簡單分析用戶層代碼流程驅動層的代碼 好久沒有用CSDN來寫筆記了,之前都用有道雲筆記,但是markdown支持沒那麼好,所以試

原创 matplotlib 繪圖庫的簡單用法

首先在ipyhon啓動的時候一定要加上–pylab,否則,無法進行繪圖操作,而在spyder環境下,打開一個ipython 的console貌似默認是不會加上這個選項的,所以用spyder環境,無法正常繪圖。現在直接在cmd下輸入ipyt

原创 I2C 接受模塊起始信號捕捉的問題

這個問題我糾結了好久,本來以爲寫對了的代碼,結果發現再添加了延時操作以後,時序仿真中出現了延拍現象,導致後面的時序都錯了。今天找到了解決方法,特此寫一個博客記錄一下: 首先我想到的是方法如下: always@( posedge scl

原创 對於verlog仿真的時候,數據打拍delay的問題

這幾天對於verlog裏面reg變量賦值,導致數據delay的情況十分混論,這裏理一理; 首先單獨一個reg型變量在always塊中,進行常數賦值或者自賦值,顯然不會產生delay always@( posedge clk or neg

原创 opencv2.0 隨機數產生器用法

       RNG 對象在目前opencv2.0中,可以支持均勻分佈的隨機數以及高斯分佈的隨機數,隨機數的產生採用的是Multiply-With-Carry算法和Ziggurat算法。 其構造函數的初始化可以傳入一個64位的整型參數作爲

原创 csdn markdown格式的一些記錄

強調內容 ctrl +i 重點內容 ctrl +B 重點內容 ctrl + B + i 添加刪除線 皇馬 大標題 巴薩 馬競 引用 這是一段引用 電腦 電視