原创 具有中斷處理的內核

實驗四:具有中斷處理的內核 實驗目的: 1、PC系統的中斷機制和原理 2、理解操作系統內核對異步事件的處理方法 3、掌握中斷處理編程的方法 4、掌握內核中斷處理代碼組織的設計方法 5、瞭解查詢式I/O控制方式的編程方法 實驗要求:

原创 搭建深度學習框架(四) Dropout與Batch Normalization

Dropout 網絡過於習慣訓練集的數據分佈, 尤其是如果訓練集規模還不夠大時, 網絡會出現嚴重的過擬合, 使得在訓練集上的準確率非常高, 但是測試集上的準確率很低. 而且這個過程還不可逆, 一旦網絡過擬合那網絡就廢了, 我們的努

原创 C與彙編開發獨立批處理的內核

實驗三 實驗目的: 1、加深理解操作系統內核概念 2、瞭解操作系統開發方法 3、掌握彙編語言與高級語言混合編程的方法 4、掌握獨立內核的設計與加載方法 5、加強磁盤空間管理工作 實驗要求: 1、知道獨立內核設計的需求 2、掌握一種

原创 搭建深度學習框架(一) 線性層,激活函數,損失函數

回顧 前面我們學習(複習)了線代,概率論和優化等數學課, 還複習了基礎的機器學習算法, 邏輯迴歸 SVM和決策樹等. 現在我們進入深度學習的第一課, 就是前饋神經網絡的原理和使用. 神經網絡是一種非常強大的機器學習模型, 在今天已

原创 搭建深度學習框架(三) 循環神經網絡, BPTT的梯度計算

爲什麼需要RNN RNN是一種擁有記憶的網絡, 一旦網絡接收到了輸入, 就會改變它的隱藏變量. 這個隱藏變量會參與RNN的前向運算, 從而讓之前的輸入x, 能影響現在的輸出o. 具有這種性質的它通常用於處理序列信息. 序列信息比起

原创 搭建深度學習框架(二) 卷積層, 池化層

爲什麼使用卷積 我們前一課 搭建深度學習框架(一) 線性層,激活函數,損失函數.學習瞭如何使用全連接網實現最簡單的圖像識別和分類, 儘管MNIST是非常容易訓練的數據集, 但親自開發一個可用的AI還是很激動人心的. 但是使用全連接

原创 監督學習方法小結(附Pytorch實現)

超平面劃分 如果兩個數據集在空間中是兩個凸集,那麼它們可以用一個超平面來實現線性分割. 因此機器學習的最基礎分類問題就是學習一個超平面, 來解決凸集劃分問題. m維超平面的表達式可以寫成wTx+b=0w^Tx+b = 0wTx+b

原创 加載執行COM格式的批處理系統

實驗目的: 1、瞭解監控程序執行用戶程序的主要工作 2、瞭解一種用戶程序的格式與運行要求 3、加深對監控程序概念的理解 4、掌握加載用戶程序方法 5、掌握幾個BIOS調用和簡單的磁盤空間管理 實驗要求: 1、知道引導扇區程序實現用

原创 Deep Reinforcement Learning超簡單入門項目 Pytorch實現接水果遊戲AI

學習過傳統的監督和無監督學習方法後,我們現在已經可以自行開發機器學習系統來解決一些實際問題了。我們能實現一些事件的預測,一些模式的分類,還有數據的聚類等項目。但是這些好像和我們心目中的人工智能仍有差距,我們可能會認爲,人工智能是能

原创 強化學習簡單入門——訓練井字棋AI

MDP馬爾科夫決策過程 這個說來抽象,其實蠻簡單,這裏直接摘抄一下WIKI的定義 馬爾可夫決策過程是一個4 元組(S,A,Pa,Ra)(S,A,P_ {a},R_ {a})(S,A,Pa​,Ra​) ,且 S是一組有限的狀態,A是

原创 裸機控制權與引導程序

操作系統實驗一 從零開發能使用的操作系統需要的可能不只是C語言,還需要彙編的支持。我沒有接觸過X86彙編,不過我學過MIPS的彙編,兩者其實有很多相似之處,主要的差別應該是在X86的寄存器上。除此之外其實X86還有串操作的語句,方

原创 集成學習 Adaboost

提升方法 現在我們擁有的數據集和算法已經給出,如果用bagging方法從數據集中進行採樣訓練,則我們得到的模型仍然無法擺脫數據集分佈固有的限制,即泛化誤差的上界。如果要擺脫它,我們需要人爲的改變數據分佈;一種方法是爲每個樣本點加權

原创 機器學習快速入門(迴歸與分類,線性與非線性,特徵空間)

這篇文章爲作者自學PRML時整理的筆記,適合想快速入門機器學習並瞭解一些基礎的相關算法的初學者閱讀。 多項式曲線擬合 我們從最基礎的機器學習方法說起,最基本的算法莫過於函數擬合了。多項式迴歸涉及到的知識是數據預處理(升維)、均方誤

原创 神經網絡快速入門

首先我們先導入一些好用的包,但是核心算法我們自己實現。 import numpy as np import matplotlib.pyplot as plt import matplotlib from sklearn.metri

原创 神經網絡的壓縮技術

模型壓縮技術,就是使用更精簡的模型解決更復雜的問題。我們都知道神經網絡的能力很強,可以學習到各種各樣的特徵,完成各種各樣的任務。但是很多時候我們認爲某些模型對某些問題是"笨重的"。因爲相當多的時候,神經網絡中只有一部分神經元執行最