原创 linux進程空間的內存管理

前言 寫的還很亂,沒把全部知識點串起來,以後再來吧,另外感覺沒圖讀起來確實不通順..學習自用,有錯麻煩提一下 進程空間的分配 進程空間的分配要與內核空間的分配區別開;一個進程會有相應的地址空間,這裏說的進程要與磁盤上的程序(可執行文件)給

原创 InnoDB的隔離級別實現

併發問題, 丟失修改,不可重複讀,幻讀,髒讀 不可重複讀 有個事務T,T讀了兩次數據,在兩次中間有人update/delete了數據,導致T兩次讀的結果不一致 幻讀 (在高性能mysql裏把這個歸爲不可重複讀)同上讀了兩次,中間有人i

原创 linux內核的內存管理

內核內存管理總結 內核的內存分配不同於用戶空間的內存分配,,balabala 內核裏內存的分配主要有這麼幾種,首先是按頁來請求內存,用alloc_pages()和它的幾個兄弟函數可以實現,按頁分配,即直接請求返回的是一個或者多個頁框;而對

原创 linux的VFS

前言 學習自用,有錯麻煩提一下 正文 有不同的文件系統,比如ex2,ext3,FAT,NTFS,而對於程序來說,這些文件系統的使用都是差不多的,有着相同的API,平時幾乎感受不到差別,而這幾個文件系統的implementation實際是千

原创 linux的high memory

線性地址 這裏掠過分段和分頁的概念 線性地址概念:線性地址是分段變換後的地址 以下是囉嗦把版本的, CPU在保護模式下(保護模式是什麼?),“段基址+段內偏移地址”叫做線性地址(是用分段來管理虛實地址轉換吧,一直疑問分段在linux中應用

原创 std::any的實現

前言 學習自用,幫助理解,有錯麻煩提一下,代碼沒跑過,想着知道大概思想就好.. 問題 爲什麼不用類型推斷,類型推斷又是什麼TODO 類型擦除怎麼實現的,用類的繼承來實現的,爲什麼類的繼承可以實現? 基類是不含模板參數的,派生類中才有

原创 cpp11移動語義完美轉發

TODO 左右值引用,完美轉發,RVO,重新修改文章 前言 目前還是初稿,文章有待更改,參考資料都爲好文,學習自用,有錯麻煩提一下 左右值 左右值判斷 官方定義:cpprefernce中文和cpp英文 之所以要認識左右值是因爲後面要使

原创 網絡編程的日誌系統

前言 本文是我用來學習之用,有錯麻煩提一下,感謝 爲什麼用日誌系統 略,參照參考資料[1] 高性能日誌系統的設計 日誌的格式,即每條日誌的內容,見參考資料[1]和[2] 日誌的級別設計,見參考資料[1] 日誌打印位置:一般是文件,最好不要

原创 半同步/半異步模式,半同步半反應堆reator模式

前言 看遊雙的書並理解,個人學習,有錯麻煩提一下,感謝 事件處理模式和併發模型的區別 這篇要介紹的事件處理模式有reactor和proactor;而要介紹的併發模型有半同步/反應堆和半同步半異步 事件處理模式,指的是...TODO 事件處

原创 ET和LT的原理和區別

前言 學習自用,有錯麻煩提出,感謝 基本知識 ET和LT是IO複用的兩種模式,ET早於LT出現(依據TODO) 對於幾種IO複用,select和poll只支持LT(?TODO) level triggered 和edge trigger,

原创 cpp的new實現

前言 學習自用,目前這篇文章理解還挺初級的,等以後再改善把 文末的參考資料都是好文,[1]爲malloc(0),面試常問,[2]爲C++placement new相關 正文 placement new作用:在指定內存裏進行對象構造 pla

原创 卷積操作python實現

轉https://blog.csdn.net/baidu_30594023/article/details/82941356 import cv2 import numpy as np weights_data=np.array([[[-

原创 OctaveConv解讀

代碼實現:https://github.com/lxtGH/OctaveConv_pytorch/tree/master/libs/nn 微信推文:https://mp.weixin.qq.com/s/sF3pPJTPk67nbDt-mR

原创 tensorflow學習筆記第一部分

學習地址:Tensorflow 搭建自己的神經網絡 (莫煩 Python 教程)_嗶哩嗶哩 (゜-゜)つロ 乾杯~-bilibili  https://www.bilibili.com/video/av16001891/?p=16第一課:

原创 讀Spatial As Deep: Spatial CNN for Traffic Scene Understanding(SCNN)和代碼

Spatial CNN,或者SCNN 給出兩篇翻譯: 1.https://www.cnblogs.com/guoyaohua/p/8940871.html?utm_source=tuicool&utm_medium=referral 2.