原创 經典KVM詳解,太詳細太深入了

KVM 介紹(1):簡介及安裝 http://www.cnblogs.com/sammyliu/p/4543110.html 學習 KVM 的系列文章:  (1)介紹和安裝 (2)CPU 和 內存虛擬化 (3)I/O QEM

原创 深度學習 殘差塊

目錄 恆等殘差塊——The identity block 卷積殘差塊——The convolutional block   恆等殘差塊——The identity block  The identity block是ResNets中使

原创 堆疊hourglass網絡

本文目錄 目錄   1. 簡介 2. stacked hourglass 3. hourglass 4. 上採樣myUpsample 5. 殘差模塊 6. conv 7. ConvBlock 1. 簡介 該論文利用多尺度特徵來識別姿態

原创 深度學習資料整理目錄,與大家一起討論

目錄 1.     空洞卷積作用... 6 2.     Image Pyramid. 6 3.     SPP(Spatial Pyramid Pooling)... 6 4.     deformable convnets V1&V2

原创 openstack plugin 之(四)如何區分 OpenStack Neutron Extension 和 Plugin

原文鏈接:https://www.cnblogs.com/zhutianshi/p/3902315.html Neutron 裏面的 extension 和 plugin 是非常相似的兩個概念,我花了好久才貌似搞懂了兩者的區別,還不一定完

原创 NAPI之(一)——原理和實現

概述   NAPI是Linux新的網卡數據處理API,據說是由於找不到更好的名字,所以就叫NAPI(New API),在2.5之後引入。 簡單來說,NAPI是綜合中斷方式與輪詢方式的技術。 中斷的好處是響應及時,如果數據量較小,則不會佔用

原创 NAPI之(二)——機制分析

NAPI 的核心在於:在一個繁忙網絡,每次有網絡數據包到達時,不需要都引發中斷,因爲高頻率的中斷可能會影響系統的整體效率,假象一個場景,我們此時使用標準的 100M 網卡,可能實際達到的接收速率爲 80MBits/s,而此時數據包平均長度

原创 openstack plugin 之(三)怎樣寫 OpenStack Neutron 的 Extension

前兩篇文章討論了怎麼寫一個 Neutron 的插件。但是最基本的插件只包括 Network, Port,和 Subnet 三種資源。如果需要引入新的資源,比如一個二層的 gateway 的話,就需要在插件的基礎上再寫一個 extensio

原创 openstack plugin 之(一)怎樣寫 OpenStack Neutron 的 Plugin

鑑於不知道Neutron的人也不會看這篇文章,而知道的人也不用我再囉嗦Neutron是什麼東西,我決定跳過Neutron簡介,直接爆料。 首先要介紹一下我的開發環境。我沒有使用DevStack,而是直接在電腦上安裝了三個Virtual B

原创 openstack plugin 之(二)怎樣寫 OpenStack Neutron 的 Plugin

其實上一篇博文中的內容已經涵蓋了大部分寫Neutron插件的技術問題,這裏主要還遺留了一些有關插件的具體實現的問題。 首先,Neutron對最基本的三個資源:Network, Port 和 Subnet 的基本調用都已經定義好了API接口

原创 NAPI 之(三)——技術在 Linux 網絡驅動上的應用和完善

前言: NAPI 是 Linux 上採用的一種提高網絡處理效率的技術,它的核心概念就是不採用中斷的方式讀取數據,而代之以首先採用中斷喚醒數據接收的服務程序,然後 POLL 的方法來輪詢數據,(類似於底半(bottom-half)處理模式)

原创 深度學習最全優化方法總結比較(SGD,Adagrad,Adadelta,Adam,Adamax,Nadam)

原文鏈接:https://www.cnblogs.com/guoyaohua/p/8542554.html 本文將梳理: 每個算法的梯度更新規則和缺點 爲了應對這個不足而提出的下一個算法 超參數

原创 Focal Loss理解

原文鏈接:https://www.cnblogs.com/king-lps/p/9497836.html 1. 總述 Focal loss主要是爲了解決one-stage目標檢測中正負樣本比例嚴

原创 smoothL1 loss不用L1 loss和L2 LOSS

爲了從兩個方面限制梯度:     當預測框與 ground truth 差別過大時,梯度值不至於過大;     當預測框與 ground truth 差別很小時,梯度值足夠小。 考察如下幾種損失函數,其中 x 爲預測框與 groud tr

原创 CNN中FLOPs計算

轉載地址:https://blog.csdn.net/sinat_34460960/article/details/84779219   在這之前我們先看一下CNN的前向傳播計算公式,便於理解什麼是parameters和FLOPs,這裏參