openVswitch(OVS)源代碼分析之簡介

         雲計算是現在IT行業比較流行的,但真正什麼是雲計算業界也沒有個什麼統一的定義(很多公司都是根據自己的利益狹隘的定義雲計算),更別說什麼標準規範了。所以現在就有很多人說雲計算只不過是個幌子,是個噓頭,沒點實用的,嘴上說說而已,雖然我也不太清楚什麼叫做雲計算,雲計算的定義究竟是什麼,但我根據我公司現在做的雲計算產品來說,對於雲計算服務還是懂些的。我覺得那並不是什麼幌子、噓頭,但如果說這雲計算技術還不太成熟,我倒還勉強認可的。若把雲計算比作一個人的話,我個人覺得現在它正是二十歲的樣子,到三十多歲就算是比較成熟了,所以大概就能想象的到雲計算現在的境況了。下面就來簡介下實現雲計算的一些技術,我對雲計算並沒有什麼研究,也沒能達到從全局的角度來分析雲計算技術,更別說從一些更高的位置來分析問題,我所能介紹的僅僅是我一個小程序員在工作中所遇到的一些和雲計算有關的技術,日積月累,希望終有一天能成爲雲計算“磚家”。

        雲計算是個全世界的話題,所以也有全世界的能人異士來爲實現這個雲計算而奮鬥。我現階段遇到的有關雲計算的技術就是openVswitch、OpenStack技術和Docker技術。那就先從openVswitch開始介紹起,我會用一系列blog來分析openVswitch的相關數據結構和工作流程,以及各個重要模塊的分析。所有的介紹都是基於源碼的分析,希望對初學着有點用。

        openVswitch,根據其名就可以知道這是一個開放的虛擬交換機(open virtual switch);它是實現網絡虛擬化SDN的基礎,它是在開源的Apache2.0許可下的產品級質量的多層虛擬交換標準。設計這個openVswitch的目的是爲了解決物理交換機存在的一些侷限性:openVswitch較物理交換機而言有着更低的成本和更高的工作效率;一個虛擬交換機可以有幾十個端口來連接虛擬機,而openVswitch本身佔用的資源也非常小;可以根據自己的選擇靈活的配置,可以對數據包進行接收分析處理;同時還支持標準的管理接口和協議,如NetFlow, sFlow, SPAN, RSPAN等。

        Open vSwtich模塊介紹
        當前最新代碼包主要包括以下模塊和特性:
        ovs-vswitchd 主要模塊,實現switch的daemon,包括一個支持流交換的Linux內核模塊;
        ovsdb-server 輕量級數據庫服務器,提供ovs-vswitchd獲取配置信息;
        ovs-brcompatd 讓ovs-vswitch替換Linux bridge,包括獲取bridge ioctls的Linux內核模塊;
        ovs-dpctl 用來配置switch內核模塊;
        一些Scripts and specs 輔助OVS安裝在Citrix XenServer上,作爲默認switch;
        ovs-vsctl 查詢和更新ovs-vswitchd的配置;
        ovs-appctl 發送命令消息,運行相關daemon;
        ovsdbmonitor GUI工具,可以遠程獲取OVS數據庫和OpenFlow的流表。
        ovs-openflowd:一個簡單的OpenFlow交換機;
        ovs-controller:一個簡單的OpenFlow控制器;
        ovs-ofctl 查詢和控制OpenFlow交換機和控制器;
        ovs-pki :OpenFlow交換機創建和管理公鑰框架;
        ovs-tcpundump:tcpdump的補丁,解析OpenFlow的消息;

        上面是網上提到的一些openVswitch的主要模塊。其實openVswitch中最主要的還是datapath目錄下的一些文件。有端口模塊vport等,還有關鍵的邏輯處理模塊datapath等,以及flow等流表模塊,最後的還有action動作響應模塊,通道模塊等等。

        下面來介紹下其工作流程:

           

        一般的數據包在linux網絡協議棧中的流向爲黑色箭頭流向:從網卡上接受到數據包後層層往上分析,最後離開內核態,把數據傳送到用戶態。當然也有些數據包只是在內核網絡協議棧中操作,然後再從某個網卡發出去。

        但當其中有openVswitch時,數據包的流向就不一樣了。首先是創建一個網橋:ovs-vsctl add-br br0;然後是綁定某個網卡:綁定網卡:ovs-vsctl add-port br0 eth0;這裏默認爲綁定了eth0網卡。數據包的流向是從網卡eth0上然後到openVswitch的端口vport上進入openVswitch中,然後根據key值進行流表的匹配。如果匹配成功,則根據流表中對應的action找到其對應的操作方法,完成相應的動作(這個動作有可能是把一個請求變成應答,也有可能是直接丟棄,也可以自己設計自己的action);如果匹配不成功,則執行默認的動作,有可能是放回內核網絡協議棧中去處理(在創建網橋時就會相應的創建一個端口連接內核協議棧的)。

        其大概工作流程就是這樣了,在工作中一般在這幾個地方來修改內核代碼以達到自己的目的:第一個是在datapath.c中的ovs_dp_process_received_packet(struct vport *p, struct sk_buff *skb)函數內添加相應的代碼來達到自己的目的,因爲對於每個數據包來說這個函數都是必經之地;第二個就是自己去設計自己的流表了;第三個和第二個是相關聯的,就是根據流表來設計自己的action,完成自己想要的功能。

       轉載請註明原文出處,原文地址爲:http://blog.csdn.net/yuzhihui_no1/article/details/39161515 


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章