使用TC實現基於linux的流量管理

linux Advanced Routing & Traffic Control HOWTO by Bert Hubert

  http://www.chinalinuxpub.com/vbbfor...&threadid=18601

  請認真閱讀上面的文章,掌握好相應的概念。

  Red Hat linux 7.3 內核 2.4.18 以上。

  局域網的網絡拓撲:

  在服務器的eth0 幫定了外部地址 eth0:192.168.1.3

  eth1 幫定了內部地址 eth1:1 172.17.1.1

  eth1:2 172.18.1.1

  eth1:3 172.19.1.1

  現在要實現的功能就是整個出口限制在512kbit(上傳流量) , 172.17網段的下載流量下載到512Kbit ,172.18 網段限制在128kbit,172.19的網段限制到 3Mbit。

  方法如下:

  首先幫定相應的地址:(不細述)

  實現路由設定,使用iptables實現。

  # iptables –A input -F

  # iptables -A output -F

  # iptables -A forward -F

  #echo 1 > /proc/sys/net/ipv4/ip_forward

  #允許轉發

  # iptables -A input –j accept

  # iptables -A output -j accept

  # iptables -A forward -j accept

  # iptables -t nat -A POSTROUTING -s 172.17.0.0/16 -j MASQUERADE

  # iptables -t nat -A POSTROUTING -s 172.18.0.0/16 -j MASQUERADE

  # iptables -t nat -A POSTROUTING -s 172.19.0.0/16 -j MASQUERADE

  #進行IP地址僞裝,使得內部的主機的數據包能通過服務器與外界聯繫。

  進行流量管理

  #tc qdisc add dev eth0 root tbf rate 512k lantency 50ms burst 1540

  #在網卡eth0上使用tbf(TokenBucket Filter)過濾隊列,將出口限制在512kbit,延遲50ms,突發數據1540,rate指定的數值就是限制的帶寬。

  繼續在eth1做限制。

  #tc qdisc add dev eth1 root handle 1:0 cbq bandwidth 100Mbit avpkt 1000 cell 8

  #創建隊列,指明網卡爲100M網卡,這個跟流量限制無關,用於計算使用。

   #tc class add dev eth1 parent 1:0 classid 1:1 cbq bandwidth 100Mbit rate 5Mbit weight 6Mbit prio 8 allot 1514 cell 8 maxburst 20 avpkt 1000 bounded

  創建根分類,帶寬限制在5Mbit,並且不允許借用別的帶寬。

  Prio 後面的參數爲優先級,指定數據包處理的順序。

   #tc class add dev eth1 parent 1:1 classid 1:3 cbq bandwidth 100Mbit rate 512kbit weight 5Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000 bounded

  在跟類底下,創建分類1:3 限制帶寬爲512kbit,不允許借用帶寬,用於172.17網段。

   #tc class add dev eth1 parent 1:1 classid 1:4 cbq bandwidth 100Mbit rate 128kbit weight 5Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000 bounded

  在跟類底下,創建分類1:4 限制帶寬爲128kbit,不允許借用帶寬,用於172.18網段。

   #tc class add dev eth1 parent 1:1 classid 1:5 cbq bandwidth 100Mbit rate 3Mbit weight 10Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000 bounded

  在跟類底下,創建分類1:5 限制帶寬爲3Mbit,不允許借用帶寬,用於172.19網段。

  #tc qdisc add dev eth1 parent 1:3 handle 30: sfq

  #tc qdisc add dev eth1 parent 1:4 handle 40: sfq

  #tc qdisc add dev eth1 parent 1:5 handle 50: sfq

  在每個分類底下,創建隊列,使用sfq(Stochastic Fareness Queueing)隨即公平隊列。

  #tc filter add dev eth1 parent 1:0 protocol ip prio 1 u32 match ip dst 172.17.0.0/16 flowid 1:3

  #tc filter add dev eth1 parent 1:0 protocol ip prio 1 u32 match ip dst 172.18.0.0/16 flowid 1:4

  #tc filter add dev eth1 parent 1:0 protocol ip prio 1 u32 match ip dst 172.19.0.0/16 flowid 1:5

  使用u32過濾器,對目的地址進行分類,對應已經創建的隊列。

  通過以上方式實現了簡單的流量控制,限制出口的上傳流量以及內口的下載流量。

  測試從 172.17.1.2 進行下載 限制的是 512kbit ,下載速率爲 64-65kB

  172.18.1.2 進行下載 限制的是 128kbit,下載速率爲 13-16.3kB

  172.19.1.2 進行下載 限制的是 3Mbit,下載速率達到 180-500kB

  注:不匹配任何規則的數據包,將已root 設定的規則發送。

  發現3M帶寬的限制誤差比較大。

  以上的測試都是基於單機的,沒有測試滿負載的情況。

  以上的文章是匆忙之中寫出來的,TC過濾器涉及到的東西極多,有很多中方法可以實現,基於ip地址或者基於端口都可以實現。

  希望各位多多討論,多多完善。本文來自:http://doc.linuxpk.com/1072.html
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章