視頻流媒體服務器直播室如何進行視頻推流傳輸的?

現在已經是全民直播的時代,我們推送出去的流媒體需要傳輸到觀衆,流媒體服務器整個鏈路就是傳輸網絡,類比貨運物流就是從出發地到目的地的所有路程了,如果道路的容量不夠,會引發堵車也就是網絡擁塞,這時我們會改變路程也就是所謂的智能調度,但是傳輸網絡會站在全局的角度進行調度,可以想象有一個上帝在天空中俯視出發地和目的地間的所有路況信息,而且還是實時的,然後給出你一條明路,這是何等神奇。

 

這裏先回顧一下傳統的內容分發網絡。

爲什麼要有內容分發網絡

互聯網起源於美國軍方的一個內部網絡,Tim Berners-Lee 是互聯網發明者之一,他很早就預見到在不久的將來網絡擁塞將成爲互聯網發展的最大障礙,於是他提出了一個學術難題,要發明一種全新的、從根本上解決問題的方法來實現互聯網內容的無擁塞分發,這項學術難題最終催生出一種革新性的互聯網服務——CDN 。

傳統 CDN 的架構

 

上圖是一個典型的 CDN 系統的三級部署示意圖,節點是 CDN 系統中的最基本部署單元,分爲三級部署,中心節點、區域節點和邊緣節點,最上面一級是中心節點,中間一級是區域節點,邊緣節點地理位置分散,爲用戶提供就近的內容訪問服務。

下面介紹一下 CDN 節點的分類,主要分成兩大類,骨幹節點和 POP 節點。

骨幹節點:中心節點,區域節點
POP節點:邊緣節點

邏輯上來講,骨幹節點主要負責內容分發和邊緣節點未命中時進行回源,POP 節點主要負責提供給用戶就近的內容訪問服務。但如果 CDN 網絡規模較大,邊緣節點直接向中心節點回源會給中間層的核心設備造成的壓力過大,在物理上引入區域節點,負責一個地理區域的管理,保存部分熱點數據。

直播傳輸網絡有別於傳統 CDN 的痛點

隨着全民直播時代的到來,直播成爲當前 CDN 廠商的又一個主要的戰場,那麼直播時代 CDN 需要支持什麼樣的服務呢?

  • 流媒體協議的支持,包括 RTMP,HLS ,HTTP-FLV 等。
  • 首屏秒開,從用戶點擊到播放控制在秒級以內,從推流端到播放端,延遲控制在 1~3 秒之間
  • 全球全網智能路由,可以利用整個 CDN 網絡內的所有節點爲某一單一用戶服務,不受地域限制。

傳統 CDN 的鏈路路由

CDN 基於樹狀網絡拓撲結構,每一層都有 GSLB (Global Server Load Balancing) 用於同一層內的多個 CDN 節點負載均衡,這樣有什麼好處呢?

前面提到的衆多 CDN 的應用場景中,網頁加速、視頻加速、文件傳輸加速,都是同時依賴 GSLB 和 Cache 系統的,Cache 系統是整個 CDN 系統中的成本所在,設計樹形結構可以最大化的節省 Cache 系統的資本投入。因爲只有中心節點需要保持機會所有的 Cache 副本,向下逐級減少,到了邊緣節點只需要少量的熱點 Cache 就可以命中大部分 CDN 訪問請求,這樣極大的降低了 CDN 網絡的成本,也符合當時 CDN 用戶的需求,可謂雙贏。

我們知道最早的互聯網就是網狀拓撲結構,後來才慢慢加入了骨幹網來解決各種各樣的問題,我們是時候該回歸本質,擁抱下一代音視頻流媒體服務器EasyNVR。

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章