[論文筆記]A Deep-Learning-Based Radio Resource Assignment Technique for 5G Ultra Dense Networks

序:

這是一篇來自IEEE Network的期刊論文(影響力8.808),18年11月發表,到20年7月已經被引了45次。在UDN、大規模MIMO、波束賦形的場景下研究(但是個人感覺好像沒有突出其特點…),主要是應用LSTM來預測網絡流量(基站緩存區中包的數量)以避免衝突。

摘要

因爲網絡流量特徵難以描述爲適用於學習類算法的輸入和輸出數據集,因此將DL應用於網絡流量控制目前仍不成熟。在UDN中,高流量需求、波束成形和MIMO技術的興起都使得網絡流量變的更加多變和複雜。因此對於5G網絡運營商而言,以有效的方式進行無線電資源控制而不是採用傳統的F/TDD使非常重要的。這是因爲在基於波束成形和MIMO的UDN中,使用現存的動態TDD方法進行上行/下行鏈路配置更改時容易發生阻塞。本文採用深度LSTM對UDN基站的負載進行分佈式的預測。基於此預測,我們的算法可以先驗地執行適當的操作策略,以智能的方式減輕擁塞。仿真結果表明,本方法在丟包率吞吐量MOS方面均由於傳統方法。

LTE標準由TDD和FDD兩種不同的雙工模式組成,TDD代表時分雙工,也就是說上下行在同一頻段上按照時間分配交叉進行;而FDD則是上下行分處不同頻段同時進行。

MOS:全程話音質量;其影響因素包括端到端時延、抖動、丟包

結論

DL雖然厲害,但是其用於5G UDN網絡中資源管理的研究還沒被開發。本文提出了基於LSTM的DL算法以在互相競爭的UE之間職能的分配資源。本文是第一個預測高流量需求及大規模MIMO和波束成形的5G UDN未來網絡特性的文獻。也就是說,我們的研究證明了通過利用DL來實現網絡特徵(如通過0緩衝區的狀態來預測擁堵)的本地化預測。我們的要調查表明,常規的流量控制是“反應性/reactive”的,即便將來發生相同的流量狀況,還是容易出現重複擁堵。因此採用深度LSTM來預測用色時間,以主動的方式避免用色。將來,我們計劃把更多流量參數作爲輸入並將其建模爲張良,從而構建更強大的學習結構,以更高的精度進行學習和預測。

介紹

近年來,互聯網流量持續增加,用戶對通信的質量需求也水漲船高,尤其是在UDN(超密集組網)中,流量控制是個關鍵問題。傳統的流量控制策略無法應對未來需求。協作多點傳輸(CoMP)可用於避免UDN中可能出現的擁塞,但是不同小區之間的eNB需要信息共享但這個信息可能是不完全的。本文以eNB(基站)僅瞭解自身所在小區的流量條件爲前提。

動態TDD是流量控制方法中最常用的,但是其針對當前的網絡情況做出反應,其在類似的交通狀況再次發生時,還是會導致擁塞。若可對即將發生的擁塞有效預測,在其之前改變上行鏈路和下行鏈路的配置,以減輕eNB中隊列的佔用,則可有效避免之。本文從UDN的角度出發,設計流量控制策略。考慮到DL中的LSTM可以對輸入數據的上下文進行預測。因此,我們通過LSTM,根據過去和當前的數據集做出與未來交通特徵相關的本地預測。 

本文算法按如下步驟運行

  1. 初始化LSTM結構,準備適當的數據集
  2. 對LSTM結構循臉
  3. 進行局部預測,輸出未來是否會發生擁塞的預測

相關工作

無線通信領域的熱門研究課題中,包括波束成形、大規模MIMO、UDN、流量控制。

在MIMO和毫米波系統中,TDD的流量控制方法都比FDD有效。

目前而言,在UDN中尚未有 intelligent and/or optimal 的資源管理方法被提出。

系統模型和問題陳述

 圖1是系統模型,其中小區和UDN被假定爲HetNet環境的一部分。UDN的基站簡稱爲eNB,其爲多個UE提供服務。eNB和UE通過動態TDD在UL和DL方向上交換數據分組。因爲5G網絡中不同類型的UE具有不同的數據包生成模式,因此eNB的流量模式不是恆定的。假設每個eNB存在一個業務容量,實時業務量有時會超出容量限制,如圖1左上角所示。在圖1所示模型中,考慮了小區間干擾和波束成形。

當UE位於小區邊緣,假定存在小區間干擾,並導致SINR較小。另外如圖右下角所示,eNB在不同的UE之間使用波束成型時,以不同的帶寬交換分組,以得到更高的容量和速度。本場景中存在不同類型的UE,例如車輛、智能手機用戶和IoT設備,其不同的服務範圍從Web瀏覽到HD視頻流都有。需要注意的是,波束成形主要用於與高業務需求的UE通信。

深度LSTM架構概覽

本節提供了基於LSTM的深度學習結構的概述,如圖3所示,LSTM基本上是2循環神經網絡的演進版本,其結構相對複雜。爲方便說明,圖3中的結構相對簡單,該結構組成架構有三個gate(imput, output, forget gates), 激活函數、逐點運算。sigmoid或雙曲正切函數用作激活函數,輸入們負責更新記憶單元,輸出門用於提供記憶單元的輸出。另一方面,當LSTM獲得不同類型的輸入序列時,利用forget gate可以對記憶單元進行大幅度地更改。LSTM通過對於記憶單元的操作,不僅可以學習當前的數據,還可以利用過去數據的相關知識,以便就在考慮相關上下文的情況下對將來進行預測,如圖3所示,輸出Y_t在理論上包含X_1到X_t的信息。即使在真實情況中,它只能包含最多是個收入的信息來獲取當前輸出。本文中,使用LSTM的動機爲,其可以更有效地考慮UDN輸入流量特性之間的聯繫和上下文含義。

基於LSTM的智能資源控制算法

準備階段

初始化LSTM結構的時候,需要考慮輸入數據集中UL和DL的比率,當比率改變時,需要對LSTM的結構變更以針對該比率的訓練數據集進行訓練。具體來說,會根據UL和DL的比率對權重矩陣和LSTM的bias進行修改。接下來,根據LSTM的結構格式化數據。爲此,我們需要在運行前收縮數據,做出局部化預測後將其恢復爲原始大小。 

運行階段

我們假設我們有一個二維數據的序列:X、Y,其滿足Y=f(X)。這時,我們需要拿出特定長度(maxlen)的數據以供輸入和輸出。比如,我們使用f(k)到f(k+maxlen)作爲輸入並得到f(k+maxlen+1)作爲輸出。運行階段分作兩步:訓練和測試。

  • 訓練階段:LSTM通過數據集來更新其權重矩陣和bias。我們所用的訓練數據是一系列包的序列,其由eNB緩存區中的數據包組成。
  • 測試階段:此階段我們使用相同的數據集進行本地預測("fitting prediction")並對未來數據的趨勢進行預測(“future prediction”)。fitting prediction使用數據集中的數據來預測下一個point,future prediction用於預測數據集未來的趨勢。令f(t)是時間的函數,LSTM使用f(t)和f(t+1)~f(t+k+1)來預測f(t+k)。此時,f(t)和f(t+1)~f(t+k+1)用作LSTM的輸入數據,f(t+k)作爲輸出。在fitting prediction階段,所有輸入(f(t), f(t+1), f(t+k-1))由準備好的數據集給出。在future prediction階段,使用前一時刻預測的結果作爲下一次預測的輸入。使用LSTM的目的是來獲取未來緩存的佔用特徵。比如,當數據集的最大長度爲100.此外,假設最大長度是20。

完成訓練後,進入測試階段。根據f(1)到f(20)的輸入產生f(21)的輸出。此外,根據f(81)到f(100)的輸入產生f(101)的輸出。fitting prediction 再次結束。future prediction開始,f(82)~f(100)的輸入將得到f(102)的輸出,該輸出被視爲將來的預測。 在此,f(101)是上一個週期的預測值,我們可以歸納地在下一個預測中使用f(102)。 這就是我們提出的算法如何能夠預測eNB發送緩衝區中數據包數量的未來特徵。 因此,我們可以知道將來預期在緩衝區中有多少個數據包。 如果預測的數目超過了擁塞閾值,我們可以主動更改比率以避免擁塞和丟包。 在我們的算法中,數據包由UE生成並在小區中的UE與eNB之間交換。eNB採用深度學習結構來確定特定時間範圍內的資源分配策略。具體而言,所有收集的數據(例如,收集的交通數據,干擾模式,移動性)移交給計算服務器。 然後在深度學習模型中利用eNB緩衝區中的數據包數量進行訓練和預測。 eNB確定UL / DL分配的下一個資源分配。 在此,我們假設與深度學習相關的計算是在eNB本身的服務器或eNB的雲服務器上執行的。 與傳統方法相比,我們提出方案的訓練和預測過程使用更多的計算資源。 因此,除了網絡性能評估之外,我們還需要考慮eNB的計算資源來進一步分析建議的計算成本,以使我們的算法更加實用。

性能評估

考慮一個eNB和20個UE的UDN,5個UE使用不同頻率的波束賦形。

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章