[论文笔记]A Deep-Learning-Based Radio Resource Assignment Technique for 5G Ultra Dense Networks

序:

这是一篇来自IEEE Network的期刊论文(影响力8.808),18年11月发表,到20年7月已经被引了45次。在UDN、大规模MIMO、波束赋形的场景下研究(但是个人感觉好像没有突出其特点…),主要是应用LSTM来预测网络流量(基站缓存区中包的数量)以避免冲突。

摘要

因为网络流量特征难以描述为适用于学习类算法的输入和输出数据集,因此将DL应用于网络流量控制目前仍不成熟。在UDN中,高流量需求、波束成形和MIMO技术的兴起都使得网络流量变的更加多变和复杂。因此对于5G网络运营商而言,以有效的方式进行无线电资源控制而不是采用传统的F/TDD使非常重要的。这是因为在基于波束成形和MIMO的UDN中,使用现存的动态TDD方法进行上行/下行链路配置更改时容易发生阻塞。本文采用深度LSTM对UDN基站的负载进行分布式的预测。基于此预测,我们的算法可以先验地执行适当的操作策略,以智能的方式减轻拥塞。仿真结果表明,本方法在丢包率吞吐量MOS方面均由于传统方法。

LTE标准由TDD和FDD两种不同的双工模式组成,TDD代表时分双工,也就是说上下行在同一频段上按照时间分配交叉进行;而FDD则是上下行分处不同频段同时进行。

MOS:全程话音质量;其影响因素包括端到端时延、抖动、丢包

结论

DL虽然厉害,但是其用于5G UDN网络中资源管理的研究还没被开发。本文提出了基于LSTM的DL算法以在互相竞争的UE之间职能的分配资源。本文是第一个预测高流量需求及大规模MIMO和波束成形的5G UDN未来网络特性的文献。也就是说,我们的研究证明了通过利用DL来实现网络特征(如通过0缓冲区的状态来预测拥堵)的本地化预测。我们的要调查表明,常规的流量控制是“反应性/reactive”的,即便将来发生相同的流量状况,还是容易出现重复拥堵。因此采用深度LSTM来预测用色时间,以主动的方式避免用色。将来,我们计划把更多流量参数作为输入并将其建模为张良,从而构建更强大的学习结构,以更高的精度进行学习和预测。

介绍

近年来,互联网流量持续增加,用户对通信的质量需求也水涨船高,尤其是在UDN(超密集组网)中,流量控制是个关键问题。传统的流量控制策略无法应对未来需求。协作多点传输(CoMP)可用于避免UDN中可能出现的拥塞,但是不同小区之间的eNB需要信息共享但这个信息可能是不完全的。本文以eNB(基站)仅了解自身所在小区的流量条件为前提。

动态TDD是流量控制方法中最常用的,但是其针对当前的网络情况做出反应,其在类似的交通状况再次发生时,还是会导致拥塞。若可对即将发生的拥塞有效预测,在其之前改变上行链路和下行链路的配置,以减轻eNB中队列的占用,则可有效避免之。本文从UDN的角度出发,设计流量控制策略。考虑到DL中的LSTM可以对输入数据的上下文进行预测。因此,我们通过LSTM,根据过去和当前的数据集做出与未来交通特征相关的本地预测。 

本文算法按如下步骤运行

  1. 初始化LSTM结构,准备适当的数据集
  2. 对LSTM结构循脸
  3. 进行局部预测,输出未来是否会发生拥塞的预测

相关工作

无线通信领域的热门研究课题中,包括波束成形、大规模MIMO、UDN、流量控制。

在MIMO和毫米波系统中,TDD的流量控制方法都比FDD有效。

目前而言,在UDN中尚未有 intelligent and/or optimal 的资源管理方法被提出。

系统模型和问题陈述

 图1是系统模型,其中小区和UDN被假定为HetNet环境的一部分。UDN的基站简称为eNB,其为多个UE提供服务。eNB和UE通过动态TDD在UL和DL方向上交换数据分组。因为5G网络中不同类型的UE具有不同的数据包生成模式,因此eNB的流量模式不是恒定的。假设每个eNB存在一个业务容量,实时业务量有时会超出容量限制,如图1左上角所示。在图1所示模型中,考虑了小区间干扰和波束成形。

当UE位于小区边缘,假定存在小区间干扰,并导致SINR较小。另外如图右下角所示,eNB在不同的UE之间使用波束成型时,以不同的带宽交换分组,以得到更高的容量和速度。本场景中存在不同类型的UE,例如车辆、智能手机用户和IoT设备,其不同的服务范围从Web浏览到HD视频流都有。需要注意的是,波束成形主要用于与高业务需求的UE通信。

深度LSTM架构概览

本节提供了基于LSTM的深度学习结构的概述,如图3所示,LSTM基本上是2循环神经网络的演进版本,其结构相对复杂。为方便说明,图3中的结构相对简单,该结构组成架构有三个gate(imput, output, forget gates), 激活函数、逐点运算。sigmoid或双曲正切函数用作激活函数,输入们负责更新记忆单元,输出门用于提供记忆单元的输出。另一方面,当LSTM获得不同类型的输入序列时,利用forget gate可以对记忆单元进行大幅度地更改。LSTM通过对于记忆单元的操作,不仅可以学习当前的数据,还可以利用过去数据的相关知识,以便就在考虑相关上下文的情况下对将来进行预测,如图3所示,输出Y_t在理论上包含X_1到X_t的信息。即使在真实情况中,它只能包含最多是个收入的信息来获取当前输出。本文中,使用LSTM的动机为,其可以更有效地考虑UDN输入流量特性之间的联系和上下文含义。

基于LSTM的智能资源控制算法

准备阶段

初始化LSTM结构的时候,需要考虑输入数据集中UL和DL的比率,当比率改变时,需要对LSTM的结构变更以针对该比率的训练数据集进行训练。具体来说,会根据UL和DL的比率对权重矩阵和LSTM的bias进行修改。接下来,根据LSTM的结构格式化数据。为此,我们需要在运行前收缩数据,做出局部化预测后将其恢复为原始大小。 

运行阶段

我们假设我们有一个二维数据的序列:X、Y,其满足Y=f(X)。这时,我们需要拿出特定长度(maxlen)的数据以供输入和输出。比如,我们使用f(k)到f(k+maxlen)作为输入并得到f(k+maxlen+1)作为输出。运行阶段分作两步:训练和测试。

  • 训练阶段:LSTM通过数据集来更新其权重矩阵和bias。我们所用的训练数据是一系列包的序列,其由eNB缓存区中的数据包组成。
  • 测试阶段:此阶段我们使用相同的数据集进行本地预测("fitting prediction")并对未来数据的趋势进行预测(“future prediction”)。fitting prediction使用数据集中的数据来预测下一个point,future prediction用于预测数据集未来的趋势。令f(t)是时间的函数,LSTM使用f(t)和f(t+1)~f(t+k+1)来预测f(t+k)。此时,f(t)和f(t+1)~f(t+k+1)用作LSTM的输入数据,f(t+k)作为输出。在fitting prediction阶段,所有输入(f(t), f(t+1), f(t+k-1))由准备好的数据集给出。在future prediction阶段,使用前一时刻预测的结果作为下一次预测的输入。使用LSTM的目的是来获取未来缓存的占用特征。比如,当数据集的最大长度为100.此外,假设最大长度是20。

完成训练后,进入测试阶段。根据f(1)到f(20)的输入产生f(21)的输出。此外,根据f(81)到f(100)的输入产生f(101)的输出。fitting prediction 再次结束。future prediction开始,f(82)~f(100)的输入将得到f(102)的输出,该输出被视为将来的预测。 在此,f(101)是上一个周期的预测值,我们可以归纳地在下一个预测中使用f(102)。 这就是我们提出的算法如何能够预测eNB发送缓冲区中数据包数量的未来特征。 因此,我们可以知道将来预期在缓冲区中有多少个数据包。 如果预测的数目超过了拥塞阈值,我们可以主动更改比率以避免拥塞和丢包。 在我们的算法中,数据包由UE生成并在小区中的UE与eNB之间交换。eNB采用深度学习结构来确定特定时间范围内的资源分配策略。具体而言,所有收集的数据(例如,收集的交通数据,干扰模式,移动性)移交给计算服务器。 然后在深度学习模型中利用eNB缓冲区中的数据包数量进行训练和预测。 eNB确定UL / DL分配的下一个资源分配。 在此,我们假设与深度学习相关的计算是在eNB本身的服务器或eNB的云服务器上执行的。 与传统方法相比,我们提出方案的训练和预测过程使用更多的计算资源。 因此,除了网络性能评估之外,我们还需要考虑eNB的计算资源来进一步分析建议的计算成本,以使我们的算法更加实用。

性能评估

考虑一个eNB和20个UE的UDN,5个UE使用不同频率的波束赋形。

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章