隨著5G技術(shù)的迅猛發(fā)展與廣泛普及,基站業(yè)務(wù)量的精準(zhǔn)預(yù)測愈發(fā)關(guān)鍵。在多基站的場景中,預(yù)測工作不僅依賴于各基站自身的歷史業(yè)務(wù)量信息,還需充分考量基站間的空間聯(lián)系及其對預(yù)測結(jié)果的作用。本文聚焦于多基站情境下的業(yè)務(wù)量預(yù)測問題,探討時間維度和空間維度如何影響基站業(yè)務(wù)量的預(yù)測成效,以期為相關(guān)研究與實踐提供有益的參考和借鑒。
基站業(yè)務(wù)量預(yù)測概述
5G基站業(yè)務(wù)量預(yù)測方法成為了一種重要的技術(shù)手段,旨在提前感知流量的變化趨勢,從而幫助基站進行資源的合理分配和調(diào)整,以滿足用戶的需求。然而多基站業(yè)務(wù)量預(yù)測屬于復(fù)雜的時間序列預(yù)測任務(wù)。時間域方面,傳統(tǒng)的數(shù)理統(tǒng)計和機器學(xué)習(xí)模型,在提取業(yè)務(wù)量數(shù)據(jù)特征的能力有限。近年來,深度學(xué)習(xí)模型因為擅長處理非線性數(shù)據(jù),所以被開發(fā)應(yīng)用于時間序列任務(wù)中。但卷積神經(jīng)網(wǎng)絡(luò)(CNN)卷積層的局部感知能力需要在模型中設(shè)置多層卷積和池化操作,通常難以捕捉長期依賴關(guān)系。循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)類的模型存在梯度爆炸和無法在硬件顯卡中并行訓(xùn)練的問題。此外,在空間域方面,5G基站的業(yè)務(wù)量數(shù)據(jù)表現(xiàn)出明顯的區(qū)域性特征。
圖1 不同地區(qū)5G基站業(yè)務(wù)量的走勢圖
如圖 1 所示,我們獲取了來自高鐵站、住宅區(qū)、高校等多個區(qū)域的真實 5G 基站業(yè)務(wù)量數(shù)據(jù),并繪制出相應(yīng)的業(yè)務(wù)量走勢圖。經(jīng)分析發(fā)現(xiàn),某高速路段的 5G 基站業(yè)務(wù)量呈現(xiàn)出顯著的潮汐特性,其波峰與波谷的數(shù)值差異頗為顯著。與之相對,某小區(qū)的 5G 基站業(yè)務(wù)量走勢較為平穩(wěn)緩和,并且在趨勢上與高速基站的業(yè)務(wù)量走勢表現(xiàn)出一定的趨同性。另外,公園區(qū)域的 5G 基站業(yè)務(wù)量數(shù)據(jù)中,波峰和波谷的出現(xiàn)時間相對更早;谝陨系姆治,我們利用基站之間在空間上的相關(guān)性,進一步提高模型的預(yù)測精度。
GCformer時空預(yù)測模型
我們描述如何使用GCFormer模型來對5G基站的業(yè)務(wù)量進行預(yù)測,模型由空域和時間域兩個子模塊組成,如圖2所示?臻g域方面,我們根據(jù)多基站的工參和業(yè)務(wù)量數(shù)據(jù)對相關(guān)基站節(jié)點選擇,得到鄰接矩陣的空間數(shù)據(jù)。之后我們使用圖卷積神經(jīng)網(wǎng)絡(luò)(Graph Convolutional Networks, GCN)模型提取基站網(wǎng)絡(luò)的空間關(guān)聯(lián)結(jié)構(gòu)。時域方面我們將多基站的歷史業(yè)務(wù)量數(shù)據(jù),通過1D-CNN模塊提取歷史數(shù)據(jù)的時間段信息,其次將得到的數(shù)據(jù)輸入到Transformer模型中。并且在Transformer的位置編碼的分,我們通過TVOM(Time Variant Optimization Module)方法加入了周期項信息,提高模型捕獲時序關(guān)系的能力。最后我們將時空兩模塊的輸出特征進行融合,得到模型的預(yù)測結(jié)果。
圖2. GCformer系統(tǒng)模型,包括通過1D-CNN和TVOM模塊改進的Transformer類模型和通過基站節(jié)點選擇并基于GCN模型的空間信息提取部分
圖卷積神經(jīng)網(wǎng)絡(luò)和相關(guān)基站節(jié)點選擇
圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Networks,GNN)是一種處理圖數(shù)據(jù)的深度學(xué)習(xí)模型。與CNN, RNN等傳統(tǒng)的深度學(xué)習(xí)模型不同,它能夠處理非歐幾里德空間的數(shù)據(jù),對節(jié)點和邊進行信息傳遞和學(xué)習(xí),從而對整個圖進行綜合建模和分析。
圖卷積神經(jīng)網(wǎng)絡(luò)(GCN)是 GNN 中的一種。相比于傳統(tǒng)的 GNN,GCN 利用圖形結(jié)構(gòu)的信息,在節(jié)點卷積操作中使用鄰接矩陣和度矩陣進行特征聚合,從而提取節(jié)點的高層次特征表示,反映出基站間復(fù)雜的網(wǎng)絡(luò)拓撲結(jié)構(gòu),進一步準(zhǔn)確地捕捉空間相關(guān)性。具體來說GCN 的核心就是在圖形數(shù)據(jù)上定義卷積層。與傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)不同,GCN 中的卷積層旨在利用圖形結(jié)構(gòu),從相鄰節(jié)點的信息中汲取有效的特征,而關(guān)系越親近的鄰居對當(dāng)前節(jié)點的影響就越大。
在構(gòu)建5G基站的鄰接矩陣時,選擇合適的基站節(jié)點是至關(guān)重要的,這不僅影響數(shù)據(jù)的準(zhǔn)確性,還關(guān)系到網(wǎng)絡(luò)優(yōu)化的效果;诖,我們運用三種方法來構(gòu)建鄰接矩陣:一是歐式距離法,即通過計算兩基站間的直線距離衡量其物理接近程度,此為評估地理位置相近基站關(guān)系的基本方法;二是區(qū)域類型法,鑒于基站所處區(qū)域類型(如商業(yè)區(qū)、學(xué)校區(qū)、住宅區(qū)等)會對其業(yè)務(wù)量特性產(chǎn)生重要影響,故而依據(jù)區(qū)域類型將功能或位置相似的基站分組,以此明晰基站間的異同;三是業(yè)務(wù)量相似性法,借助余弦相似度、聚類等手段對基站間業(yè)務(wù)量數(shù)據(jù)展開分析,基于數(shù)據(jù)驅(qū)動從多維度揭示基站在業(yè)務(wù)量上的相似或差異情況,助力基站網(wǎng)絡(luò)的理解與分析。
時間域模型和時變優(yōu)化模塊
Transformer模型是一種應(yīng)用于序列建模的神經(jīng)網(wǎng)絡(luò)模型,因為其內(nèi)部的Self-Attention機制以及Positional Encoding方法,使得該模型在文本摘要、語言翻譯等自然語言處理任務(wù)中取得了優(yōu)異的成績。近年來,Transformer模型也被廣泛應(yīng)用其他領(lǐng)域的序列建模和預(yù)測任務(wù)。而5G基站業(yè)務(wù)量預(yù)測是一個時間序列預(yù)測任務(wù),其中每個時間窗口都對應(yīng)著基站的一段實際業(yè)務(wù)量。因此,Transformer 模型可以被用來對5G基站的業(yè)務(wù)量進行建模和預(yù)測,為相關(guān)的業(yè)務(wù)決策提供參考和依據(jù)。
圖3 Self-Attention and Multi-head attention
此外,傳統(tǒng)的Transformer模型根據(jù)輸入數(shù)據(jù)位置的不同,通過Positional Encoding的方法增加輸入數(shù)據(jù)之間的順序關(guān)系。但是這種絕對位置編碼的方法,在處理5G基站業(yè)務(wù)量數(shù)據(jù)時,缺乏可靠且針對性的時間序列的分析。因此,我們提出Time Variant Optimization Module(TVOM)增加Transformer模型中的時序信息。TVOM通過計算數(shù)據(jù)中的相關(guān)性,來提取5G基站小區(qū)的業(yè)務(wù)量數(shù)據(jù)的周期項信息,并將周期數(shù)據(jù)加入到Positional Encoding部分。
具體來說,我們利用Prophet模型分析5G基站用戶數(shù)業(yè)務(wù)量數(shù)據(jù),提取出具體的周期性信息。隨后我們通過最小二乘法進行曲線擬合,該方法將設(shè)計的曲線數(shù)據(jù)和實際數(shù)據(jù)的誤差作為目標(biāo)函數(shù),對擬合的曲線進行優(yōu)化。通過最小化誤差的平方值,來獲得最優(yōu)的多項式的系數(shù),進而構(gòu)造出周期項對應(yīng)的的函數(shù)表達式。在訓(xùn)練模型的過程中,將小區(qū)ID作為匹配標(biāo)簽,根據(jù)輸入數(shù)據(jù)的起始時刻對應(yīng)替換周期項函數(shù)。從而彌補原始的Positional Encoding方法無法在時間序列數(shù)據(jù)中表示不足的問題。
總結(jié)
在這項研究中,我們根據(jù)5G基站業(yè)務(wù)量數(shù)據(jù)的時空特性,提出了一個深度學(xué)習(xí)架構(gòu)GCformer。為了有效地描述多個基站之間空間相關(guān)性的關(guān)系,我們選取了基站距離、區(qū)域類型、數(shù)據(jù)相似度建立綜合信息的鄰接矩陣,并使用GCN模塊提取其空間關(guān)系。此外GCformer的時間域模塊繼承了Transformer模型,使用Self-Attention方法提取業(yè)務(wù)量數(shù)據(jù)之間的關(guān)系,并且通過1D-CNN和TVOM模塊進一步提升捕獲數(shù)據(jù)中的時序信息。