?

基于深度學習 GRU 網絡的 UWB 室內定位優化

2024-04-12 05:56鄭宏舟趙宇宸孟飛
上海理工大學學報 2024年1期
關鍵詞:深度學習神經網絡

鄭宏舟 趙宇宸 孟飛

摘要:為減少信號傳輸質量和距離估計算法等因素對定位精度的影響,將深度學習應用于超寬帶(ultra wide band,UWB)室內定位系統,利用門控循環單元(gated recurrent unit,GRU)網絡代替 傳統UWB室內定位系統中的三邊測量過程,以提高UWB室內定位精度。在得到定位標簽到基站的距離信息后,將距離信息輸入GRU網絡中,輸出最終位置坐標。GRU作為循環神經網絡(recurrent neural network,RNN)的變種,既含有RNN處理時序數據的優勢,又解決了RNN中 的長程依賴問題。對GRU網絡模型中不同學習率、優化器、批量大小、網絡層數、隱藏神經元數量參數進行調整和訓練。結果表明,基于GRU網絡模型的UWB室內定位系統顯著提高了定位精度,平均定位誤差為6.8cm。

關鍵詞:超寬帶室內定位;神經網絡;深度學習;門控循環單元

中圖分類號:TP 183 文獻標志碼:A

Optimization of UWB indoor localization based on deep learning GRU networks

ZHENG Hongzhou, ZHAO Yuchen, MENG Fei

(Business School, University of Shanghai for Science and Technology, Shanghai 200093, China)

Abstract: In order to reduce the influence of signal transmission quality and distance estimation algorithm on the localization accuracy, deep learning was applied to the ultra wide band(UWB)indoor localization system, the gated recurrent unit(GRU)network was used to replace the traditional trilateral measurement, to improve the indoor localization accuracy of UWB. After get the distance from the localization tag to the base station, the distance information was input into the GRU network, and the final localization coordinates were output. As a variant of recurrent neural network(RNN), GRU not only had the advantages of RNN in processing time series data, but also solved the long-term depenencies problem in RNN. The parameters of?different learning rate, optimizer, batch size, network layer and the number of hidden neurons in the GRU networks model were adjusted and trained. The result showed the UWB indoor localization system based on the GRU networks model improved the localization accuracy significantly, the average localization error was 6.8 cm.

Keywords: ultra wide band indoor localization; neural networks; deep learning; gated recurrent unit

當無法在室內環境中使用衛星定位時,可利用室內定位技術[1]作為衛星定位的輔助定位,解決衛星信號到達地面時信號微弱、無法穿透建筑物的問題。傳統的超寬帶(ultra wide band ,UWB)室內定位系統的定位精度主要受信號形狀、信號到達時間(time of arrival ,TOA)以及基站與標簽之間距離計算方法的影響,在得到各基站與標簽的距離后,使用三邊測量法計算標簽位置。為使三邊測量法的計算足夠精確,要求標簽與基站之間的距離估計誤差必須足夠小。時鐘同步精度、多徑傳播、信號傳播條件、多址干擾、信號形狀等都會影響標簽與基站之間距離估計的精度,這是傳統 UWB 室內定位系統的主要誤差來源。目前,主流室內定位技術的精度為20~90 cm,為提高傳統 UWB 室內定位系統的精度,本文將深度學習與 UWB 室內定位系統相結合,利用門控循環單元(gated recurrent unit ,GRU)神經網絡構建定位模型。

過去已有關于 UWB 測量應用于室內定位的研究,如基于 TOA[2]、慣性測量單元[3]、UWB 和行人航位推算融合[4]、自適應抗差卡爾曼濾波[5]。文獻[6]從室內定位算法、測量技術和融合定位技術3個方面對各種室內定位技術進行梳理,并對距離測量、指紋定位、即時定位與地圖構建技術、慣性導航等多種適用于不同場景定位技術的基本原理進行綜述,從定位技術特點、定位需求的角度對各種定位技術進行了對比分析。關于 UWB 定位深度學習的最新研究成果見文獻[7-9],這些文獻討論的定位系統有效減小了測距誤差和計算負擔,以更低的網絡復雜度實現了出色的定位性能。也有學者提出了不同的深度學習方法來提高 UWB 定位系統的精度,如使用卷積神經網絡 (convolutional neural networks , CNN)來計算標簽與基站間的距離[10],使用 CNN 并結合正交頻分復用技術和超寬帶來識別信道環境[11]。文獻[12]中使用 CNN 的定位系統能夠在非視距(non line of sight ,NLOS)條件下達到17.3 cm 的平均絕對定位誤差。

在以往的研究中,雖然 UWB 室內定位系統的定位效果得到了有效改善,但定位精度仍有很大的提升空間,也未有將 GRU 與超寬帶室內定位相結合的先例。因此,有必要提出一種新的基于深度學習的 UWB 室內定位方法。本文將基于深度學習的 GRU 神經網絡與 UWB 定位系統相結合,提出了一種全新的 UWB 室內定位方法。實驗結果表明,該模型能有效提高 UWB 室內定位精度,減小定位誤差。

下面將從 GRU 神經網絡的批量大小、優化器、隱藏節點數、學習率、網絡層數、損失函數幾個方面比較網絡中不同參數對 GRU 網絡模型性能的影響。通過對模型參數進行多次調整訓練,將訓練結果的平均值作為最終結果來分析 GRU 模型的性能,證明了 GRU 神經網絡與 UWB 室內定位系統相結合的優越性。

1 UWB 定位方法

傳統的?UWB 室內定位方法常用?TOA 算法來進行位置測算,如圖1所示。這種算法通過基站和標簽之間的多次通信實現。首先,基站向標簽發送信號,并記錄基站當前時間,記為Ti1,i 表示基站,?i=1,2,3;然后,標簽收到基站信號,返回確認信號;接著,基站收到標簽的確認信號,記錄當前的時間,記為Ti2;最后,基站計算兩次信號的時間差Ti = Ti1? Ti2,并以此計算出基站與標簽間的距離di = Tic ,c為信號傳播速度。在實際應用中,往往會利用多次通信來使測算更加精確。但是, TOA 算法需要基站和標簽之間嚴格的時鐘同步,否則無法計算出時間差的精確值,這無疑增加了定位難度。

傳統 UWB 室內定位系統在獲取標簽到基站的距離后,利用三邊測量法來計算標簽的具體位置。但在實際情況中,由于誤差的存在,三邊測量法最終的計算結果只能是一個近似值。而根據圖靈完備性定理,一個全連接 RNN 可以近似求解所有可計算問題。

因此,為了提高 UWB 系統的室內定位精度,本文使用 GRU 神經網絡對定位算法中的誤差進行彌補,與傳統的 UWB 定位系統相比,基于深度學習的新定位模型將定位算法分配給神經網絡模型進行計算,通過訓練模型來對最終定位的誤差進行彌補。結果表明,本文構建的 GRU 神經網絡模型有效地提高了定位精度,將定位誤差縮小到很小范圍,新定位模型流程圖如圖2所示。

1.1 三邊測量法

三邊測量法如圖3所示。

圖3中,Ri(xi ;yi)與P(xp ;y p)分別為基站與標簽的坐標。計算標簽到各基站的距離值平方di(2)為

式(1)中,?i取值為1, 2, 3, 將上述方程展開,得到:

不妨假設i=1,k=2,3,可以得到一個三元的線性方程組為

通過求解方程組(5)可以得到需預測的標簽坐標 P(xp ;y p)。將式(5)看作 Ax = b,線性方程組的 A, x ,b分別為

方程組的解應該使得如下定義的δ最小,δ為

運用最小均方誤差(MMSE)方法,可以解得x 為

關于三邊測量算法實現的更多細節,可以參考文獻[13]。

1.2 門控循環單元網絡

1.2.1循環神經網絡

對前饋神經網絡(feedforward neural network, FNN)而言,信息只進行前向傳遞,模型的輸出依賴于當前的輸入。模型較為簡單也易于學習,但模型表示能力不足。在很多現實場景中,當前時刻的輸出信息不僅依賴于當前時刻的輸入信息,也與歷史時刻的信息相關。相較而言,循環神經網絡(recurrent neural network ,RNN)天然具有處理時序信息的能力,在 RNN 中,神經元在接受當前時刻輸入信息的同時,也通過環狀的網絡結構接收來自上一時刻自身神經元傳遞過來的信息 ht,如圖4所示。這樣就構成了輸出信息中既包含了當前時刻的輸入信息也包含了歷史時刻的信息,能夠有效增強模型的表示能力。

為了更好地理解 RNN 結構,將 RNN 中的時間序列數據按時刻展開,如圖5所示。

由圖5可以看出, RNN 的信息傳播方式為: t1時刻,輸入信息x1與初始狀態h0,共同經過非線性激活函數得到當前時刻的隱狀態h1,h1經過輸出層得到當前時刻的輸出y1; h1與t2時刻的輸入x2經過非線性激活函數得到隱狀態h2, h2經過輸出層得到t2時刻的輸出y2;依此類推。上一時刻的隱狀態hi與下一時刻的輸入xi+1共同決定了下一時刻的輸出yi+1,由此可以看出 RNN 在處理時序數據上的優越性。

1.2.2循環神經網絡的長程依賴問題

在 RNN 中間時刻的狀態傳播過程中:

式中:?zt為中間?t時刻的凈輸入;?U ∈?RD×D為第?t?1時刻隱狀態到?t時刻隱狀態的權重矩陣;?W ∈?RD×D為?t時刻的輸入到?t時刻隱狀態的權重矩陣;?b ∈?RD為偏置向量;?f 為非線性激活函數。

因為 RNN 中每個時刻參數共享,所以每個時刻的參數U; W; b和函數f 并無變化。設整個 RNN 序列的損失為L,不失一般性,以對參數U的梯度更

式中:誤差項δt;k =表示t時刻的損失Lt對k時刻隱狀態凈輸入zk 的導數; T 表示 RNN 時間序列總共有 T個時刻; t表示中間的某個時刻。所以,式(15)可以寫成:

將式(17)中的δt;k+1展開,得到:

式中, f ′(zτ)為激活函數導數,通常是有界的。

將每個時刻產生的diag(f ′(zτ))UT近似為相等值(嚴格來說每個時刻是不等的),則可令γ="diag(f ′(zτ))UT",可得:

理想狀態是δ既不太大也不太小,這樣能夠使得梯度比較穩定。但是,若γ>1,且?t?k →∞?, 則γt?k →∞?, δt;k →∞?, 此時梯度變得很大,稱為“梯度爆炸”,造成模型無法學習;若γ<1,且?t?k →∞?, 則γt?k →0,δt;k →0 ,此時梯度變得很小,稱為“梯度消失”,造成模型無法學習到長距離時刻的信息。這兩個問題統稱為?RNN 的長程依賴問題。

1.2.3長程依賴問題的優化方案

簡單來說,長程依賴問題就是由于 RNN 在時間維度上比較深,在進行梯度反向傳播時,無論梯度是過大還是過小,若t和k的間隔足夠大,經過一層層的傳播后,連乘使得最終的梯度趨于0或∞。

而 RNN 的梯度爆炸是不難解決的,可通過梯度截斷和權重衰減來優化。相對而言,梯度消失是網絡中較難解決的問題。由式(18)可以看出,要解決梯度消失問題,就要使得中間項diag(f \(zτ))UT = I,I 為單位矩陣。方法一,通過調參使得diag(f \(zτ))UT = I ;方法二,通過修改模型使得diag(f \(zτ))UT = I。下面介紹方法二。

首先,令式(13)中的非線性變換f 變為線性變換且線性權重為1,結合式(12),得到:

此時 diag(f \(zτ))UT中的 diag(f \(zτ))= I,再令U = I,得到:

則有 diag(f \(zτ))UT = II , ht 和 ht一1之間為線性關系,權重為 1,此時式(19)中的γ=1,即使 t 一 k y 凱,γt一k仍等于1,即不存在梯度爆炸或消失問題。但此時仍應保留ht 和xt之間的非線性關系以保留網絡的表示能力,所以對Wxt + b需額外增加非線性激活函數g,則有:

至此,雖然解決了 RNN 的梯度爆炸和梯度消失問題,但由于ht 和ht一1之間只存在線性關系,導致模型表示能力仍會下降。需要重新添加 ht 和 ht一1的非線性關系,即

式中, V為權重矩陣。

此時,因為ht 和ht一1之間既有線性關系也有非線性關系,非線性關系保證了模型的表示能力,線性關系緩解了梯度爆炸和梯度消失的問題。但這樣的優化仍存在以下兩個問題:

a.梯度爆炸問題。令 zk = Vhk一1+Wxk+ b為第 k個時刻非線性函數g的輸入,則在計算式(17)中的δt;k =時,雖然ht 和ht一1之間的線性關系緩解了梯度爆炸問題,若g的值足夠大,仍有可能發生梯度爆炸,只是可能性非常小。

b.記憶容量問題。設g為 Logistic 函數,隨著時刻 t 的增加, ht一1所包含的信息也在增加, Logistic 函數會達到飽和,趨向于1,導致 ht 中的信息也趨向飽和,無法增加新的信息。

針對上述兩個問題,可進一步對模型進行優化,引入門控機制使模型能夠主動丟棄一些信息。

1.2.4 門控循環單元網絡

為了解決記憶容量的問題,可以在式(23)的基礎上引入門控機制來控制 ht 中累計的信息量。 GRU 即是在式(23)的基礎上引入了更新門zt e [0;1]D, zt是與ht 維度相同的D維向量。

當 zt的某一維度值為0時,表示將對應維度 ht一1中的信息全部遺忘,只依賴于后面g中新產生的信息。當zt的所有維度值全部為1時,表示ht 的信息全部來自ht一1,和后面新輸入的信息xt沒有關系。更新門 zt可以表示為 zt =σ(Wzxt + Uz ht一1+ bz ),非線性函數σ可以使用 Logistic 函數。式(24)中的非線性函數g可以使用 tanh 函數,令h(?)t = g(Vht一1+Wxt + b),則有:

若想讓ht 只依賴于xt的信息,而和ht一1沒有關系,式(25)無法實現。需要另外引入 D 維向量 rt e [0;1]D ,表示為 rt =σ(Wrxt + Urht一1+ br), rt稱為重置門,引入rt后, h(?)t 變為 h(?)t = tanh(V(rto ht一1)+Wxt + b),式(24)變為 ht = ztoht一1+(1一 zt) og(V(rtoht一1)+Wxt + b)(26)令zt ,rt皆為零向量,則此時ht 只依賴于xt的信息。

至此,就完成了從 RNN 到 GRU 的模型構造。 GRU 作為 RNN 的一個變種,在保留了 RNN 處理時序數據優勢的基礎上,解決了長程依賴問題,能夠使模型建立長距離時刻的依賴關系。在 UWB 室內定位模型中,每個時刻定位標簽的位置坐標不僅依賴于當前時刻定位標簽到基站的距離信息,而且也與歷史時刻定位標簽的位置坐標有一定的關系。建立歷史位置信息與當前時刻位置信息的聯系能夠有助于模型作出更準確的決策。這是本文選擇 GRU 網絡構建 UWB 室內定位系統模型的主要原因。

1.3 定位模型算法步驟

基于 GRU 網絡的 UWB 室內定位模型具體算法步驟如下:

輸入基站到標簽的距離。

輸出 GRU 網絡的回歸輸出。

步驟1 標簽沿著預定軌跡移動,隨機收集標簽在軌跡上的點坐標,并在加入隨機誤差后計算到各基站的距離,直到收集的數據量足夠為止。

步驟2 初始化 GRU 網絡參數。

步驟3 將收集到的訓練集整理后放入 GRU 網絡中進行模型訓練(離線計算)。

步驟4 不斷調整參數,確定 GRU 網絡的最佳參數。

步驟5 確定最佳參數后在驗證集上對模型擬合能力進行驗證。

2 模型結果的比較與分析

2.1 模型訓練及參數選擇

本文使用 Matlab 構建數據環境,使標簽沿著上半圓軌跡從坐標(3,10)移動到坐標(17,10)。在此期間,在軌跡上隨機選取3000個點,得到點的坐標。然后,在每個樣本點的橫縱坐標里添加8%以內的隨機誤差來模擬信號傳播過程中的誤差。在模擬區域放置基站1(3,3)、基站2(18,3)和基站3(10,18),使用基站坐標和帶有隨機誤差的樣本點坐標計算 GRU 網絡的3個輸入距離值,使用帶有隨機誤差的樣本點坐標作為訓練集和測試集的對照標簽。圖6中的正方形代表3個基站,十字代表定位標簽移動軌跡上隨機選取的3000個點加上隨機誤差后的坐標。

理論上說,增加基站數量可以增加定位標簽到基站的距離信息量,進而增加輸入特征的維度,這樣可以適當增強模型的表示能力,使得模型更容易擬合數據。但這種促進作用有限,因為3個基站的距離信息已經可以使模型達到高精度?;诳s小成本的原則,本文采用3個基站數。

通過模擬環境,獲得3000組樣本,其中,70%的樣本作為訓練集,30%的樣本作為測試集。下面分析不同參數下模型的損失值隨訓練輪數的變化情況。

首先,分析了不同優化器對模型性能的影響,從圖7(a)可以看出,在使用 Adam優化器的情況下,模型收斂速度快且平穩。因此,本模型選擇的優化器為 Adam。

其次,分析了不同學習率對模型性能的影響,學習率過大可能導致模型產生振蕩,學習率過小可能導致收斂緩慢或無法學習。從圖7(b)中可以看出,學習率取0.001時,模型在兼顧收斂速度的同時也更加穩定。因此,本模型選擇學習率為0.001。

然后,分析了不同批量大小對模型性能的影響。圖7(c)顯示了不同批量大小下模型損失函數的收斂情況,可以看出,批量越小,模型收斂得越快。但批量不宜過小,否則模型訓練時間會大幅增加,不利于模型的實際部署。綜合考慮模型的收斂速度、泛化能力和穩定性,本模型選擇批量大小為64。

最后,分析了不同數量的隱藏神經元對模型性能的影響。雖然過多的神經元可以增強模型表示能力,但神經元的增加意味著模型復雜度的上升,在提高模型擬合數據能力的同時也會導致過擬合問題。圖7(d)顯示了在不同隱藏神經元數量下模型損失函數的變化情況,綜合考慮之下選擇隱藏神經元數量為256個。

而采用不同的網絡層數,模型的能力也會有不同的變化。圖8顯示了不同 GRU 網絡層數下模型的平均定位距離誤差。從圖8中可以看出,隨著 GRU 網絡層數的增加,模型的平均定位誤差也在增加,導致模型性能變差,這是因為過多的網絡層數導致了模型的過擬合。且在網絡層數增加到5層及以上時,模型的訓練輪數及每輪訓練時間都會大幅增加。 GRU 網絡層數的合理選擇也是提高模型性能不可忽視的因素之一,在本文模型中,最適合的網絡層數為1層。

本文選擇均方誤差(MSE)損失函數作為模型的損失函數。因此,根據調整不同參數得到的訓練結果,本文選擇的各參數值如表1所示。

在確定最優參數后,使用表1所示的參數來驗證模型對測試集的效果,并使用平均定位誤差 A(模型在測試集上的總誤差除以測試集中的樣本數量)來觀察模型的預測效果。

式中:(xi(p)re ,yi(p)re )為測試集的3個距離值輸入到模型后的模型輸出值;(xi(t)est ,yi(t)est )為測試集樣本的對照標簽; n為測試集的樣本數,在本文中, n=900。

圖9是在使用表1參數值的基礎上分別對模型訓練20次,每次記錄模型在測試集上的預測坐標與實際坐標間的平均距離誤差。

通過對模型進行多次訓練,計算測試集上的平均誤差,可以得到訓練后的模型在測試集上的平均誤差為6.8 cm。

2.2 不同算法對比

2.2.1前饋神經網絡

在 FNN 中,信息傳遞是由前往后單向傳遞的,具有以下特性:相鄰兩層神經元之間全部兩兩連接;每一層內的神經元之間無連接;信息由前向后單向傳遞。以第l層為例,信息傳遞的過程為

z(l)= W(l)d(l?1)+ b(l) ????(28)

d(l)= fl(z(l)) ????(29)

式中:第l?1層的輸出為d(l?1),d(l?1)∈?RMl?1;經過第l?1層到第l層的權重矩陣為W(l),W(l)∈?RMl×Ml?1;第l?1層到第l層的偏置向量為?b(l) ,b(l)∈?RMl;線性計算后得到第l層的凈輸入向量為?z(l),?z(l)∈?RMl;?z(l)經過第l層的非線性激活函數fl得到第l層的輸出?d(l),d(l)∈?RMl。整個前饋神經網絡可以看成是一個個非線性激活函數的復合。

將上文得到的數據集輸入 FNN 中,記錄其訓練時間、預測時間及精度。

2.2.2長短期記憶網絡

長短期記憶網絡( long short-term memory network , LSTM)是 RNN 的另一個變體,也是為了解決 RNN 中存在的記憶容量問題而提出的。 LSTM 引入了一個內部狀態et ∈ RD用以記錄所有歷史信息,其信息傳遞過程為

t = tanh(Veht?1+Wext + be) ?(30)

et = ft⊙?et?1+ it⊙?t ?????(31)

ht = ot⊙tanh(et) ???(32)

式(30)中,根據當前時刻的輸入xt和上一時刻的隱狀態?ht?1計算得出候選狀態?t ,?t ∈?RD。式(31)中,候選狀態?t 和上一時刻的et?1分別與it 和ft作元素乘積運算得到當前時刻的?et 。?ft =σ(Vfht?1+ Wfxt + bf)為遺忘門,用以控制遺忘多少上一時刻?et?1中的信息。?it =σ(Viht?1+Wixt + bi)為輸入門,用以控制保存多少當前時刻候選狀態et的信息。式(32)中,當前時刻的?et經過非線性激活函數? tanh 后與ot作元素乘積運算,得到當前時刻的隱狀態?ht ,?ot =σ(Voht?1+Woxt + bo)為輸出門,用以控制輸出多少信息給當前時刻的隱狀態ht 。ft ; it ; ot的激活函數可以是?Logistic 函數。

將上文得到的數據集輸入 LSTM 中,記錄其訓練時間、預測時間及精度。

2.2.3不同方法對比

GRU 模型的訓練和預測時間是判斷模型實際是否可行的關鍵,表2總結了不同深度學習方法在 UWB 室內定位模型上的訓練和預測時間。

從表2可以看出,所構建的 GRU 模型在訓練時間和預測時間上仍高于 FNN 和 RNN。但是,當考慮到定位精度時,相較于其他深度學習方法與傳統 UWB 算法, GRU 在可接受的時間范圍內給出了較高的精度。

最終結果表明,本文提出的基于 GRU 神經網絡的 UWB 室內定位系統優于其他深度學習方法與傳統定位方法,能夠為 UWB 室內定位提供更好的定位效果。

3 結束語

在本文的研究中,將 GRU 神經網絡應用于 UWB 室內定位,建立了一種新的室內定位方法。該方法以定位標簽到基站的距離作為網絡的輸入,從學習率、優化器、批量大小、網絡層數、隱層神經元數量和損失函數6個方面分析了不同參數對模型性能的影響,確定模型的最優參數。最終的模型驗證結果表明: GRU 網絡用于 UWB 室內定位,其定位精度相較于其他深度學習方法,誤差減少了39.82%~81.72%;相較于傳統定位算法,誤差減少了66.00%~92.44%。因此,隨著深度學習技術的成熟,神經網絡的應用將更加廣泛。

參考文獻:

[1]王甘楠, 田昕, 魏國亮, 等.基于 RNN 的多傳感器融合室內定位方法[J].計算機應用研究 , 2021, 38(12):3725–3729.

[2]黃瑞貞.非線性最小二乘超寬帶 TOA 法在室內定位測量中的研究與實現[J].測繪與空間地理信息 , 2020, 43(4):214–217,224.

[3]周軍, 魏國亮, 田昕, 等.融合 UWB 和 IMU 數據的新型室內定位算法[J].小型微型計算機系統 , 2021, 42(8):1741–1746.

[4]李景文, 韋晶閃, 周俊芬, 等.融合 UWB+PDR 的室內定位方法改進[J].測繪通報, 2022(3):36–40.

[5]劉韜 , 徐愛功 , 隋心.基于自適應抗差卡爾曼濾波的 UWB 室內定位[J].傳感技術學報, 2018, 31(4):567–572.

[6]孫大洋, 章榮煒, 李贊.室內定位技術綜述[J].無人系統技術, 2020, 3(3):32–46.

[7] HSIEH C H, CHEN J Y, NIEN B H. Deep learning-based indoor localization using received signal strength and channel state information[J]. IEEE Access, 2019, 7:33256–33267.

[8] MEGHANI S K, ASIF M, AWIN F, et al. Empirical based ranging error mitigation in IR-UWB: a fuzzy approach[J]. IEEE Access, 2019, 7:33686–33697.

[9] XUE Y, SU W, WANG H C, et al. DeePTAL: deep learning for TDOA-based asynchronous localization security with measurement error and missing data[J]. IEEE Access, 2019, 7:122492–122502.

[10] JOUNG J, JUNG S, CHUNG S, et al. CNN-based Tx–Rxdistance estimation for UWB system localisation[J]. Electronics Letters, 2019, 55(17):938–940.

[11]王斐 , 徐湛 , 職如昕 , 等.基于卷積神經網絡的 OFDM- UWB 信道環境識別[J].計算機工程 , 2021, 47(7):161–167.

[12] NIITSOO A, EDELH?U?ER T, MUTSCHLER C. Convolutional neural networks for position estimation in TDoA-based locating systems[C]//Proceedings of 2018 International Conference on Indoor Positioning and Indoor Navigation. Nantes: IEEE, 2018:1–8.

[13] POULOSE A, KIM J, HAN D S. A sensor fusion framework for indoor localization using smartphone sensors and wi-firssi measurements[J]. Applied Sciences, 2019, 9(20):4379.

(編輯:丁紅藝)

猜你喜歡
深度學習神經網絡
神經網絡抑制無線通信干擾探究
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
MOOC與翻轉課堂融合的深度學習場域建構
大數據技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
基于深度卷積網絡的人臉年齡分析算法與實現
基于神經網絡的拉矯機控制模型建立
復數神經網絡在基于WiFi的室內LBS應用
基于支持向量機回歸和RBF神經網絡的PID整定
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合