摘要
為了防止無人機威脅公共安全,反無人機目標跟蹤已成為工業和軍事應用中的關鍵問題。然而,由于場景復雜且目標通常較小,因此穩定地跟蹤無人機目標仍然是一個具有挑戰性的問題。在本文中,提出了一種由Siamese網絡和重新檢測(SiamAD)組成的新型長期跟蹤架構,以有效地在不同環境中定位無人機目標。具體來說,利用一種新的混合注意力機制模塊來進行更具區分性的特征表示,并將其整合到連體網絡中。同時,基于注意力的連體網絡融合了多級特征,以準確跟蹤目標。我們進一步引入了用于檢查目標可靠性的分層鑒別器,并使用基于鑒別器的重新檢測網絡來糾正跟蹤失敗。為了有效地趕上無人機的外觀變化,在長期跟蹤任務中開發了模板更新策略。我們的模型在反無人機基準測試中超越了許多最先進的模型。特別是,與強基線SiamRPN++相比,該方法在成功率和準確率上分別提高了13.7%和16.5%。
一、簡介
由于高效和低成本的顯著優勢,無人機在軍事、交通、物流和安全等各種應用中獲得了新的關注。然而,無人機的非法和無規范使用也帶來了擾民民航、侵犯隱私等諸多潛在危害,可能對公共安全造成極大威脅。此外,很難對無人機進行有效和嚴格的監管。這種安全威脅使得反無人機系統成為必要。
目標跟蹤是構建反無人機系統的前提。使用計算機視覺算法是監控無人機的一種現實解決方案,因為視頻圖像信號敏感、準確且抗干擾。具體來說,視覺跟蹤是計算機視覺的基本任務之一。給定第一幀中對象的初始模板,跟蹤的目標是準確識別和定位連續幀中的對象。在無人機視覺目標跟蹤的情況下,視頻場景復雜多變,要跟蹤的目標小且外觀不明顯。這導致跟蹤器面臨許多挑戰,例如變形、遮擋、目標移出視野和快速運動。因此,準確跟蹤無人機目標是一個必須解決的具有挑戰性的問題。
根據無人機視頻的特點,反無人機跟蹤可視為一項長期跟蹤任務。從長遠來看,最重要的特征是跟蹤序列中的目標可以被完全遮擋或超出視野。近年來,已經進行了許多嘗試來提高無人機場景中的性能?;谙嚓P濾波(CF)或深度學習(DL)的傳統跟蹤方法已被廣泛使用。然而,模型學習能力不足或實時性受限等不足限制了這些方法的應用。
最近,基于連體網絡的跟蹤器取得了重大進展,將對象跟蹤視為匹配問題。Siamese網絡的核心思想是學習目標模板和搜索區域之間的一般相似性映射。這樣,跟蹤問題就可以轉化為搜索區域和目標的相似度計算。Siamese trackers通常采用端到端訓練的全卷積網絡,在準確度和實時性上都取得了突出的表現。SiamFC是一項開創性的工作,于2016年提出并達到了58 fps的高幀率。CFNet集成了相關過濾(CF)和Siamese網絡,其中相關過濾被構建為子網絡層。暹羅RPN介紹了基于SiamFC的區域提議網絡(RPN)。然而,基于連體的模型是完全離線訓練的,模板不能在線更新,這讓他們很難趕上外觀變化。此外,盡管研究人員提出了許多模板建立和更新的方法,但這些方法僅基于目標生成特征圖。正負樣本之間的上下文信息被完全丟棄,而一些背景特征有利于將目標與類似干擾區分開來。即使是現在,在實際跟蹤場景中實現高質量的性能仍然具有挑戰性。
長期跟蹤是一項更復雜的任務。當對象被嚴重遮擋甚至看不見時,跟蹤結果可能會退化為不可靠。因此,在這種情況下,檢測跟蹤和重新檢測方法變得必不可少。在設計重新檢測方法時有兩個關鍵問題:如何評估跟蹤結果的可靠性以及何時選擇更好的結果來代替原來的結果。許多長期跟蹤器將相關濾波與圖像檢測方法相結合,并根據CF生成的響應圖直接構建跟蹤可靠性的評估標準。以前, 提出了一種使用基于連體網絡的全局搜索策略的檢測模塊。上述長期跟蹤方法在實際應用中更加穩健。然而,在每一幀進行檢測是一項相當昂貴的操作。準確識別跟蹤器是否出現故障是一個至關重要的問題;這決定了檢測算法是否可以正確激活。目前,許多方法僅基于具有手工特征的相關濾波器設計可靠性估計,未能充分利用深度學習在特征表示能力方面的優勢。
受上述分析的啟發,提出了一種由Siamese網絡和配置了混合注意力機制和分層判別器的重新檢測模塊組成的反無人機長期目標跟蹤方法。具體來說,混合注意力模塊被訓練以增強連體網絡的特征學習能力,以生成更具辨別力的對象表示。此外,為了解決長期跟蹤中無人機目標的重新定位和模板更新問題,我們利用層次判別器根據連體網絡的輸出生成目標定位的響應圖,并制定可靠性標準評估響應圖的可信度。當輸出結果表明置信度低時,算法激活重新檢測模塊并更新模板。
這項工作的主要貢獻總結如下:
(1) 引入多重混合注意力機制(MHAM)來聯合計算通道-空間注意力和自注意力,不僅可以增強相互依賴的通道特征和空間特征,而且可以捕獲目標和目標之間豐富的上下文相互依賴關系無人機跟蹤任務的背景。
(2)采用層次判別器(HDC)來估計跟蹤和重檢測結果的可信度,并作為檢測器和模板更新的觸發器。我們應用檢測器和更新器來構建一個模塊化框架來處理定位和漂移跟蹤失敗。
(3) 所提出的方法在反無人機基準上優于最先進的方法。與 SiamRPN++相比,我們的框架實現了13.7% 的距離精度和16.5%的重疊精度,并實現了對其他SOTA跟蹤器的性能提升(超過5%)。
二、相關工作
在本節中,我們將簡要討論一些經典的相關方法,包括相關跟蹤、基于連體的跟蹤和長期跟蹤。
2.1相關性跟蹤
近年來,目標跟蹤逐漸成為計算機視覺領域的熱門話題,隨著目標跟蹤技術的發展,相關濾波和Siamese網絡受到廣泛關注?;谙嚓P濾波器的方法通過將時域下的復雜計算轉換為頻域來顯著降低計算復雜度。將相關濾波器引入到目標跟蹤算法中,并首次提出了MOSSE。提出CSK用循環采樣代替密集采樣,并通過對循環移位矩陣的傅里葉變換進行對角化,提高了嶺回歸運算的速度。通過將單通道CSK跟蹤器擴展到多個通道來利用KCF。
然而,傳統的基于相關濾波器的方法主要采用手工制作的特征,這將它們的性能限制在更廣泛的應用中。鑒于深度神經網絡的高效特征表示能力,融合深度學習和相關濾波器引起了越來越多的關注。但是,在復雜場景下,它們仍然存在精度低或速度慢的問題。
2.2基于連體的跟蹤
在過去的幾年里,由于其卓越的精度和速度,許多作品開始關注基于連體的追蹤器。提出了SimFC,它采用了互相關到一個完全卷積的Siamese網絡,并且該網絡是端到端訓練的,并且能夠實時推理。在模板分支中引入了相關過濾層,并針對翻譯生成了一個魯棒的特征圖。受Faster R-CNN的啟發,通過將RPN模塊應用于對象跟蹤任務來展示SiamRPN。暹羅RPN將單目標跟蹤視為一次性檢測。與SiamFC相比,它避免了多尺度特征圖的重復計算,顯著提高了尺度估計精度。在SiamRPN的基礎上提出了DaSiamRPN,通過數據增強來改善正負樣本之間的不平衡。實驗結果表明,長期跟蹤有明顯改善。為了突破淺層骨干網絡的限制,SiamDW和SiamRPN++采用了更深的特征提取網絡(ResNet50)。受到SiamRPN++成功的鼓舞,許多先進的模型被提出。暹羅利用了無錨連體網絡。SiamMask將圖像分割引入基于連體的跟蹤器。然而,對于連體模型,跟蹤模板更新對于避免被干擾干擾是決定性的。最近的模型已經開發出各種模板更新策略來解決由目標外觀變化引起的問題。常見的解決方案是使用歷史跟蹤結果進行加權融合。然而,對于連體跟蹤器,在具有挑戰性的現實場景中仍然無法獲得高質量的性能。
2.3長期跟蹤
長期跟蹤是指在相對較長的視頻序列中連續定位任意目標的任務。由于目標可能會暫時消失,關鍵問題是在一段時間不存在或跟蹤失敗后檢索目標。因此,長期跟蹤在實際應用中具有更大的潛力。TLD將任務分解為三個階段:跟蹤、學習和檢測。在跟蹤失敗時,檢測模塊被激活以重新定位丟失的目標。MUSTer由短期和長期記憶子網組成。具體來說,利用集成相關濾波器作為短期跟蹤器,并采用長期存儲來控制短期記憶。然而,必須缺乏跟蹤狀態可靠性的評估機制,每幀觸發重新檢測。LCT訓練了一個基于DCF的跟蹤器來估計目標位置和規模的變化,并提出了一個在線隨機蕨類植物檢測器來重新檢測丟失的目標。開發了一種基于DCF的長期跟蹤方法,該方法由檢測跟蹤和重新檢測模塊組成。
隨著深度學習的快速發展,許多基于深度學習的長期跟蹤器被提出。SPLT和MBMD采用基于連體的跟蹤器作為回歸網絡。LTMU提出了一種結合SiamMASK和MDNet的短期跟蹤器,并將跟蹤結果的序列信息輸入長短期記憶(LSTM)以決定是否重新檢測或更新。受到SiamRPN框架、GlobalTrack的啟發采用全局搜索策略進行長期跟蹤。然而,長期反無人機跟蹤器的模型更新策略和重新檢測方法仍然相對簡單。同時,很少有工作專注于固定注意力分布以獲得更強大的語義特征。在這項工作中,我們提出了一種混合注意力機制來進行更具區分性的特征表示?;赟iamRPN提出了分層判別器,用于長期跟蹤任務中的重新檢測和模板更新。
三、實驗
3.1基準
作為動態環境中的高質量基準,反無人機數據集是在CVPR 2020的第一屆反無人機挑戰國際研討會上提出的。它由300多個視頻對(RGB和紅外)組成,并標注了超過580k的邊界框,跨越了多次出現的多尺度無人機(即大型、 small and tiny),主要來自DJI和Parrot,以保證數據的多樣性??偣灿?18個視頻對,其中160個被劃分為訓練集,91個被分配給測試集,其余的被用作驗證集。錄制的視頻包括兩種光照條件(白天和夜晚),兩種光照模式(紅外和可見光),以及不同的背景(建筑物、云層、樹木等);當天拍攝的視頻片段較多。每個視頻都存儲在一個幀速率為25 FPS的MP4文件中。具體來說,反無人機設置了一系列挑戰,包括視野外、遮擋、快速運動、尺度變化、低照度、熱交叉和低分辨率。Anti-UAV是第一個構建的用于捕捉社區真實動態場景的反無人機基準。越來越多的工作開始在具有挑戰性的數據集上執行。
3.2. 實施細節
在訓練階段,SiamRPN和YOLOv5網絡進行離線訓練。在訓練SiamRPN時,采用三階段學習策略。Siamese網絡首先在YouTube-BoundingBoxes、ImageNet VID、ImageNet和COCO數據集上進行了預訓練。然后固定主干的參數,并在基礎結構中引入混合注意力模塊。接下來,通過Anti-UAV重新訓練混合注意力模塊和RPN訓練子集。最后,整個網絡在Anti-UAV 上進行端到端訓練以優化參數。在YOLOv5的訓練階段,只采用反無人機訓練集,因為檢測算法只需要區分前景和背景。該網絡通過隨機梯度下降法(SGD)進行訓練。所提出的算法在反無人機測試子集上進行評估,該子集包含91個RGB視頻。我們的算法與最近的9個SOTA跟蹤器進行了比較:MDNet、SiamDW、SiamFC、SiamRPN、SiamRPN++、TransT、SiamCAR、SiamRPN++LT和CLNet。引入了兩個指標來評估所有方法的性能:20像素閾值處的距離精度(DP)、成功圖的曲線下面積(AUC)。精度圖中的分數被定義為中心位置誤差小于預定義閾值的幀的百分比。同時,成功圖中的分數表示跟蹤區域和邊界幀的重疊率大于閾值的幀的百分比。在訓練和測試階段,我們使用127像素的相同大小的補丁作為模板,使用255像素的補丁作為搜索區域。至于可靠性鑒別器,○s設置為0.8和○一個設置為0.35。所提出的框架在Pytorch中實現,并在NVIDIA GTX 3090 GPU上進行了實驗。
3.3與SOTA跟蹤器的比較
我們利用One-Pass-Evaluation (OPE)來評估我們的反無人機長期跟蹤框架的有效性,并在反無人機基準上與其他SOTA跟蹤器進行比較。成功圖和距離精度圖的結果如圖8所示。其閾值為20像素的距離精度(DP)、閾值為0.5的重疊精度(OP)如表1所示。在這些跟蹤器中,我們的SiamAD在AUC(67.7%)和DP(88.4%)方面取得了最好的結果。與第二名的 SiamRPN++LT相比,SiamAD在AUC和DP上分別提高了7.3%和9.0%。此外,與基線SiamRPN++,我們的跟蹤器也取得了顯著的改進,成功率相對提高了13.7%,準確率相對提高了16.5%。值得注意的是,SiamAD 的速度達到了38.8 FPS,以滿足實時跟蹤要求。這些結果表明,所提出的多尺度特征提取網絡、混合注意力模塊和分層鑒別器可以協同工作以實現高效和準確的無人機目標跟蹤能力。
圖8. OPE在反無人機上的成功和精度圖。圖表顯示了我們的算法與其他SOTA跟蹤器的比較。
表1. 我們的方法與其他SOTA跟蹤器在反無人機基準上的性能比較測試。我們的SiamAD實現了最高的成功率和準確率。前三個值以紅色、綠色和藍色突出顯示。
同時,我們可以發現長期跟蹤者更有可能獲得更高的能力。SiamRPN++LT表現出色,OP為78.8%,準確率為79.4%,明顯高于短時跟蹤器??傊?,我們認為基于長期跟蹤或檢測的跟蹤器在無人機跟蹤任務中更具競爭力。
3.4基于屬性的評估
為了全面分析不同挑戰因素下的跟蹤性能,進行了基于屬性的評估。Anti-UAV為每個視頻提供屬性注釋,以幫助識別跟蹤器在處理各種困難時的優缺點。這些注釋包括視野外(OV)、遮擋(OC)、快速運動(FM)、尺度變化(SV)、低照度(LI)、熱交叉(TC)和低分辨率(LR)。在測試集中,OV和FM頻繁出現,也是無人機跟蹤過程中的難點任務。
圖9說明了不同挑戰因素下的跟蹤成功率和準確率。正如我們所觀察到的,SiamAD在OV、SV和FM中的表現比其他跟蹤器要好得多。在視野外的情況下,我們提出的方法優于 SiamRPN++LT,AUC 提高了5.2%,DP提高了4.0%。在尺度變化的情況下,與TransT相比,SiamAD在AUC和DP中實現了8.2%的相對增益和7.2%。性能顯著提升的原因可以總結為兩個方面:一方面,基于YOLO的單類重檢測模塊對識別出的目標具有較高的檢測能力,在目標丟失后能夠準確地重新定位;另一方面,基于UDC的目標模板更新方法可以顯著提高跟蹤網絡的精度。SiamAD還在OC和LR方面提供出色的性能。由于混合注意力模塊,增強了模型表達特征和抗干擾的能力。因此,跟蹤器可以更有效地處理復雜環境和無人機外觀變化帶來的困難。
圖9. Anti-UAV基準的基于屬性的評估。成功和精度圖顯示了六個具有挑戰性的因素。
得到觸發重新檢測的次數,并記錄在表2中。在測試過程中,重新檢測模塊的激活率為9.2%。一般來說,在處理挑戰因素時,重新檢測被激活的概率會增加,尤其是當無人機難以觀察時(LR、OV和OC)。這說明了響應丟失對象進行檢測的必要性。
表2. 觸發重新檢測的次數。
3.5定性分析
所提出的方法與五個最先進的跟蹤器 MDNet、SiamRPN++LT、SiamCAR、TransT和CLNet進行了定性比較。圖10顯示了來自反無人機基準測試的八個具有挑戰性的視頻的結果。
圖10. SiamAD、MDNet、CLNet、SiamCARSiamRPN++LT和 TransT在八個具有挑戰性的序列上的定性評估。我們將這些視頻從上到下分別命名為:UAV-OC、UAV-OV1、UAV-OV2、UAV-FM1、UAV-FM2、UAV-LR、UAV-SV1 和 UAV-SV2(經Ref許可轉載。)
遮擋(OC)。由于環境復雜多變,再加上無人機體積小,無人機物體容易長時間被建筑物或植被遮擋。在UAV-OC序列中,對象在第224-262幀中完全被遮擋。當無人機再次出現時,TransT和SiamAD首先定位它。盡管CLNet也可以捕獲目標,但由于模型不更新,定位精度明顯低于其他方法。SiamRPN++LT是一個長期跟蹤器,依賴于預訓練網絡的魯棒性來重新檢測對象。目標丟失后,跟蹤器可以快速重新鎖定目標。在第753幀的第二次遮擋之后,只有SiamAD和SiamRPN++LT能夠再次捕獲目標。
視野外和快速運動(OV & FM)。OV是無人機跟蹤任務中最具挑戰性的因素之一,并且方法要求在物體再次出現時迅速檢測到它。OV存在于UAV-OV1、UAV-OV2和UAV-FM2序列中。UAV-OV1一開始,目標就在視野之外。這意味著跟蹤器無法訪問目標在初始幀中的位置和外觀。因此,幾乎所有基于生成模型的方法(SiamCAR、TransT和CLNet無法跟蹤。但是,依靠模板更新機制和重新檢測模塊,SiamAD可以逐步找到目標。在UAV-OV2和UAV-FM2序列中,目標離開視野并在最后重新出現。這是跟蹤無人機時的典型案例。同樣,只有SiamRPN++LT和SiamAD可以重新定位無人機。
為了在物體加速時捕捉到物體,應該應用更大的搜索區域。然而,這可能會增加引入干擾信號的風險。在UAV-OV2和UAV-FM2序列中,無人機的運動和攝像機的旋轉相互疊加,這樣一種復雜的運動會導致目標在兩個相鄰幀之間移動超過60像素的顯著距離. 目標與背景重疊并突然變化。在UAV-FM1、SiamRPN++和 SiamCAR由于來自相似背景的干擾,他們首先失去了他們的目標。雖然 MDNet 采用在線更新策略來調整網絡參數,但錯誤特征的引入仍然導致定位出現偏差。結合混合注意力機制和特征融合方法,SiamAD和TransT有效抑制冗余信息,增強特征表示的判別能力。這使得跟蹤器能夠在快速變化的背景中抵抗類似干擾的影響,有效地提高跟蹤精度。
低分辨率(LR)。UAV-LR在低能見度條件下展示了無人機跟蹤結果。該視頻的主要挑戰是低分辨率和低信噪比。由于在線更新期間引入了噪聲, MDNet效率較低。在一些簡單的場景中,低分辨率對跟蹤結果的影響是容易克服的。然而,當與背景雜波結合時,跟蹤邊界框很容易漂移到目標附近的類似干擾。TransT和SiamCAR等跟蹤器在這種情況下很難獲得準確的目標表示,這使得跟蹤結果偏離了背景。例如,暹羅汽車可以間歇性地重新定位到無人機,但由于外觀變化,很快又失去了目標。SiamAD 利用重檢測機制來解決邊界框的漂移問題。同時,引入高置信度的模板更新策略可以有效避免模板被污染。
尺度變化(SV)。在沒有其他挑戰屬性的情況下,本文測試的算法都很好地適應了無人機的尺度變化?;?RPN的SiamCAR和SiamRPN++等算法都表現出良好的目標尺度估計自適應感知。
如上所述,建議的SiamAD在上述視頻中表現良好。其主要成就可以從以下三個方面來概括:
(1)雖然大多數跟蹤器在處理嚴重遮擋或視線外等挑戰時容易出現故障;SiamAD仍然取得了良好的跟蹤結果,這得益于YOLO網絡對跟蹤可靠性的準確判斷和可靠的重新檢測結果。
(2)我們的SiamAD在處理背景和外觀變化的干擾方面是有效的。這是因為我們引入了基于深度連體網絡的注意力機制和多尺度特征融合。從網絡中提取的特征圖可以表示豐富的語義信息,增強模型的可辨別性。
(3)重檢測模塊為算法更新提供了高質量的模板,SiamAD利用所有可靠的特征生成一個信息豐富的魯棒模板。因此,我們提出的方法可以自適應地適應環境的變化,提高復雜場景中的跟蹤性能。
3.6消融研究
為了定量評估我們SiamAD的每個組件的有效性,我們對具有各種組件的Anti-UAV進行了多次實驗。如表3所示,與原始基礎跟蹤器相比,配備注意機制或重新檢測的跟蹤器顯著增強了性能。引入在線更新也有助于改進模型。在以下段落中,我們將詳細描述每個部分的影響。
表3. 我們的反無人機基準方法在成功和精度方面的消融研究。最高值以粗體突出顯示。
混合注意力模塊。我們在Siamese網絡中引入了兩個注意力模塊,即CSAM和CAM?;赟iamRPN++,我們逐步引入我們的注意力模塊,并在反無人機測試集上對其進行驗證。如表4所示,同時包含CSAM和CAM的模型實現了最佳的跟蹤性能。此外,我們發現CAM的引入在跟蹤成功率和準確率方面有顯著提高,分別提高了3.0%和4.8%。這說明對象的前景和背景之間的關聯信息有助于增強特征的表示。CSAM的成功率和準確率也分別提高了2.5%和2.6%,這也提高了跟蹤性能。
表4. 我們的方法在Anti-UAV基準上使用不同注意力模塊的性能比較測試。最佳值以粗體突出顯示。
如圖11所示,使用我們的MHAM模塊,網絡的響應圖更準確地聚焦在無人機對象上。MHAM可以有效篩選目標特征,增強網絡區分對象和干擾物的能力。
圖11. 響應圖的可視化。第一欄:搜索圖片;第二列:沒有我們的MHAM模塊的響應圖;第三列:帶有MHAM模塊的響應圖;第四列:注意力激活圖,說明感興趣的區域。
用于重新檢測的可靠性鑒別器。為了證明重新檢測機制在我們的框架中的影響,我們進行了一項消融研究,我們比較了有和沒有重新檢測網絡的跟蹤結果,實驗數據如表 3所示。請注意,實驗是使用結合了注意力模塊的連體網絡進行的。結果表明,當與重新檢測網絡結合使用時,AUC 增加了7.8%,DP 增加了9.8%——跟蹤有效性的顯著提高。此外,我們驗證了可靠性判別器參數設置的影響。小號p(式(11))和APCE(式(12))被用作跟蹤結果置信度的評價指標,然后我們選擇不同的系數組合○s和○一個(式(15)),如表5所示。我們發現這些系數的大值有利于跟蹤精度,但在實踐中,實時性能會變差。此外,當我們為所有視頻設置相同的閾值時,該模型的性能并不是最佳的。我們解釋說,根據視頻的特性自適應調整閾值更有利于充分利用重新檢測模塊的能力。
表5重檢測性能評價 使用不同的閾值來驗證影響。最高值以粗體突出顯示。
為了進一步演示重新檢測模塊如何在我們的跟蹤器上工作,我們從 Anti-UAV 中選擇了兩個典型的視頻進行比較實驗,即 SiamRPN++和我們的 SiamAD。我們將這兩個視頻分別命名為UAV-VIDEO1和UAV-VIDEO2,結果如圖12所示。
圖12. 再檢測模塊在 Anti-UAV 基準上的跟蹤結果。紅色邊界框表示配置了重新檢測模塊的 SiamAD 的跟蹤結果,而白色邊界框表示沒有重新檢測的跟蹤器的結果。
(1)在UAV-VIDEO1中,UAV 對象受到背景建筑物的干擾。SiamRPN++無法跟蹤目標,因為背景和目標的顏色難以區分。但是,我們的重新檢測模塊不受干擾源的影響,并且能夠正確定位該視頻中的目標。
(2)在UAV-VIDEO2中,無人機目標被嚴重遮擋;兩個跟蹤器同時失去目標。當目標再次出現時,SiamRPN++無法立即捕獲目標,但重新檢測模塊可以快速識別并重新鎖定無人機。
更新模板更新的鑒別器。表6顯示了不同模板更新策略的性能,以說明它們如何影響輸出。我們比較了三種設置:不更新模板、直接從重新檢測生成新模板以及使用第 3.4 節中提到的模板更新方法。從表 3中可以看出,模板更新在提高跟蹤精度方面發揮著重要作用。而且,與直接應用重檢測結果相比,所提出的模板更新策略保留了對象的歷史信息,生成的模板更加健壯。
表6. 不同模板更新策略的性能評估。最高值以粗體突出顯示。
3.7. 無人機跟蹤視頻的測試與分析
為了定量評估 SiamAD 在真實無人機跟蹤場景中的有效性,基于實際 UVA 視頻對該算法進行了更多的性能測試。為了保證實驗的準確性,采集了各種規格無人機在不同應用場景下的視頻。大部分測試數據為直播視頻,分辨率為1920×1280,幀率為30fps,拍攝距離約為200mm。我們提出的算法的跟蹤能力仍然可以在實際測試環境中得到證明,部分跟蹤結果如圖13所示。
圖13. SiamAD 應用在真實場景中的跟蹤結果。
序列3和序列5展示了一架無人機在不斷變化的背景中。目標快速移動,圖像特征模糊,存在背景干擾。測試結果表明,SiamAD 能夠在復雜多變的背景中檢測目標,并且在實際應用中還具有抗干擾能力。在序列5中,無人機的高速運動導致跟蹤器頻繁丟失目標。但是,重新檢測模塊的全局搜索可以彌補跟蹤算法的失敗。我們的 SiamAD 可以很好地處理對象尺度變化(序列 2,序列7),還可以跟蹤小目標(序列4)),這得益于 RPN 對邊界框的準確估計。在測試過程中,存在無人機被嚴重遮擋或離開視野的情況(序列7、序列8),但SiamAD在物體重新出現后可以準確識別整個目標。
對一些圖像樣本進行了注釋,并創建了一個小型自制測試集。OPE 方法用于評估 SiamAD 的準確性。成功圖和距離精度圖的結果如圖 14 所示。在這個測試集上,我們的 SiamAD 達到了56.5%的AUC分數和 79.2% 的 DP 分數。這證明該方法在處理更具挑戰性的跟蹤條件時仍能保持良好的成功率和準確率。與第 4.3 節中的測試結果相比,算法在自制測試集上的性能降低。這主要是由于兩個因素。首先,與Anti-UAV相比,我們視頻的場景更加多樣化,無人機的運動和外觀變化更加劇烈。這使得所提出算法的挑戰更加困難。此外,重新檢測模塊是在固定數據集上訓練的;自制測試集視頻和Anti-UAV訓練集的分布差異很大。結果,導致基于全局搜索策略的檢測算法的性能下降。
四、結論
在本文中,提出了一種反無人機的長期跟蹤框架。我們的方法是基于連體跟蹤器和重新檢測網絡開發的,并配備了兩個增強組件:一個混合注意模塊,通過三個串聯-并行注意子網提高注意分布擬合度,以及一個分層鑒別器,采用靈活的雙閾值策略重新檢測并精確更新當前模板。此外,利用模板更新策略來進一步提高跟蹤精度。擬議的工作在反無人機基準測試中優于許多最先進的跟蹤器。我們已經證明了我們提出的模塊的有效性,實驗結果定性地證明了每個組件都有利于性能提升。
所提出的反無人機跟蹤方法一般由跟蹤器、判別器、重新檢測模塊和更新模塊組成,以使跟蹤器在各種具有挑戰性的情況下都能保持出色的性能。此外,該算法在實際場景中對無人機的跟蹤能力也非常出色。未來,現有框架可以進行如下優化。首先,可以細化重檢測模塊的搜索策略,融合檢測和跟蹤網絡,實現網絡參數共享,使我們的方法更加高效。此外,由于本文沒有考慮無人機的運動信息;可以建立基于時空相關性的動態模型來提高跟蹤方法的魯棒性。最后,本文目前的研究很少關注LSS-target(Low Altitude,Slow Speed,Small Target)。從實際角度看,有必要針對低空小目標跟蹤問題對網絡進行優化。我們希望我們的工作將鼓勵在反無人機技術方面進行更先進的工作。
版權聲明:本文內容由互聯網用戶自發貢獻,該文觀點僅代表作者本人。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如發現本站有涉嫌抄襲侵權/違法違規的內容, 請發送郵件至2161241530@qq.com 舉報,一經查實,本站將立刻刪除。如若轉載,請注明出處:http://www.fxshuangfa.com/uncategorized/53837/