郎斌柯,呂斌,吳建清,吳瑞年
1)蘭州交通大學(xué)交通運輸學(xué)院,甘肅 蘭州 730070;
2)山東大學(xué)齊魯交通學(xué)院,山東 濟南 250002;
3)蘭州市大數據管理局,甘肅 蘭州 730070
交通標志是用漢字或符號傳達導向、控制、警戒或指揮等信號的道路設施,能夠熟練解讀標志含義是每個(gè)駕駛員的基本要求,對于自動(dòng)駕駛也是如此.交通標志檢測是自動(dòng)駕駛及輔助駕駛系統的重要研究方向,正確識別道路交通標志關(guān)系著(zhù)智能駕駛任務(wù)的成敗.
交通標志檢測優(yōu)化模型包括基于人力的交通標志檢測優(yōu)化模型和基于深度神經(jīng)網(wǎng)絡(luò )的交通標志檢測優(yōu)化模型[1-2].基于深度神經(jīng)網(wǎng)絡(luò )的交通標志檢測優(yōu)化模型包括1 階段目標檢測模型和2 階段目標檢測模型.2階段目標檢測模型需從圖片中產(chǎn)生候選區(運行后續模型的子區域),再從候選區域中生成最終的物體檢測邊框[3].與2 階段目標檢測模型相比,1階段目標檢測模型直接得到目標物體的分類(lèi)概率和方位坐標值,并通過(guò)此環(huán)節直接獲得最后的檢測結果.1 階段目標檢測模型包括SSD(single shot multibox detector)[8]與YOLO(you only look once)[9-11]系列等.
2 階段目標檢測模型的精度一般高于1 階段檢測模型,但2 階段目標檢測模型的計算速率較慢,無(wú)法滿(mǎn)足實(shí)際應用中實(shí)時(shí)性的需要.1階段目標檢測模型同時(shí)確保了精度和處理速度,因而其應用范圍更廣泛[12].但是由于交通標志目標通常為小目標(物體相對圖像占比小于0.58%[13])物體,所以,上述檢模型的精度均不能滿(mǎn)足實(shí)際需求.
注意力機制可以根據圖像中不同位置的重要程度提取圖像信息,從而使神經(jīng)網(wǎng)絡(luò )專(zhuān)注于圖像中更重要的部分[14].因此,在檢測模型中引入注意力機制有助于提高模型對于小目標物體的檢測精度.基于此,考慮檢測實(shí)時(shí)性和精度的要求,本研究選擇YOLOv5(you only look once version 5)為基礎檢測模型,并以此為骨干網(wǎng)絡(luò ),在骨干網(wǎng)絡(luò )中添加協(xié)調注意力(coordinate attention,CA)機制,聚焦于小目標交通標志檢測.同時(shí)在模型特征融合部分引入加權雙向特征金字塔網(wǎng)絡(luò ),增強不同尺度特征圖融合效果,進(jìn)一步提升模型檢測精度.
在保證實(shí)時(shí)檢測精度的前提下,為提高YOLOv5 網(wǎng)絡(luò )模型對交通標志的識別精度,本研究提出基于協(xié)調注意力-雙向特征金字塔網(wǎng)絡(luò )(coordinate attention - bidirectional feature pyramid network,CA-BIFPN)的交通標志檢測模型,其網(wǎng)絡(luò )結構如圖1.可見(jiàn),基于CA-BIFPN的檢測模型網(wǎng)絡(luò )結構主要由輸入、骨干網(wǎng)絡(luò )、Neck 特征融合網(wǎng)絡(luò )及預測網(wǎng)絡(luò )構成.其中,CBS(convolution,batch normalization,SiLU)為卷積-批標準化-SiLU 激活函數組合模塊;
CSP(cross stage partial)為跨階段分區網(wǎng)絡(luò ),分為CSP1-x和CSP2-y,x和y分別為殘差模塊數量和CBS 數量;
SPPF(spatial pyramid pooling - fast)為快速空間金字塔池化.采用YOLOv5 6.0 版本神經(jīng)網(wǎng)絡(luò )為基礎網(wǎng)絡(luò ),在其骨干網(wǎng)絡(luò )中加入CA 機制,實(shí)現在添加少量訓練參數的同時(shí)增加網(wǎng)絡(luò )特征提取能力.相關(guān)注意力對比實(shí)驗[15]表明,雖然通道注意力能夠顯著(zhù)提高模型性能,但其容易忽視與空間選擇性注意力產(chǎn)生密切相關(guān)的位置信息,在CA 機制中將位置信息放入通道注意力中,則能夠較好規避這個(gè)問(wèn)題.YOLOv5 與注意機制的結合方式為[16]:①將注意力機制與Neck 特征網(wǎng)絡(luò )融合,替換骨干網(wǎng)絡(luò )中所有跨階段局部網(wǎng)絡(luò )(cross stage partial networks,CSPN)模塊;
② 在骨干網(wǎng)絡(luò )后單獨加入注意力機制.本研究采用后種方法,即將CA 機制加入至空間金字塔前,隨后導入Neck 特征融合網(wǎng)絡(luò ),在特征融合網(wǎng)絡(luò )中混合不一樣的特征圖.選用加權雙向特征金字塔網(wǎng)絡(luò ),可以將交通標志圖像的各個(gè)特征合理融合,有效解決各尺度特征信息不一致以及其他特征金字塔計算量大的問(wèn)題.以下分別說(shuō)明檢測模型各優(yōu)化模塊的組成.
圖1 CA-BIFPN模型網(wǎng)絡(luò )結構Fig.1 (Color online) Network structure of CA-BIFPN model.
注意力機制的本質(zhì)是尋找特定的數據信號,操縱無(wú)用信息,結果一般以幾率圖和概率特征空間向量的形式表達,有利于增強神經(jīng)網(wǎng)絡(luò )對于小目標物體的檢測精度.注意力機制模型可分為空間注意力、通道注意力及混合注意力模型[17].
空間注意力模型偏向全部通道,在二維平面圖中訓練尺寸為H×W的特征圖權重值矩陣,并為全部圖像單元獲得1個(gè)權重值.該權重表示某個(gè)空間位置信息的重要程度,將空間注意力矩陣附著(zhù)到原始特征圖像上,以增加可用特征,減少無(wú)效特征,進(jìn)而達到特征篩選與增強的目的.
與空間注意力不同,通道注意力類(lèi)似于在各個(gè)通道的特征圖中都給出1個(gè)權重值,表明方式和重要信息之間的關(guān)聯(lián)性,該權重值與相關(guān)性呈正相關(guān)關(guān)系[18].在深度神經(jīng)網(wǎng)絡(luò )中,層面越高,特征度的尺寸越小,但通道數量更多.通道還體現全部圖形的特點(diǎn)信息,信息過(guò)多時(shí)神經(jīng)元網(wǎng)絡(luò )難以挑選出有效信息,此時(shí)利用通道注意力就可以使網(wǎng)絡(luò )判斷出最重要信息,這也是利用通道注意力進(jìn)行目標檢測時(shí)效果更優(yōu)的原因[19].CA 機制為混合注意力,其包含了通道注意力和空間注意力,也繼承了二者的優(yōu)點(diǎn),使CA 在獲得跨通道信息的同時(shí),獲得方向感知和位置感知信息,因此,檢測模型可以對目標進(jìn)行更為精準地定位與識別.CA 機制模型如圖2.其中,C為通道數;
r為縮減因子.CA 應用精確的部位信息對通道關(guān)聯(lián)信息和長(cháng)期性依靠信息展開(kāi)編碼,編碼過(guò)程包括坐標(coordinate)信息嵌入和CA生成[20].
圖2 CA機制示意Fig.2 Schematic diagram of CA mechanism.
在坐標信息嵌入過(guò)程中,全局池化方法通常用作對空間內容的整體編碼,但由于該方式將去全局空間信息內容壓縮在通道描述中,無(wú)法表達信息的位置內容.為使控制模塊可以更好捕獲具備精確部位信息的遠程空間交互,利用式(1)計算全局池劃分,并將其變換為一維特征編碼.
其中,zc是變量通道c的輸出;
特征圖的高度和寬度分別為H和W;
通道c的坐標值為xc(i,j).使用長(cháng)和寬為(H,1)和(1,W)的池化核在水平和豎直坐標方位對每個(gè)通道進(jìn)行編碼,相對高度為h的輸出zhc(h)可表述為
與通道注意力中轉化成單獨特征空間向量的控制模塊方式不同,式(1)和式(2)的轉換方式各自在2 個(gè)空間上開(kāi)展特征融合,獲得1 對空間方位上感知的特征圖.這兩種轉換方式能夠使實(shí)體模型捕獲與另一個(gè)空間方位的相互聯(lián)系,并維持從另一個(gè)空間方位的精準位置信息,進(jìn)而根據網(wǎng)絡(luò )尋找合適的總體目標[21-22],可以取得比全局編碼更準確的信息.
將式(1)和式(2)兩種輸出結果應用到另一種轉換,完成CA 生成.CA 設計準則包括:① 新的轉化全過(guò)程應盡量簡(jiǎn)單;
② 注意力機制應能靈活運用捕獲的信息,使感興趣的區域信息能夠被精確捕捉;
③ 設計還需合理捕捉信息通道間的關(guān)聯(lián).特征信息轉換完成后進(jìn)行Concatenate函數變換,隨后根據1 × 1卷積神經(jīng)網(wǎng)絡(luò )變換F1函數進(jìn)行變換,為
其中,F1為卷積變換函數;
[,]為Concatenate 函數變換;
σ為空間信息在水平和豎直方位編碼的中間特征投射,可用來(lái)操縱CA的控制模塊尺寸減縮率.
通常尺度較大的特征圖更適于檢測小目標物體,尺度較小的特征圖更適于檢測大目標物體,而將兩者結合的特征金字塔則能更好兼具大小目標的檢測.最早的特征金字塔網(wǎng)絡(luò )(feature pyramid network,FPN)[23]是一個(gè)自上而下的單項特征融合金字塔結構,如圖3.運算過(guò)程中,FPN的p6—p3輸出層先將上一次特征圖像的上采樣結果進(jìn)行特征融合,再經(jīng)過(guò)與p7相同的運算流程,最終形成5個(gè)不同尺寸的特征圖像,供后續網(wǎng)絡(luò )檢測.
圖3 FPN結構示意Fig.3 (Color online) FPN structure.
圖4 BIFPN結構示意Fig.4 (Color online) BIFPN structure.
FPN可通過(guò)由頂向下的傳遞路徑來(lái)獲得語(yǔ)義更加豐富的特征,并將特征與更準確的位置信息結合.但針對由大目標產(chǎn)生的掩碼,空間信息可能要傳遞數百層,導致傳遞路徑過(guò)于冗長(cháng),使網(wǎng)絡(luò )高層信息與低層信息無(wú)法有效結合,出現信息丟失.
路徑聚合網(wǎng)絡(luò )(path aggregation network,PANet)是一種改進(jìn)的FPN,該網(wǎng)絡(luò )通過(guò)使用由底層至頂層的橫向連線(xiàn)來(lái)縮短傳輸路徑,引入另一種由底向上的傳輸途徑[24].PANet相對于FPN具有更好的網(wǎng)絡(luò )精度,但其網(wǎng)絡(luò )規模較大、參數量多,計算效率較低.TAN 等[25]提出的雙向特征金字塔網(wǎng)絡(luò )(bidirectional feature pyramid network,BIFPN)引入了跳躍連接,即在相同尺度的輸入節點(diǎn)到輸出節點(diǎn)中間再增加1個(gè)跳躍連接,因為運算處于相同層,該方法可在參數較少的情況下結合更多特征.BIFPN將每1 條雙向路徑視作1 個(gè)特征網(wǎng)絡(luò )層,并對同一層參數進(jìn)行多次計算,以實(shí)現更多的特征融合.
由于不同輸入特征具有不同分辨率,因此,特征對于網(wǎng)絡(luò )的影響也不同.針對無(wú)界融合、Softmax基礎融合以及快速歸一化融合方法的比較結果表明,無(wú)界融合訓練不穩定,需要使用權重歸一化進(jìn)行約束;
Softmax 基礎融合能表示出每個(gè)輸入的重要程度,但會(huì )導致計算量增加;
快速歸一化融合與Softmax 基礎融合類(lèi)似,但沒(méi)有將Softmax 函數應用到參數中,因此,其運算準確度與Softmax 基礎融合類(lèi)似,而計算速度較Softmax 基礎融合更快[25].本研究選擇快速歸一化融合方法作為BIFPN的融合算法.
本研究采用由騰訊公司與清華大學(xué)聯(lián)合制定的數據集TT100K,該數據集包含9 176幅道路與交通標志牌圖片.其中,6 105幅為訓練集;
3 071幅為測試集.每幅圖片都包括道路交通標志的一些案例,其中,訓練集包括16 527個(gè)案例;
測試集包括8 190 個(gè)案例.涉及的道路交通標志牌類(lèi)型有221種.由于TT100K 中221 種交通標志分布不均衡,部分交通標志如山體滑坡等相對罕見(jiàn),為提高訓練效果,本研究將所有數據進(jìn)行清洗,去除無(wú)標簽和出現頻次較少的交通標志種類(lèi),篩選出7 972 幅超過(guò)100幅圖像的45種交通標志.對清洗圖像采用隨機旋轉和拓展數據,包含放縮和增加高斯噪聲[26],處理后的最終數據集共包括23 916 幅圖像,其中,訓練集15 873幅;
測試集8 043幅.
為測試模型在有霧環(huán)境下的檢測效果,對最終數據集隨機使用紅綠藍(red green blue,RGB)通道合成霧、中心點(diǎn)合成霧及隨機合成霧3種算法進(jìn)行圖像加霧處理,制成霧天數據集進(jìn)行輔助實(shí)驗.
本實(shí)驗操作系統為Windows10,訓練使用的顯卡為NVIDIA RTX2070,顯存為8 Gbyte,深度學(xué)習框 架 為Python 3.7、TensorFlow 2.0 和Pytorch 1.8.1.為保證對比結果的客觀(guān)性,實(shí)驗對不同網(wǎng)絡(luò )進(jìn)行測試時(shí)應用相同的超參數,如表1.
表1 超參數設置Table 1 Hyperparameter setting
采用平均精度均值mAP(mean average precision)作為模型評價(jià)指標.mAP 通過(guò)統計模型成功檢測數量與目標總數比值來(lái)評價(jià)模型優(yōu)劣,mAP值越高,表明目標檢測模型在給定數據集上的檢測效果越好.通過(guò)選擇不同的交并比(預測框與真實(shí)框重疊面積與總面積之比)閾值來(lái)統計不同標準下模型的精度均值,常用的有mAP 0.50(交并比閾值為0.50)和mAP 0.50∶0.95(交并比閾值從0.50 到0.95,步長(cháng)為0.05).mAP的計算過(guò)程為
其中,PrecesionCn表示圖像n中,模型對于類(lèi)別為C的目標檢測準確度;
N(TruePositives)Cn為圖像n中,類(lèi)別為C正確檢測的目標數量;
N(TotalObjects)Cn為圖像n中,類(lèi)別為C的目標數量;
APC為模型對類(lèi)別為C的平均檢測準確度;
N(TotalImages)C表示存在類(lèi)別為C的目標的圖像數量,如總共20 幅圖像中,有10 幅圖像有類(lèi)別為C的目標,則N(TotalImages)C= 10;
N(Classes)為類(lèi)別數量.
分別使用SSD、YOLOv5、YOLOv5+CA 模塊、YOLOv5+BIFPN 模塊及CA-BIFPN 模型的mAP 作為實(shí)驗評價(jià)指標值,進(jìn)行檢測模型性能對比,結果見(jiàn)表2.可見(jiàn),在相同參數訓練條件下,分別加入CA和BIFPN 模塊的YOLOv5 模型的mAP 0.50 上升0.5%和0.3%;
CA-BIFPN 模型的mAP 0.50 相比SSD和YOLOv5分別提升4.5%和1.3%.CA-BIFPN模型的mAP 0.50∶0.95 與SSD 和YOLOv5 相比分別提升4.1%和1.2%.在模擬霧天環(huán)境下,CA-BIFPN模型精度為80.5%,高于原模型的80.3%,CABIFPN 的mAP 0.50∶0.95 與 原 模 型 相 比 提 升 了0.6%.
表2 檢測模型性能結果Table 2 Model performance results %
在YOLOv5 模型中引入BIFPN 模塊并加入注意力機制后,研究模型對數據集中小目標物體的檢測精準度,從45類(lèi)交通標志中分別選取mAP 0.50最高和最低的2 類(lèi)進(jìn)行對比,結果見(jiàn)表3.由表3 可見(jiàn),與YOLOv5 相比,CA-BIFPN 模型的各類(lèi)小目標交通標志精準度均有所提高,表3 中4 種交通標志的mAP 0.50 分別提高2.2%、2.5%、0.3%及0.5%.
表3 TT100K中mAP 0.50最高和最低的4類(lèi)交通標志Table 3 Value of mAP 0.50 for the highest and lowest 4 types of traffic signs in TT100K %
為進(jìn)一步驗證CA-BIFPN 模型的可靠性,從某市和某高速公路隨機選取5幅交通標志圖像進(jìn)行檢測,結果如圖5,圖中檢測框上側的字母和數字分別表示目標分類(lèi)類(lèi)型和概率.其中,圖5(a)和(b)分別為CA-BIFPN 模型城市道路中遠、近目標檢測結果;
圖5(c)、(e)及(g)為CA-BIFPN、YOLOv5及SSD 模型高架道路中多目標遠距離檢測結果;
圖5(d)、(f)及(h)為CA-BIFPN、YOLOv5 及SSD 模型高速公路中多目標近距離檢測結果;
圖5(i)、(j)及(k)為CA-BIFPN、YOLOv5 及SSD 模型霧天交通標志檢測檢測結果.圖5(a)和(b)表明,交通標志位于較遠處時(shí)仍能被正確檢測出;
圖5(d)、(f)及(h)表明,SSD 模型發(fā)生了1 處誤檢,CA-BIFPN 與YOLOv5 模型在近距離檢測中無(wú)較大差距;
圖5(c)、(e)和(g)表明,僅CA-BIFPN 模型實(shí)現了對小目標的檢測,YOLOv5 和SSD 均出現不同程度漏檢;
圖5(i)、(j)和(k)表明,本模型在部分霧天環(huán)境下也能實(shí)現對交通標志的有效檢測.
圖5 不同道路環(huán)境下CA-BIFPN、YOLOv5及SSD模型的交通標志檢測結果 (a)CA-BIFPN模型城市交通標志遠距離檢測;
(b)CA-BIFPN模型城市交通標志近距離檢測;
(c)CA-BIFPN模型高架交通標志遠距離多目標檢測;
(d)CA-BIFPN模型高架交通標志近距離多目標檢測;
(e)YOLOv5模型高架交通標志遠距離多目標檢測;
(f)YOLOv5模型高架交通標志近距離多目標檢測;
(g)SSD模型高架交通標志遠距離多目標檢測;
(h)SSD模型高架交通標志近距離多目標檢測;
(i)CA-BIFPN模型霧天交通標志檢測;
(j)YOLOv5模型霧天交通標志檢測;
(k)SSD模型霧天交通標志檢測Fig.5 (Color online) CA-BIFPN, YOLOv5 and SSD traffic sign detection results in different road environments.(a) CA-BIFPN long-range detection of urban traffic signs, (b) CA-BIFPN proximity detection of urban traffic signs, (c) CA-BIFPN long-range multi-target detection of traffic signs on elevated roads, (d) CA-BIFPN proximity multi-target detection of traffic signs on elevated roads,(e) YOLOv5 long-range multi-target detection of traffic signs on elevated roads, (f) YOLOv5 proximity multi-target detection of traffic signs on elevated roads, (g) SSD long-range multi-target detection of traffic signs on elevated roads, (h) SSD proximity multi-target detection of traffic signs on elevated roads, (i) CA-BIFPN detection of traffic signs in foggy, (j) YOLOv5 detection of traffic signs in foggy, and (k) SSD detection of traffic signs in foggy.
交通標志檢測對于智能交通的意義重大,本研究提出CA-BIFPN 交通標志檢測模型,以YOLOv5為骨干網(wǎng)絡(luò ),引入CA 機制聚焦小目標物體,在Neck 網(wǎng)絡(luò )中使用BIFPN 加權雙向特征金字塔,進(jìn)一步提高了網(wǎng)絡(luò )融合效果.基于TT100K 數據集,將本模型與SSD 和YOLOv5 等經(jīng)典目標檢測模型進(jìn)行比較檢測實(shí)驗,結果顯示本模型的平均檢測精度mAP 0.50 和mAP 0.50∶0.95 分 別 為83.9% 和62.3%,相比YOLOv5 網(wǎng)絡(luò )提高了1.3%和1.2%,在交通標志檢測中更可靠,在除極端雨雪氣候及光照變化影響外的場(chǎng)景中均有較好的檢測效果.本模型雖然提高了交通標志檢測精度,但CA 機制的引用以及BIFPN增加了模型的訓練參數,降低了模型的運行速率,同時(shí)本模型缺少對于極端天氣情況下的特殊檢測優(yōu)化,因此,后續研究中仍需要針對以上問(wèn)題進(jìn)一步改進(jìn),以提高模型檢測效率.
參考文獻 / References:
[1]李銘興,徐成,李學(xué)偉.交通標志識別研究綜述[C]//中國計算機用戶(hù)協(xié)會(huì )網(wǎng)絡(luò )應用分會(huì )第二十五屆網(wǎng)絡(luò )新技術(shù)與應用年會(huì )論文集.北京:中國計算機用戶(hù)協(xié)會(huì )網(wǎng)絡(luò )應用分會(huì ),2021:196-199.LI Mingxing, XU Cheng, LI Xuewei.Summary of research on traffic sign recognition in urban traffic scenes [C]// Proceedings of the 25th Annual Conference on New Network Technologies and Applications, Network Application Branch of China Computer Users Association.Beijing:Network Application Branch of China Computer Users Association, 2021: 196-199.(in Chinese)
[2]陳飛,劉云鵬,李思遠.復雜環(huán)境下的交通標志檢測與識別方法綜述[J].計算機工程與應用,2021,57(16):65-73.CHEN Fei, LIU Yunpeng, LI Siyuan.Survey of traffic sign detection and recognition methods in complex environment [J].Computer Engineering and Applications,2021, 57(16): 65-73.(in Chinese)
[3]楊曉玲,江偉欣,袁浩然.基于yolov5的交通標志識別檢測[J].信息技術(shù)與信息化,2021(4):28-30.YANG Xiaoling, JIANG Weixin, YUAN Haoran.Recognition and detection of traffic signs based on yolov5 [J].Information Technology and Informatization, 2021 (4): 28-30.(in Chinese)
[4]GIRSHICK R, DONAHUE J, DARRELL T, et al.Rich feature hierarchies for accurate object detection and semantic segmentation [C]// IEEE Conference on Computer Vision and Pattern Recognition.Piscataway, USA:IEEE, 2014: 580-587.
[5]GIRSHICK R.Fast R-CNN [C]// IEEE International Conference on Computer Vision (ICCV).Piscataway, USA:IEEE, 2015: 1440-1448.
[6]REN Shaoqing, HE Kaiming, GIRSHICK R, et al.Faster R-CNN: towards real-time object detection with region proposal networks [J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.
[7]CAI Zhaowei, VASCONCELOS N.Cascade R-CNN:delving into high quality object detection [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway, USA: IEEE, 2018: 6154-6162.
[8]LIU Wei, ANGUELOV D, ERHAN D, et al.SSD: single shot MultiBox detector [C]//The 14th European Conference Computer Vision - ECCV 2016.Amsterdam: Springer,2016: 21-37.
[9]REDMON J, DIVVALA S, GIRSHICK R, et al.You only look once: unified, real-time object detection [C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR).Piscataway, USA: IEEE, 2016: 779-788.
[10]REDMON J, FARHADI A.YOLO9000: better, faster,stronger [C]// IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Piscataway, USA: IEEE,2017: 6517-6525.
[11]REDMON J, FARHADI A.YOLOv3: an incremental improvement [EB/OL].(2018-04-08) [2022-05-10].https://doi.org/10.48550/arxiv.1804.02767.
[12]寇大磊,權冀川,張仲偉.基于深度學(xué)習的目標檢測框架進(jìn)展研究[J].計算機工程與應用,2019,55(11):25-34.KOU Dalei, QUAN Jichuan, ZHANG Zhongwei.Research on progress of object detection framework based on deep learning [J].Computer Engineering and Applications,2019, 55(11): 25-34.(in Chinese)
[13]CHEN Chenyi, LIU Mingyu, TUZEL O, et al.R-CNN for small object detection [C]// Asian Conference on Computer Vision - ACCV 2016.Taipei, China: Springer, 2017:214-230.
[14]張宸嘉,朱磊,俞璐.卷積神經(jīng)網(wǎng)絡(luò )中的注意力機制綜述[J].計算機工程與應用,2021,57(20):64-72.ZHANG Chenjia, ZHU Lei, YU Lu.A review of attention mechanisms in convolutional neural networks [J].Computer Engineering and Applications, 2021, 57(20): 64-72.(in Chinese)
[15]鞠默然,羅江寧,王仲博,等.融合注意力機制的多尺度目標檢測算法[J].光學(xué)學(xué)報,2020,40(13):126-134.JU Moran, LUO Jiangning, WANG Zhongbo, et al.Multiscale target detection algorithm based on attention mechanism [J].Acta Optica Sinica, 2020, 40(13): 126-134.(in Chinese)
[16]徐誠極,王曉峰,楊亞?wèn)|.Attention-YOLO:引入注意力機制的YOLO 檢測算法[J].計算機工程與應用,2019,55(6):13-23.XU Chengji, WANG Xiaofeng, YANG Yadong.Attention-YOLO: YOLO detection algorithm that introduces attention mechanism [J].Computer Engineering and Applications, 2019, 55(6): 13-23.(in Chinese)
[17]任歡,王旭光.注意力機制綜述[J].計算機應用,2021,41(增刊1):1-6.REN Huan, WANG Xuguang.Review of attention mechanism [J].Journal of Computer Applications, 2021, 41(Suppl.1): 1-6.(in Chinese)
[18]劉玉紅,陳滿(mǎn)銀,劉曉燕.基于通道注意力的多尺度全卷積壓縮感知重構[J/OL].計算機工程:1-8 [2022-04-29].DOI:10.19678/j.issn.1000-3428.0063546.LIU Yuhong, CHEN Manyin, LIU Xiaoyan.Multi-scale full convolution compressed perceptual reconstruction based on channel attention [J/OL].Computer Engineering:1-8[2022-04-29].DOI: 10.19678/j.issn.1000-3428.0063546.(in Chinese)
[19]許德剛,王露,李凡.深度學(xué)習的典型目標檢測算法研究綜述[J].計算機工程與應用,2021,57(8):10-25.XU Degang, WANG Lu, LI Fan.Review of typical object detection algorithms for deep learning [J].Computer Engineering and Applications, 2021, 57(8): 10-25.(in Chinese)
[20]HOU Qibin, ZHOU Daquan, FENG Jiashi.Coordinate attention for efficient mobile network design [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Piscataway, USA: IEEE, 2021: 13708-13717.
[21]HU Jie, SHEN Li, SUN Gang.Squeeze-and-excitation networks [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway, USA: IEEE,2018: 7132-7141.
[22]劉學(xué)平,李玙乾,劉勵,等.嵌入SENet 結構的改進(jìn)YOLOV3 目標識別算法[J].計算機工程,2019,45(11):243-248.LIU Xueping, LI Yuqian, LIU Li, et al.Improved YOLOV3 target recognition algorithm with embedded SENet structure [J].Computer Engineering, 2019, 45(11):243-248.(in Chinese)
[23]KIM S W, KOOK H K, SUN J Y, et al.Parallel feature pyramid network for object detection [C]// European Conference on Computer Vision - ECCV 2018.Munich,Germany: Springer, 2018: 239-256.
[24]LIU Shu, QI Lu, QIN Haifang, et al.Path aggregation network for instance segmentation [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway, USA: IEEE, 2018: 8759-8768.
[25]TAN Mingxing, PANG Ruoming, LE Q V.EfficientDet:scalable and efficient object detection [C]// IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Piscataway, USA: IEEE, 2020: 10778-10787.
[26]楊真真,匡楠,范露,等.基于卷積神經(jīng)網(wǎng)絡(luò )的圖像分類(lèi)算法綜述[J].信號處理,2018,34(12):1474-1489.YANG Zhenzhen, KUANG Nan, FAN Lu, et al.Review of image classification algorithms based on convolutional neural networks [J].Journal of Signal Processing, 2018, 34(12): 1474-1489.(in Chinese)
猜你喜歡交通標志注意力特征基于雙向特征融合的交通標志識別汽車(chē)實(shí)用技術(shù)(2022年9期)2022-05-20讓注意力“飛”回來(lái)小雪花·成長(cháng)指南(2022年1期)2022-04-09如何表達“特征”瘋狂英語(yǔ)·新策略(2019年10期)2019-12-13不忠誠的四個(gè)特征當代陜西(2019年10期)2019-06-03抓住特征巧觀(guān)察數學(xué)小靈通·3-4年級(2017年9期)2017-10-13“揚眼”APP:讓注意力“變現”傳媒評論(2017年3期)2017-06-13A Beautiful Way Of Looking At Things第二課堂(課外活動(dòng)版)(2016年2期)2016-10-21交通標志小課堂小天使·一年級語(yǔ)數英綜合(2016年8期)2016-05-14我們歡迎你!小天使·一年級語(yǔ)數英綜合(2014年7期)2014-06-26線(xiàn)性代數的應用特征河南科技(2014年23期)2014-02-27