本發(fā)明涉及行為檢測的,更具體的,涉及一種基于改進yolov8的異常行為檢測方法、設備及存儲介質。
背景技術:
1、隨著智能監(jiān)控和行為識別技術的迅速發(fā)展,在各種復雜場景下監(jiān)測個體行為對提高系統(tǒng)效率和質量至關重要。在現代社會,隨著遠程工作和虛擬互動的普及,確保個體的參與度和行為的規(guī)范性變得尤為重要。通過使用ai技術,系統(tǒng)可以實時監(jiān)測個體行為,對異常行為進行智能識別與監(jiān)控。這種技術不僅可以幫助管理者更好地理解動態(tài),還能優(yōu)化環(huán)境,提升用戶的整體體驗。
2、yolo(you?only?look?once)系列模型作為一種高效的目標檢測方法,因其實時性和高準確率被廣泛應用。yolov8作為yolo系列的較新版本,通過引入更深層次的特征提取網絡和優(yōu)化的損失函數,顯著提升了目標檢測的精度和速度。然而,在實際應用中,特別是在復雜的環(huán)境下,yolov8仍然面臨一些挑戰(zhàn)。在這些復雜場景中,目標通常較小且分布密集,這使得模型在特征提取和目標定位時難以充分區(qū)分個體。此外,個體之間容易相互遮擋,進一步增加了檢測任務的復雜性。這些因素導致模型在處理密集人群和遮擋問題時的性能有所下降,限制了其在實際行為識別和監(jiān)控場景中的應用效果。因此,針對這一類場景,進一步改進yolov8的特征提取能力及處理遮擋問題的魯棒性,顯得尤為重要。
技術實現思路
1、本發(fā)明為克服上述現有技術中存在的技術問題,而提供一種基于改進yolov8的異常行為檢測方法、設備及存儲介質。
2、為解決上述技術問題,本發(fā)明的技術方案如下:
3、一種基于改進yolov8的異常行為檢測方法,其包括以下步驟:
4、s1、構建基于改進yolov8的異常行為檢測模型;
5、引入rcsosa模塊替換原yolov8模型的neck網絡中的c2f模塊,以提高對密集群體的檢測精度與識別效果;
6、s2、對基于改進yolov8的異常行為檢測模型進行迭代訓練,得到訓練后的基于改進yolov8的異常行為檢測模型;
7、s3、將待檢測的異常行為圖像輸入訓練后的基于改進yolov8的異常行為檢測模型,輸出異常行為的檢測結果;
8、其中,步驟s1中的rcsosa模塊的工作過程包括:
9、將待檢測的異常行為圖像作為輸入特征圖,通過repvgg模塊對輸入特征圖進行處理,提取和增強多樣化特征;
10、將處理后的特征圖按1:1的比例均分為兩部分,得到第一部分、第二部分;其中,第一部分直接傳遞,第二部分通過多個rcs模塊進行優(yōu)化特征選擇和通道混洗,增強通道間的特征融合;
11、將兩部分特征圖在通道維度上進行拼接,拼接后的特征圖再次通過repvgg模塊進行處理,進一步優(yōu)化特征表示。
12、進一步,步驟s1中,對原yolov8模型的改進還包括:
13、構建特征聚焦擴散金字塔網絡替換原yolov8模型的neck網絡架構,以增強小目標的特征表示和檢測精度。
14、進一步,所述特征聚焦擴散金字塔網絡包括focusfeature模塊,所述focusfeature模塊用于接收輸入的特征圖并生成處理后的特征圖;
15、經所述focusfeature模塊處理后的特征圖被分配到兩個分支,兩個分支分別為第一分支和第二分支;
16、所述第一分支包括unsample模塊,所述unsample模塊將經所述focusfeature模塊處理后的特征圖進行上采樣處理,以調整特征圖的分辨率,使其能夠與較低級別的特征圖進行空間對齊,為后續(xù)的特征融合奠定基礎;
17、所述第二分支包括conv模塊,所述conv模塊通過細化特征表示進一步優(yōu)化經所述focusfeature模塊處理后的特征圖的質量;
18、所述第一分支和所述第二分支輸出的特征圖通過concat模塊與其他特征圖進行融合。
19、進一步,所述focusfeature模塊的工作過程包括:
20、所述focusfeature模塊接收三個不同尺度的特征圖,三個特征圖分別為特征圖p3、特征圖p4、特征圖p5;
21、對所述特征圖p3、所述特征圖p4、所述特征圖p5分別進行不同的預處理;特征圖p3通過adown降采樣模塊調整空間尺寸與通道數;特征圖p4經過1×1卷積層調整通道數;特征圖p5通過上采樣調整空間尺寸,再通過1×1卷積層調整通道數;
22、將預處理后的所述特征圖p3、所述特征圖p4、所述特征圖p5在通道維度上進行拼接,形成一個包含多尺度信息的綜合特征圖;
23、通過一組并行的深度可分離卷積分別處理綜合特征圖,該組深度可分離卷積采用不同尺寸的卷積核處理綜合特征圖,每個深度可分離卷積用于捕獲不同尺度的特征;
24、將所有深度可分離卷積的輸出與所述綜合特征圖進行疊加,得到融合后的特征;
25、通過1×1卷積進一步壓縮和精煉融合后的特征,輸出最終的特征圖。
26、進一步,步驟s1中,對原yolov8模型的改進還包括:
27、使用dyhead動態(tài)預測頭替換原yolov8模型的檢測頭,以提高對被遮擋人群的識別能力。
28、進一步,所述dyhead動態(tài)預測頭包括空間尺度感知模塊、空間位置感知模塊和任務感知模塊;
29、所述空間尺度感知模塊通過全局池化和1×1卷積生成注意力權重,增強對多尺度目標的感知;
30、所述空間位置感知模塊通過卷積、offset操作和sigmoid操作強化目標關鍵部位的特征表達,抑制背景干擾;
31、所述任務感知模塊通過全局池化和全連接層,動態(tài)選擇并強化任務相關特征。
32、進一步,所述dyhead動態(tài)預測頭的多層感知融合公式為:
33、w(f)=πc(πs(πl(wèi)(f)·f)·f)·f
34、其中,f為一個l×s×c的三維特征張量,l代表特征圖的層級,s代表特征圖的寬高乘積,c代表特征圖的通道數;
35、πl(wèi)(·)、πs(·)和πc(·)分別表示空間尺度感知模塊、空間位置感知模塊以及任務感知注意力模塊,所述空間尺度感知模塊、所述空間位置感知模塊、所述任務感知注意力模塊分別在l、s、c三個維度上執(zhí)行;
36、上式中,
37、
38、πc(f)·f=max(α1(f)·fc+β1(f),α2(f)·fc+β2(f))
39、其中,f(·)是一個由近似于1×1卷積運算所組成的線性函數,以實現特征降維;σ(x)為hard-sigmoid激活函數;k為稀疏采樣位置數量;pk+δpk是一個由自學習空間位移量δpk所決定的可移動位置,以用來聚焦于一些判別位置;δmk是位置pk處的自學習重要性標量;fc為第c個通道的特征切片;θ(·)=[α1,β1,α2,β2]為學習控制激活閾值的超函數。
40、進一步,步驟s2具體包括:
41、獲取待檢測的異常行為圖像數據集,將待檢測的異常行為圖像數據集劃分為訓練集和測試集;
42、將所述訓練集輸入基于改進yolov8的異常行為檢測模型中,并通過sgd優(yōu)化器對所述基于改進yolov8的異常行為檢測模型進行多輪迭代訓練,直至所述基于改進yolov8的異常行為檢測模型收斂,得到訓練好的基于改進yolov8的異常行為檢測模型。
43、一種計算機設備,其包括存儲器和處理器,所述存儲器存儲有計算機程序,所述處理器執(zhí)行所述計算機程序時實現前述的基于改進yolov8的異常行為檢測方法的步驟。
44、一種計算機可讀存儲介質,所述計算機可讀存儲介質存儲有計算機程序,所述計算機程序被處理器執(zhí)行時實現前述的基于改進yolov8的異常行為檢測方法的步驟。
45、與現有技術相比,本發(fā)明技術方案的有益效果是:
46、本發(fā)明提供了一種基于改進yolov8的異常行為檢測方法、設備及存儲介質,通過改進yolov8模型,本發(fā)明增強了小目標的特征表示和檢測精度,提高了對復雜場景內的群體的檢測精度與識別效果,同時提高了對被遮擋參與者的識別能力,有效減少誤檢和漏檢。