深度學習助力實現(xiàn)智能行為分析和事件識別

2019-04-11 22:22:01 admin
立即下載

“近年來,深度攝像技術的發(fā)展使得人體運動的深度圖像序列變得容易獲取,結合高精度的骨架估計算法,能夠進一步提取人體骨架運動序列?!?/span>

行為識別是指通過分析視頻、深度傳感器等數據,利用特定的算法,對行人的行為進行識別、分析的技術。這項技術被廣泛應用在視頻分類、人機交互、安防監(jiān)控等領域。行為識別包含兩個研究方向:個體行為識別與群體行為(事件)識別。近年來,深度攝像技術的發(fā)展使得人體運動的深度圖像序列變得容易獲取,結合高精度的骨架估計算法,能夠進一步提取人體骨架運動序列。利用這些運動序列信息,行為識別性能得到了很大提升,對智能視頻監(jiān)控、智能交通管理及智慧城市建設等具有重要意義。同時,隨著行人智能分析與群體事件感知的需求與日俱增,一系列行為分析與事件識別算法在深度學習技術的推動下應運而生。下面將介紹我們最新的相關研究。


圖1 行為識別的定義及應用領域


1.基于層級化循環(huán)神經網絡的人體骨架運動序列行為識別


目前基于人體骨架的行為識別方法主要可分為兩類:1)基于局部特征的方法:該類方法是對序列中的各時刻的人體骨架的局部幾何結構做特征提取,然后利用詞包(Bag of Words, BoW)模型結合時間金字塔(Temporal Pyramid, TP)或是結合動態(tài)時間規(guī)整(Dynamic Time Warping, DTW)進行識別,該類方法沒有或是只能局部考慮運動序列的時序信息,其識別過程更多地依賴局部靜態(tài)結構特征;2)基于序列狀態(tài)轉移的方法:該類方法主要是利用HMM 對行為演化的動態(tài)過程進行建模,其兩個主要不足是不僅需要對序列做預對齊,同時還需要估計狀態(tài)轉移過程的遷移概率,這本是兩個比較困難的問題,其識別的精度也往往偏低。本研究主要基于微軟的Kinect 和運動捕獲系統(tǒng)提取的人體骨架運動序列,結合人體運動的相對性,提出了基于遞歸神經網絡的人體骨架運動序列的行為識別模型。提出的模型首先對已經提取好的人體骨架姿態(tài)序列中節(jié)點坐標進行歸一化,以消除人體所處絕對空間位置對識別過程的影響,利用簡單平滑濾波器對骨架節(jié)點坐標做平滑濾波以提高信噪比,最后將平滑后的數據送入一個層次化雙向遞歸神經網絡同步進行深度特征表達提取、融合及識別,同時提供了一種層次化單向遞歸神經網絡模型以應對實際中的實時分析需求。該方法主要優(yōu)點是根據人體結構特征及運動的相對性,設計端到端的分析模式,在實現(xiàn)高精度識別率的同時避免復雜的計算,便于實際應用。

圖2 基于層級化RNN的人體骨架序列行為識別示意圖

2.基于雙流循環(huán)神經網絡的行為識別


由于深度傳感器的成本的降低和實時的骨架估計算法的出現(xiàn),基于骨架的行為識別研究越來越受歡迎。傳統(tǒng)方法主要基于手工特征設計,對行為中運動的表達能力有限。最近出現(xiàn)了一些基于循環(huán)神經網絡的算法,可以直接處理原始數據并預測行為。這些方法只考慮了骨架坐標隨著時間的動態(tài)演變,而忽略了它們在某一個時刻的空間關系。在本文中,我們提出一種基于雙流循環(huán)神經網絡的方法如圖三,分別對骨架坐標的時間動態(tài)特性和空間相對關系建模。對于時間通道,我們探索了兩種不同的結構:多層循環(huán)神經網絡模型和層次化的循環(huán)神經網絡模型。對于空間通道,我們提出兩種有效的方法把坐標的空間關系圖轉換為關節(jié)點的序列,以方便輸入到循環(huán)神經網絡中。為了提高模型的泛化能力,我們探究了基于三維坐標變換的數據增強技術,包括旋轉、縮放和剪切變換。 在深度視頻的行為識別標準數據庫的測試結果顯示,我們的方法對于一般行為,交互式行為和手勢的識別結果都有相當大的提高。


圖3 基于雙流RNN的骨架的行為識別方法

3.基于類相關玻爾茲曼機的視頻事件分析


我們研究了有監(jiān)督模型中的視頻表達學習,以期望利用類標簽學到更有區(qū)分力的表達,可同時用于視頻分類和檢索。我們知道,由于低層視覺特征與類標簽之間的語義鴻溝、高維低層特征對后續(xù)分析所產生的計算代價以及有標簽訓練樣本的缺乏,在不受控制的網絡視頻中分析無結構的群體行為和事件是一個非常具有挑戰(zhàn)性的任務,如圖四所示。為了克服這些困難,我們希望能夠學習一個含有語義信息的緊湊中層視頻表達。因此,我們提出了一種新的有監(jiān)督概率圖模型:類相關受限玻爾茲曼機(Relevance Restricted Boltzmann Machine, ReRBM),學習一種低維的隱語義表達用于復雜行為和事件分析。提出的模型在受限玻爾茲曼機(RBM)的基礎上進行了一些關鍵性擴展:1)將稀疏貝葉斯學習與RBM結合來學習具有區(qū)分力的與視頻類相關的隱含特征;2)將RBM中的二進制隨機隱含單元替換為非負線性單元來更好的解釋復雜視頻內容,并使得變分推理能夠適用于提出的模型;3)開發(fā)了有效的變分EM算法用于模型的參數估計和推理。我們在三個具有挑戰(zhàn)性的標準視頻數據集(Unstructured Social Activity Attribute、Event Video和Hollywood2)上對提出的模型進行了評估。實驗結果表明,相比其他的一些隱變量概率圖模型如圖五所示,提出的模型所學到的類相關特征提供了對視頻數據更具有區(qū)分力的語義描述,在分類準確率和檢索精度上獲得了最好結果,特別是在使用很少有標簽訓練樣本的情況下。這項工作發(fā)表在機器學習、神經信號處理領域頂級國際會議NIPS 2013上,其擴展后的版本被計算機視覺領域頂級國際期刊IJCV 2016發(fā)表。

圖 4 不同類型的活動 (簡單動作、結構化活動、非結構化群體事件)


圖5 基于類相關受限玻爾茲曼機的視頻表達

4.采用雙通道卷積神經網絡的基于行走行為的身份識別


基于行走行為的身份識別,即步態(tài)識別一般指的是給定一個步態(tài)序列,要求從一個匹配庫中找出與之最相似的序列,從而確定所給定序列中人的身份。步態(tài)是遠距離、非受控情況下唯一可感知的生物特征,使用范圍可遠達50米,在遠距離大范圍的視覺監(jiān)控場合具有不可替代的應用前景和研究價值。我們提出的方法處理的是預先提取好的步態(tài)能量圖(Gait Energy Images,GEI),步態(tài)能量圖是將視頻序列中提取出的行人剪影對齊后沿時間維度平均得到的一種2D的灰度圖像。首先,考慮到基于步態(tài)能量圖的步態(tài)識別中局部細節(jié)差異的重要性,多點的局部比較應該會優(yōu)于一次全局比較;其次,兩個處于不同視角的樣本可能會在表觀上出現(xiàn)巨大的差異,如果只考慮比較單元自己的局部區(qū)域,將很難捕捉到足夠的信息進行比較;另外還需要判別式地學習特征和比較模型。以上的三點都可以在一個深度卷積神經網絡中實現(xiàn),從而我們提出了基于上下文的跨視角步態(tài)識別方法如圖六所示,在極為困難的同時跨視角和行走狀態(tài)的任務中,也能夠達到足夠讓人接受的識別效率。


圖6 步態(tài)識別流程圖與提出的模型結構圖