06.08 CVPR 2018:劍橋大學等研發“暴力行為”檢測系統,用無人機精準識別人群暴力

CVPR 2018:劍橋大學等研發“暴力行為”檢測系統,用無人機精準識別人群暴力

來自英國劍橋大學、印度國家技術研究院和印度科學理工學院的研究人員研發了一種利用無人機的“暴力行為”檢測系統,能夠識別人群中踢打、刺傷或掐脖子等暴力動作,準確率達到85%以上。研究人員稱,該系統可用於在馬拉松和音樂節等戶外活動中通過無人機自動發現暴力事件。研究論文已被CVPR 2018接受。

一種無人機監控系統,可以實時地在人群中監測到“暴力分子”。這種技術已經被開發出來了。

這種AI技術利用懸停式四軸飛行器上的攝像頭來檢測每個人的身體動作。然後,當系統識別出攻擊性的行為,如拳打、腳踢、刺殺、射擊、掐脖子等時,它就會發出警報,準確率達到85%。它不識別人臉——只是監測人們之間可能的暴力行為。

CVPR 2018:剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

該系統的設計者分別來自英國劍橋大學、印度國家技術研究院和印度科學理工學院。研究者說,這個系統可以擴展到自動識別非法越境的人,在公共場所發現綁架事件,並在發現暴力行為時發出警報。他們希望這樣的自主間諜無人機可以幫助警察壓制犯罪,或幫助士兵在無辜群眾中找出敵人。

“執法機構已經在使用空中監視系統來監視大面積的區域,”研究人員在他們的論文中寫道,“各國政府最近在戰區部署無人機來監測敵人的行動,監視外國販毒組織,開展邊境管制行動以及在城市和農村地區監控犯罪活動。”論文中詳細介紹了這項技術,已被CVPR 2018接受。

“他們一般安排一名或多名士兵長時間地操控這些無人機,這使得這些系統容易因人為疲勞而出錯。”

CVPR 2018:剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

可用於檢測公共區域或大型聚會中的暴力分子姿態估計pipeline

研究者提出的新模型分兩步工作。首先,特徵金字塔網絡(一種卷積神經網絡)從無人機拍攝的畫面中檢測到個人。然後,使用一個ScatterNet網絡來分析和確定圖像中每個人的姿勢。

CVPR 2018:剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

身體的輪廓被分解為14個關鍵點

模型將身體的輪廓分解為14個關鍵點

,計算出一個人的手臂、腿和臉的位置,以識別訓練過程中指定的不同類型的暴力行為。

下面的視頻演示了系統如何工作:

該系統使用研究人員編制的“Aerial Violent Individual”數據集來訓練。有25個人被召集來演示打鬥、刺殺、射擊、踢打和掐脖子等動作,得到2000張帶註釋的圖像。每張圖片上一般有2到10個人,因此,這個系統現在還不能用於處理非常大的人群。

CVPR 2018:剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

AVI數據集中的暴力行為,包括掐脖子,拳打,腳踢,射擊和刺殺

當系統需要處理的人數更少時,準確率最高。比如一張圖片上只有一個人,系統的準確率為94.1%,但有5個人時,準確率就降到了84%,10個人時準確率降到79.8%。該論文的合作者Amarjot Singh說:“準確性下降主要是因為系統沒有檢測到其中的一些人。”

CVPR 2018:剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

檢測不同暴力行為的準確率

CVPR 2018:剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

檢測不同人數時的準確率

很難判斷這個無人機系統到底有多準確,因為它還沒有在真實環境下對普通人群進行測試——測試者僅僅是研究團隊招募來的志願者。也就是說,它是用假裝相互打鬥的數據訓練的,測試也是同樣。而且,它是一個研究項目,還不是商業產品。

CVPR 2018:剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

左圖展示了在人體上註釋的14個身體關鍵點。 右圖展示了ParrotAR 無人機捕獲數據集中的圖像以及幾個註釋關鍵點的特寫。

當無人機在2米、4米、6米和8米高處時,輸入系統的圖像也被記錄下來。這就能知道它離人群有多近。考慮到無人機飛行的聲音很大,在真正的人群和鬥毆行為中,這些無人機會在幾百英尺之外,一定程度上降低了能見度。

CVPR 2018:剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

圖:僅使用無人機在2m(第1排),4m(第2排),6m(第3排)和8m(第4排)四個不同高度記錄的僅有一個暴力分子的無人機監視系統(DSS)

實時視頻分析是使用兩個Nvidia Tesla GPU實時地在Amazon的雲服務上進行的,而無人機的內置硬件可以指揮其飛行動作。該技術是在本地機器上使用單個Tesla GPU進行訓練的。

“該系統以每秒5幀到16幀的速度在空中實時拍攝的影像中檢測到暴力分子,最多檢測10人,最少2人。”論文指出。

爭議:技術被惡意使用的風險

在雲端執行推理有潛在的安全和隱私風險,因為要將人們的視頻傳輸到第三方計算系統中。為了減少法律上的麻煩,訓練好的神經網絡處理無人機在雲中接收到的每幀圖像,在處理完後就將圖像刪除。

“這增加了數據安全層,因為我們只是在需要的時候才把數據保存在雲上,”劍橋大學博士生Singh說。

使用AI進行監視很令人關注。類似的面部識別技術,如亞馬遜的Rekognition服務,已經被美國警方採用。這些系統經常受到高誤報率的困擾,或者根本就不準確,所以像這樣的技術要和無人機結合還需要一段時間。

有趣的是,谷歌和Facebook最近也發表了一些研究,表明神經網絡可以用來跟蹤姿勢,專家們也對神經網絡如何用於數字監視或軍事目的提出了擔憂。現在,無人機監測暴力分子的研究證明了這是可能的。

研究人員使用 Parrot AR無人機(價格相當便宜)進行實驗。運行也很便宜。這個實驗在亞馬遜的平臺上運行,每小時花費0.1美元,所以系統經過訓練後的運行不會太貴。

Singh承認,“人們可能會把這個系統用於惡意應用程序,但訓練這樣的系統將需要大量的數據和大量的資源。我希望有一些監督能夠避免濫用這種技術。”

但他認為業餘愛好者為了惡意的原因重新編程無人機的擔憂是沒有根據的。 “購買無人機確實很容易,但設計一種能夠識別暴力個體的算法需要一定的專業知識,涉及設計不易獲得的深層系統,我不認為這些系統很容易實現,”他說。

研究人員計劃在兩個音樂節期間在真實環境中測試他們的系統,並監測印度的國界。 如果表現良好,他們希望未來將其商業化。


分享到:


相關文章: