Python+OpenCV實現AI人臉識別身份認證系統!真不難

最近一直在研究AI人臉識別身份認證,發現目前網上的識別Demo都是小Demo,非常零散,最近在GitHub上見到一位大神開源人臉識別項目,效果顯著,遂將其整理優化,介紹項目實現原理和機制。

本系統項目最終效果如下:

Python+OpenCV實現AI人臉識別身份認證系統!真不難

本項目的實現機制:基於OpenCV使用Haar級聯與dlib庫進行人臉檢測及實時跟蹤,應用LBPH算法開發了一個功能相對完整的人臉識別系統。系統採用sqlite3進行序列化數據存儲,能夠對陌生人臉闖入進行報警,並擁有基於PyQt5設計的GUI實現。

接下來從原理到項目實踐進行剖析。

人臉識別流程

人臉識別是由一系列的幾個相關問題組成的:

  1. 首先找到一張圖片中的所有人臉。
  2. 對於每一張臉來說,無論光線明暗或面朝別處,它依舊能夠識別出是同一個人的臉。
  3. 能夠在每一張臉上找出可用於他人區分的獨特之處,比如眼睛多大,臉有多長等。
  4. 最後將這張臉的特點與已知所有人臉進行比較,以確定這個人是誰。

1

人臉檢測,找出所有的面孔

很顯然在我們在人臉識別的流程中得首先找到圖片中的人臉。我們得感謝 保羅·比奧拉(Paul Viola)和邁克爾·瓊斯(Michael Jones)在2000年發明了一種能夠快速在廉價相機上運行的人臉檢測方法,人臉檢測在相機上的應用才成為主流。然而現在我們有更可靠的解決方案Haar,一種能夠檢測物體輪廓的算法。首先我們把圖片灰度化,因為顏色信息對於人臉檢測而言沒什麼用。

Python+OpenCV實現AI人臉識別身份認證系統!真不難

我們分析每個像素以及其周圍的像素,根據明暗度畫一個箭頭,箭頭的指向代表了像素逐漸變暗的方向,如果我們重複操作每一個像素,最終像素會被箭頭取代。這些箭頭被稱為梯度(gradients),它們能顯示出圖像從明亮到黑暗流動的過程。

Python+OpenCV實現AI人臉識別身份認證系統!真不難

分析每個像素對我們來說有點不划算,因為它太過細節化了,我們可能會迷失在像素的海洋裡,我們應該從更高的角度觀察明暗的流動。為此我們將圖像分割成16x16像素的小方塊。在每個小方塊中,計算出每個主方向有多少個梯度(有多少指向上,指向右上,指向右等)。然後用指向性最強的那個方向箭頭來代替原來那個小方塊。

Python+OpenCV實現AI人臉識別身份認證系統!真不難

最終結果,我們把原始圖像轉換成一個非常簡單的HOG表達形式,它可以很輕鬆的捕獲面部的基本結構。為了在HOG圖像中找到臉部,我們需要做的是,與已知的一些HOG圖案中,看起來最相似的部分。這些HOG圖案都是從其他面部訓練數據中提取出來的。

2

臉部的不同姿勢


我們已經找出了圖片中的人臉,那麼如何鑑別面朝不同方向的人臉呢?

對於電腦來說朝向不同的人臉是不同的東西,為此我們得適當的調整扭曲圖片中的人臉,使得眼睛和嘴總是與被檢測者重疊。為了達到目的我們將使用一種面部特徵點估計(face landmark estimation)的算法。其實還有很多算法都可以做到,但我們這次使用的是由瓦希德·卡奇米(Vahid Kazemi)和約瑟菲娜·沙利文(Josephine Sullivan)在 2014 年發明的方法。這一算法的基本思路是找到68個人臉上普遍存在的點(稱為特徵點, landmark)。

Python+OpenCV實現AI人臉識別身份認證系統!真不難

  • 下巴輪廓17個點 [0-16]
  • 左眉毛5個點 [17-21]
  • 右眉毛5個點 [22-26]
  • 鼻樑4個點 [27-30]
  • 鼻尖5個點 [31-35]
  • 左眼6個點 [36-41]
  • 右眼6個點 [42-47]
  • 外嘴唇12個點 [48-59]
  • 內嘴唇8個點 [60-67]

有了這68個點,我們就可以輕鬆的知道眼睛和嘴巴在哪兒了,後續我們將圖片進行旋轉,縮放和錯切,使得眼睛和嘴巴儘可能的靠近中心。

現在人臉基本上對齊了,這使得下一步更加準確。

3

給臉部編碼

我們還有個核心的問題沒有解決, 那就是如何區分不同的人臉。

最簡單的方法就是把我們第二步中發現的未知人臉與我們已知的人臉作對比。當我們發現未知的面孔與一個以前標註過的面孔看起來相似的時候,就可以認定他們是同一個人。

我們人類能通過眼睛大小,頭髮顏色等等信息輕鬆的分辨不同的兩張人臉,可是電腦怎麼分辨呢?沒錯,我們得量化它們,測量出他們的不同,那要怎麼做呢?

實際上,對於人臉這些信息很容易分辨,可是對於計算機,這些值沒什麼價值。實際上最準確的方法是讓計算機自己找出他要收集的測量值。深度學習比人類更懂得哪些面部測量值比較重要。

所以,解決方案是訓練一個深度卷積神經網絡,訓練讓它為臉部生成128個測量值。

每次訓練要觀察三個不同的臉部圖像:

  1. 加載一張已知的人的面部訓練圖像;
  2. 加載同一個人的另一張照片;
  3. 加載另外一個人的照片。

然後,算法查看它自己為這三個圖片生成的測量值。再然後,稍微調整神經網絡,以確保第一張和第二張生成的測量值接近,而第二張和第三張生成的測量值略有不同。我們要不斷的調整樣本,重複以上步驟百萬次,這確實是個巨大的挑戰,但是一旦訓練完成,它能夠輕鬆的找出人臉。

慶幸的是 OpenFace 上面的大神已經做完了這些,並且他們發佈了幾個訓練過可以直接使用的網絡,我們可以不用部署複雜的機器學習,開箱即用,感謝開源精神。

Python+OpenCV實現AI人臉識別身份認證系統!真不難

這128個測量值是什麼鬼?

其實我們不用關心,這對我們也不重要。我們關心的是,當看到同一個人的兩張不同照片時,我們的網絡需要能得到幾乎相同的數值。

4

從編碼中找出人的名字

後一步實際上是最簡單的一步,我們需要做的是找到數據庫中與我們的測試圖像的測量值最接近的那個人。

如何做呢,我們利用一些現成的數學公式,計算兩個128D數值的歐氏距離。

Python+OpenCV實現AI人臉識別身份認證系統!真不難

這樣我們得到一個歐式距離值,系統將給它一個認為是同一個人歐氏距離的閥值,即超過這個閥值我們就認定它們是 同 (失) 一 (散) 個 (兄) 人 (弟)。

人臉識別就這樣達成啦,來來我們再回顧下流程:

  1. 使用Haar找出圖片中檢測人臉,所有人臉的位置;
  2. 計算出人臉的68個特徵點並適當的調整人臉位置,對齊人臉;
  3. 把上一步得到的面部圖像放入神經網絡,得到128個特徵測量值,並保存它們;
  4. 與我們以前保存過的測量值一併計算歐氏距離,得到歐氏距離值,比較數值大小,即可得到是否同一個人。


分享到:


相關文章: