審視人臉識別:一種AI技術的全球性濫用( 二 )


當人臉識別大規模鋪開使用摁下了加速鍵之后 , 越來越多人意識到 , 人臉識別的方向和速度產生了偏差 。
抵制人臉識別的關鍵詞之一:
偏見
根據任務 , 現代人臉識別系統可以簡單劃分為兩類:將人臉與大型數據庫進行匹配的一對多識別系統以及更簡單的一對一驗證系統 。 相較前者 , 一對一驗證只涉及確認一個人與自己的照片相匹配 , 主要應用于解鎖智能手機、護照檢查之類的場景 。
一個典型的人臉識別系統 , 第一階段會在圖像中定位一個或多個人臉角度 。 例如 , 在各種照明條件下和從不同角度觀看監視攝像機饋送中的人臉 , 下一個任務是 “標準化” 人臉 , 將被拍攝對象旋轉為正面 , 保證照明良好的視圖 。 這產生了一組人臉 “特征” , 可以與從現有人臉數據庫中提取的人臉 “特征” 進行比較 。 通常包括在受控條件下拍攝的照片 , 例如警方使用的照片 。 由于要素表示形式是結構化的文件 , 計算機可以快速掃描數百萬個文件以找到最接近的匹配項 。
無論是哪一類任務 , 自大約 10 年前將 “深度學習” 技術引入該領域以來 , 識別的準確性得到了極大提高 。 但是 , 這是否意味著人臉識別足夠用于現實世界?
在人臉識別領域 , 有一個已經進行了 20 余年重要的基準測試 。 那就是由美國國家標準技術研究院(NIST)主導的國際權威人臉識別供應商測試 FRVT (Face Recognition Vendor Test) 。
NIST 擁有規模達到百萬量級的人臉數據 , 且均來自真實業務場景 。 NIST 會根據自己的圖像數據集來衡量學術機構或者企業提交的人臉識別系統性能 。 由于測試數據不公開 (盲測) , 參賽的算法團隊無法利用測試數據做模型訓練 , 相對于 LFW、MegaFace 而言 , FRVT 則更能體現測試的公正性 。
2019 年下半年 , NIST 發布了一份報告 , 描述了人臉識別在 2018 年期間的巨大進步 , 包括一對多搜索和一對一驗證兩大任務 。 NIST 圖像小組負責人的電氣工程師 Craig Watson 表示:“我們發現人臉識別的準確性有了顯著提高 , 這很大程度上是得益于卷積神經網絡的出現 。 ”
NIST 發現 , 算法現在可以從戶外拍攝的個人資料圖像中識別出人 , 并與數據庫中的正面視圖相匹配 , 其準確度已經和十年前最好的人臉識別軟件識別正面圖像相同 。 NIST 研究人員寫道 , “這在人臉識別的長期研究中是一個里程碑” 。
但是 NIST 也證實了 2018 年一項捅破了 “紙窗戶” 的研究 。
2018 年 , 計算機科學家 Timnit Gebru(美國人工智能領域僅有的幾位黑人女性計算機科學家之一 。 )發表的研究結果 , 首次揭示了商業人臉識別系統的缺陷:人臉識別針對黑人、女性的錯誤率高達 21%~35% , 而針對白人、男性的錯誤率則低于 1% 。 黑人女性有 20%~30% 的概率被識別錯誤 , 產生誤會 。 也就是說 , 如果是在警用安保等場景下 , 后果可能會非常嚴重 。
NIST 的數據庫顯示 , 被歸類為非裔美國人或亞洲人的面孔 , 比被歸類為白人的面孔被算法誤認的可能性高 10-100 倍 。 與男性相比 , 女性被誤判的概率會更高 。
NIST 科學家 Watson 說 , 這種不準確性很可能反映了每家公司訓練數據庫的組成不平衡 。 數據科學家通常將這種不平衡描述為 “垃圾進 , 垃圾出” 。
因此 , 大量要求暫?;蚪谷四樧R別軟件的呼吁 , 都會頻繁經常提到對人口統計學偏見的擔憂 。
甚至在今年 6 月 , 全球最大的計算機科學學術共同體 ACM 也發表聲明 , 敦促私人和政府停止使用人臉識別技術 , 因為 “基于種族 , 種族 , 性別和其他人類的明顯偏見特征” , 將損害特定人口群體的個人權利 。

推薦閱讀