「看臉識罪犯」?這樣的研究能發表,LeCun等1700名研究者怒了
如何科學認識罪犯
魚羊 發自 凹非寺
量子位 報道 | 公眾號 QbitAI
看面相,就能算出一個人會不會犯罪?
這種《少數派報告》式的研究,還真有人做了:依靠面部識別技術,僅憑照片,來預測某個人是否是罪犯。
論文被學術出版商Springer Nature接收,計劃刊載在《Springer Nature-研究叢書:計算科學與計算智慧學報》上。
這個訊息,讓包括LeCun在內的,來自哈佛、MIT、谷歌和微軟等機構的1700名教授、研究人員怒了:
這種論文寫出來也就算了,Springer Nature這個看上去濃眉大眼的學術出版商,竟然還要公開刊載?
於是,他們給Springer Nature寫了一封聯名信,嚴正要求出版商撤回論文,並承諾不再發表類似研究。
機器學習,反而會放大歧視
儘管論文的作者稱,其演算法具有「80%的準確性,並且沒有種族偏見」,但聯名發信的AI研究者們認為:
根本沒有辦法開發出沒有種族偏見的預測犯罪系統,因為資料本身就是含有偏見的。
所謂「沒有種族偏見」,實際上是把演算法偏見和社會偏見混為一談。
信中強調了這樣的觀點:
刑事司法系統產生的資料不能用於「識別罪犯」或預測犯罪行為
。
要用讓AI透過看「面向」,預測犯罪,看似不偏不倚,但實際上基於一個假設前提:有關犯罪逮捕和定罪的資料,都是可靠、中立、無偏見的。
然鵝,引爆全美的喬治·弗洛伊德事件已經再一次用事實表明,這個假設是不成立的——這些資料當中,本身就記錄了現實中存在的社會偏見。
信中談到,這一關乎資料有效性的基本問題,無法透過資料清洗和收集更多資料來解決。
即使研究人員本身不帶有任何偏見,機器學習模型也會繼承資料集中的偏見,甚至放大歧視性結果。
此外,還有一個更重要的問題。
人臉識別技術之所以能取得現在的成績,是因為涉及到的任務不存在不確定性。舉個例子,給出兩張照片,AI只需要判斷是不是同一個人就行了。
但是,面部特徵和犯罪,真的存在這樣的邏輯關係嗎?
「犯罪身體特徵」,恐怕根本是個偽命題。
因此,
犯罪預測技術,再現了不公正現象,並且有害
。
於是,1700名來自多個研究領域的教授、研究者聯名要求:
撤銷該論文的公開發表,並解釋用於評估該研究的標準。
Springer發表宣告,譴責使用刑事司法統計資料預測犯罪行為的做法,並承認錯誤。
所有出版商今後不要出版類似研究。
網友熱議
聯名倡議一經發出,獲得了眾多響應,並在社交媒體上引發了網友的熱烈討論。
有網友提到了斯皮爾伯格的《少數派報告》,AI就像裡面的“先知”,根據預測提出的指示/建議甚至可能完全不可靠。
這樣的研究就是危險的sh*t。
還有網友認為,依據面部影象去識別罪犯,這種想法並沒有比讓麥當勞透過面相,預測你今天是要吃麥辣雞腿堡還是板燒雞腿堡高明。
也有人擔心,這樣的“客觀”演算法會成為執法部門掩蓋歧視、不公正的藉口。
壓力之下,Springer Nature也已作出迴應:不會發表這篇文章。
參考連結
https://medium。com/@CoalitionForCriticalTechnology/abolish-the-techtoprisonpipeline-9b5b14366b16
https://www。vice。com/en_us/article/889xyb/over-1000-ai-experts-condemn-racist-algorithms-that-claim-to-predict-crime
https://www。reddit。com/r/MachineLearning/comments/heiyqq/dr_a_letter_urging_springer_nature_not_to_publish/
— 完 —
量子位 QbitAI · 頭條號簽約
關注我們,第一時間獲知前沿科技動態