「看臉識罪犯」?這樣的研究能發表,LeCun等1700名研究者怒了

如何科學認識罪犯

魚羊 發自 凹非寺

量子位 報道 | 公眾號 QbitAI

看面相,就能算出一個人會不會犯罪?

這種《少數派報告》式的研究,還真有人做了:依靠面部識別技術,僅憑照片,來預測某個人是否是罪犯。

論文被學術出版商Springer Nature接收,計劃刊載在《Springer Nature-研究叢書:計算科學與計算智慧學報》上。

「看臉識罪犯」?這樣的研究能發表,LeCun等1700名研究者怒了

這個訊息,讓包括LeCun在內的,來自哈佛、MIT、谷歌和微軟等機構的1700名教授、研究人員怒了:

這種論文寫出來也就算了,Springer Nature這個看上去濃眉大眼的學術出版商,竟然還要公開刊載?

「看臉識罪犯」?這樣的研究能發表,LeCun等1700名研究者怒了

於是,他們給Springer Nature寫了一封聯名信,嚴正要求出版商撤回論文,並承諾不再發表類似研究。

機器學習,反而會放大歧視

儘管論文的作者稱,其演算法具有「80%的準確性,並且沒有種族偏見」,但聯名發信的AI研究者們認為:

根本沒有辦法開發出沒有種族偏見的預測犯罪系統,因為資料本身就是含有偏見的。

所謂「沒有種族偏見」,實際上是把演算法偏見和社會偏見混為一談。

信中強調了這樣的觀點:

刑事司法系統產生的資料不能用於「識別罪犯」或預測犯罪行為

「看臉識罪犯」?這樣的研究能發表,LeCun等1700名研究者怒了

要用讓AI透過看「面向」,預測犯罪,看似不偏不倚,但實際上基於一個假設前提:有關犯罪逮捕和定罪的資料,都是可靠、中立、無偏見的。

然鵝,引爆全美的喬治·弗洛伊德事件已經再一次用事實表明,這個假設是不成立的——這些資料當中,本身就記錄了現實中存在的社會偏見。

信中談到,這一關乎資料有效性的基本問題,無法透過資料清洗和收集更多資料來解決。

即使研究人員本身不帶有任何偏見,機器學習模型也會繼承資料集中的偏見,甚至放大歧視性結果。

此外,還有一個更重要的問題。

人臉識別技術之所以能取得現在的成績,是因為涉及到的任務不存在不確定性。舉個例子,給出兩張照片,AI只需要判斷是不是同一個人就行了。

但是,面部特徵和犯罪,真的存在這樣的邏輯關係嗎?

「犯罪身體特徵」,恐怕根本是個偽命題。

「看臉識罪犯」?這樣的研究能發表,LeCun等1700名研究者怒了

因此,

犯罪預測技術,再現了不公正現象,並且有害

於是,1700名來自多個研究領域的教授、研究者聯名要求:

撤銷該論文的公開發表,並解釋用於評估該研究的標準。

Springer發表宣告,譴責使用刑事司法統計資料預測犯罪行為的做法,並承認錯誤。

所有出版商今後不要出版類似研究。

網友熱議

聯名倡議一經發出,獲得了眾多響應,並在社交媒體上引發了網友的熱烈討論。

有網友提到了斯皮爾伯格的《少數派報告》,AI就像裡面的“先知”,根據預測提出的指示/建議甚至可能完全不可靠。

這樣的研究就是危險的sh*t。

「看臉識罪犯」?這樣的研究能發表,LeCun等1700名研究者怒了

「看臉識罪犯」?這樣的研究能發表,LeCun等1700名研究者怒了

還有網友認為,依據面部影象去識別罪犯,這種想法並沒有比讓麥當勞透過面相,預測你今天是要吃麥辣雞腿堡還是板燒雞腿堡高明。

「看臉識罪犯」?這樣的研究能發表,LeCun等1700名研究者怒了

也有人擔心,這樣的“客觀”演算法會成為執法部門掩蓋歧視、不公正的藉口。

壓力之下,Springer Nature也已作出迴應:不會發表這篇文章。

「看臉識罪犯」?這樣的研究能發表,LeCun等1700名研究者怒了

參考連結

https://medium。com/@CoalitionForCriticalTechnology/abolish-the-techtoprisonpipeline-9b5b14366b16

https://www。vice。com/en_us/article/889xyb/over-1000-ai-experts-condemn-racist-algorithms-that-claim-to-predict-crime

https://www。reddit。com/r/MachineLearning/comments/heiyqq/dr_a_letter_urging_springer_nature_not_to_publish/

— 完 —

量子位 QbitAI · 頭條號簽約

關注我們,第一時間獲知前沿科技動態