人臉識(shí)別技術(shù)的發(fā)展近來(lái)可謂突飛猛進(jìn),目前已經(jīng)有一些商業(yè)軟件可以用來(lái)識(shí)別照片中人物的性別,當(dāng)照片中的人是白人時(shí),99%的情況下識(shí)別結(jié)果都是正確的,但如果照片中是黑人,錯(cuò)誤率就比較高了。人臉識(shí)別技術(shù)在識(shí)別不同種族和性別的人臉時(shí),效果有多大的不同呢?一項(xiàng)新的研究對(duì)此進(jìn)行了測(cè)量,結(jié)果表明,膚色越黑,識(shí)別率就越低。在識(shí)別黑皮膚女性時(shí),它的錯(cuò)誤率幾乎達(dá)到了35%。
MIT媒體實(shí)驗(yàn)室的研究員喬伊o布蘭威尼(Joy Buolamwini)進(jìn)行的這項(xiàng)研究,顯示了現(xiàn)實(shí)世界中的一些偏見(jiàn)已經(jīng)滲透到了人工智能(AI)領(lǐng)域,因?yàn)槿四樧R(shí)別技術(shù)就是建立在AI之上的。
在機(jī)器視覺(jué)技術(shù)中,顏色很重要
使用微軟、IBM和Face ++的人臉識(shí)別算法在識(shí)別黑人女性時(shí),錯(cuò)誤率高于識(shí)別白人男性。
在一組385張膚色較白的男性照片中,性別判斷的錯(cuò)誤率為1%。
在一組296張膚色較白的女性照片中,性別判斷的錯(cuò)誤率為7%。
在一組318張膚色較黑的男性照片中,性別判斷的錯(cuò)誤率為12%。
在一組271張膚色較黑的女性照片中,性別判斷的錯(cuò)誤率為35%。
在現(xiàn)代AI技術(shù)中,數(shù)據(jù)是關(guān)鍵。 用來(lái)訓(xùn)練AI的數(shù)據(jù)有多好,AI效果就會(huì)有多好。如果訓(xùn)練數(shù)據(jù)中的白人男性比黑人女性多,那么它識(shí)別黑人女性的能力就比較差。另一項(xiàng)研究報(bào)告顯示,在一種獲得廣泛使用的人臉識(shí)別數(shù)據(jù)集中,75%以上的圖像都是男性,80%以上是白人。因此這項(xiàng)新的研究就提出了一個(gè)問(wèn)題:當(dāng)AI獲得的投資額和采用量日益增長(zhǎng)時(shí),AI的公平性和問(wèn)責(zé)性又該怎么保證呢?
今天,商業(yè)公司正以各種方式部署人臉識(shí)別軟件,其中就包括根據(jù)社交媒體上的資料圖片來(lái)對(duì)產(chǎn)品進(jìn)行精準(zhǔn)宣傳。但是,一些公司也正在嘗試把人臉識(shí)別和其他AI技術(shù)納入到一些自動(dòng)決策過(guò)程中,比如招聘和貸款決策。喬治城大學(xué)法學(xué)院的研究人員估計(jì),執(zhí)法部門(mén)的人臉識(shí)別網(wǎng)絡(luò)涵蓋了1.17億美國(guó)成年人的數(shù)據(jù)(警方拍攝的罪犯或嫌疑犯的面部照片),而非洲裔美國(guó)人最有可能被挑出來(lái),因?yàn)樗麄冊(cè)谶@個(gè)數(shù)據(jù)庫(kù)中占的比例格外高。
人臉識(shí)別技術(shù)受到的監(jiān)管還很少
猶他大學(xué)計(jì)算機(jī)科學(xué)教授Suresh Venkatasubramanian說(shuō):“現(xiàn)在是時(shí)候了,我們要認(rèn)真研究AI系統(tǒng)的工作方式和問(wèn)題,要從社會(huì)角度向它們問(wèn)責(zé)。”之前已經(jīng)有一些計(jì)算機(jī)視覺(jué)技術(shù)犯錯(cuò)的例子,顯示存在著歧視。例如在2015年,谷歌的圖像識(shí)別照片app把非洲裔美國(guó)人標(biāo)記為“大猩猩”,后來(lái)谷歌為此道了歉。哈弗福德學(xué)院的計(jì)算機(jī)科學(xué)家索列爾o弗里德勒(Sorelle Friedler)說(shuō),專(zhuān)家們?cè)缇蛻岩扇四樧R(shí)別軟件對(duì)不同人群的效果不同?!暗@是我所知道的第一個(gè)顯示存在這種不同的研究,”弗里德勒說(shuō)。
28歲的布蘭威尼是非裔美國(guó)計(jì)算機(jī)科學(xué)家,曾經(jīng)歷過(guò)人臉識(shí)別偏見(jiàn)。她在喬治亞理工學(xué)院就讀本科時(shí),人臉識(shí)別技術(shù)對(duì)她的白人朋友們來(lái)說(shuō)效果很好,但是卻無(wú)法識(shí)別出她的臉。她當(dāng)時(shí)覺(jué)得這個(gè)缺陷在不久之后就會(huì)修復(fù)。但是幾年后,當(dāng)她進(jìn)入MIT媒體實(shí)驗(yàn)室時(shí),又再次遇到了這個(gè)問(wèn)題——只有當(dāng)她戴上白色面具后,軟件才能將她的臉識(shí)別出來(lái)。那時(shí),人臉識(shí)別軟件正在日益走出實(shí)驗(yàn)室,進(jìn)入主流社會(huì)。“這是個(gè)很?chē)?yán)肅的問(wèn)題,”她回憶說(shuō)。 “是時(shí)候做點(diǎn)事情了?!庇谑撬龑⒆⒁饬D(zhuǎn)向與數(shù)字技術(shù)中的偏見(jiàn)作斗爭(zhēng)。布蘭威尼現(xiàn)在在讀博,作為羅德學(xué)者和富布賴(lài)特研究員,她倡導(dǎo)“算法問(wèn)責(zé)制”,致力于讓自動(dòng)化決策變得更加透明、有解釋力,以及公平。她在TED上關(guān)于“編碼偏見(jiàn)”的演講視頻瀏覽量已經(jīng)超過(guò)94萬(wàn)次,她還創(chuàng)立了 “算法正義聯(lián)盟”,這個(gè)項(xiàng)目旨在增進(jìn)人們對(duì)這個(gè)問(wèn)題的認(rèn)識(shí)。
對(duì)三家公司人臉識(shí)別軟件進(jìn)行的實(shí)驗(yàn)
布蘭威尼將在本月一個(gè)會(huì)議上介紹一篇最新發(fā)表的論文。她為這篇論文研究了微軟、IBM和中國(guó)曠視科技這三家公司的人臉識(shí)別系統(tǒng)的性能,對(duì)它們識(shí)別不同膚色用戶(hù)的性別的效果進(jìn)行了衡量。她之所以選擇這些公司,是因?yàn)樗鼈兊娜四樂(lè)治鲕浖峁┝诵詣e判斷功能,并且它們的代碼已經(jīng)公開(kāi)發(fā)布,可以用來(lái)測(cè)試。
她發(fā)現(xiàn),這三家公司軟件的識(shí)別效果有待提高。布蘭威尼為該測(cè)試建立了一個(gè)數(shù)據(jù)集,共有1270張人臉,使用的是女議員較多的國(guó)家的議員面部圖像,包括三個(gè)以黑皮膚為主的非洲國(guó)家,以及三個(gè)以白皮膚為主的北歐國(guó)家。然后她根據(jù)皮膚科醫(yī)生使用的 “六點(diǎn)標(biāo)志體系”對(duì)非洲和北歐的這些人臉資料進(jìn)行評(píng)分,對(duì)皮膚進(jìn)行分類(lèi)。相對(duì)于種族分類(lèi),醫(yī)學(xué)分類(lèi)更加客觀和準(zhǔn)確。她再對(duì)這些人臉圖像進(jìn)行性別和膚色上的取舍,然后使用三家公司的軟件來(lái)識(shí)別它們。微軟識(shí)別黑皮膚女性的錯(cuò)誤率是21%,而IBM和Megvii的錯(cuò)誤率則接近35%。三家公司在識(shí)別白皮膚男性時(shí)的錯(cuò)誤率都低于1%。
布蘭威尼發(fā)布這項(xiàng)研究的成果之后。 IBM發(fā)表聲明說(shuō),該公司已經(jīng)穩(wěn)步改善了人臉?lè)治鲕浖?鄭重致力于“不帶偏見(jiàn)”和“透明度”。IBM表示將在本月推出的軟件升級(jí)版在識(shí)別膚色較深的女性時(shí),精確度會(huì)提高近10倍。微軟則表示它已經(jīng)“已經(jīng)采取措施來(lái)提高人臉識(shí)別技術(shù)的準(zhǔn)確性”,并且正在投入資源,研究如何“識(shí)別、理解和消除偏見(jiàn)”。
布蘭威尼說(shuō),曠視科技的Face ++軟件廣泛應(yīng)用于中國(guó)的在線(xiàn)支付和網(wǎng)約車(chē)服務(wù),但該公司沒(méi)有回復(fù)置評(píng)請(qǐng)求。布蘭威尼發(fā)布了她的數(shù)據(jù)集,供其他人使用。她稱(chēng)自己的研究是“解決方案的起點(diǎn),基本上是第一步”。布蘭威尼還采取了進(jìn)一步的行動(dòng),她與IEEE(一家大型計(jì)算機(jī)專(zhuān)業(yè)組織)合作,成立了一個(gè)團(tuán)隊(duì),為人臉?lè)治鲕浖贫▎?wèn)責(zé)制和透明度標(biāo)準(zhǔn)。她還定期與其他關(guān)注AI影響的學(xué)者、公共政策組織和慈善機(jī)構(gòu)會(huì)面。福特基金會(huì)主席達(dá)倫o沃克(Darren Walker)表示,這種新技術(shù)可能是一個(gè)“機(jī)會(huì)平臺(tái)”,但如果它復(fù)制并放大了過(guò)去的偏見(jiàn)和歧視,就發(fā)揮不了作用。沃克說(shuō):“數(shù)字世界正在進(jìn)行一場(chǎng)公平、包容和正義之戰(zhàn)?!?