在线看毛片网站电影-亚洲国产欧美日韩精品一区二区三区,国产欧美乱夫不卡无乱码,国产精品欧美久久久天天影视,精品一区二区三区视频在线观看,亚洲国产精品人成乱码天天看,日韩久久久一区,91精品国产91免费

<menu id="6qfwx"><li id="6qfwx"></li></menu>
    1. <menu id="6qfwx"><dl id="6qfwx"></dl></menu>

      <label id="6qfwx"><ol id="6qfwx"></ol></label><menu id="6qfwx"></menu><object id="6qfwx"><strike id="6qfwx"><noscript id="6qfwx"></noscript></strike></object>
        1. <center id="6qfwx"><dl id="6qfwx"></dl></center>

            新聞中心

            EEPW首頁 > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 皮膚不白,會(huì)遭到人臉識(shí)別技術(shù)的 “歧視”?

            皮膚不白,會(huì)遭到人臉識(shí)別技術(shù)的 “歧視”?

            作者: 時(shí)間:2018-02-22 來源:騰訊科技 收藏

              《紐約時(shí)報(bào)》近日發(fā)表文章,稱技術(shù)的發(fā)展近來可謂突飛猛進(jìn),目前已經(jīng)有一些商業(yè)軟件可以用來識(shí)別照片中人物的性別,當(dāng)照片中的人是白人時(shí),99%的情況下識(shí)別結(jié)果都是正確的,但如果照片中是黑人,錯(cuò)誤率就比較高了。以下為原文內(nèi)容:

            本文引用地址:http://www.biyoush.com/article/201802/375869.htm

              技術(shù)在識(shí)別不同種族和性別的人臉時(shí),效果有多大的不同呢?一項(xiàng)新的研究對(duì)此進(jìn)行了測量,結(jié)果表明,膚色越黑,識(shí)別率就越低。在識(shí)別黑皮膚女性時(shí),它的錯(cuò)誤率幾乎達(dá)到了35%。

              MIT媒體實(shí)驗(yàn)室的研究員喬伊o布蘭威尼(Joy Buolamwini)進(jìn)行的這項(xiàng)研究,顯示了現(xiàn)實(shí)世界中的一些偏見已經(jīng)滲透到了人工智能()領(lǐng)域,因?yàn)?a class="contentlabel" href="http://www.biyoush.com/news/listbylabel/label/人臉識(shí)別">人臉識(shí)別技術(shù)就是建立在之上的。

              在計(jì)算機(jī)視覺技術(shù)中,顏色很重要

              使用微軟、IBM和Face ++的人臉識(shí)別算法在識(shí)別黑人女性時(shí),錯(cuò)誤率高于識(shí)別白人男性。

              

            皮膚不白,會(huì)遭到人臉識(shí)別技術(shù)的 “歧視”?

              在一組385張膚色較白的男性照片中,性別判斷的錯(cuò)誤率為1%。

              

            皮膚不白,會(huì)遭到人臉識(shí)別技術(shù)的 “歧視”?

              在一組296張膚色較白的女性照片中,性別判斷的錯(cuò)誤率為7%。

              

            皮膚不白,會(huì)遭到人臉識(shí)別技術(shù)的 “歧視”?

              在一組318張膚色較黑的男性照片中,性別判斷的錯(cuò)誤率為12%。

              

            皮膚不白,會(huì)遭到人臉識(shí)別技術(shù)的 “歧視”?

              在一組271張膚色較黑的女性照片中,性別判斷的錯(cuò)誤率為35%。

              在現(xiàn)代技術(shù)中,數(shù)據(jù)是關(guān)鍵。 用來訓(xùn)練AI的數(shù)據(jù)有多好,AI效果就會(huì)有多好。如果訓(xùn)練數(shù)據(jù)中的白人男性比黑人女性多,那么它識(shí)別黑人女性的能力就比較差。

              另一項(xiàng)研究報(bào)告顯示,在一種獲得廣泛使用的人臉識(shí)別數(shù)據(jù)集中,75%以上的圖像都是男性,80%以上是白人。

              因此這項(xiàng)新的研究就提出了一個(gè)問題:當(dāng)AI獲得的投資額和采用量日益增長時(shí),AI的公平性和問責(zé)性又該怎么保證呢?

              今天,商業(yè)公司正以各種方式部署人臉識(shí)別軟件,其中就包括根據(jù)社交媒體上的資料圖片來對(duì)產(chǎn)品進(jìn)行精準(zhǔn)宣傳。但是,一些公司也正在嘗試把人臉識(shí)別和其他AI技術(shù)納入到一些自動(dòng)決策過程中,比如招聘和貸款決策。

              喬治城大學(xué)法學(xué)院的研究人員估計(jì),執(zhí)法部門的人臉識(shí)別網(wǎng)絡(luò)涵蓋了1.17億美國成年人的數(shù)據(jù)(警方拍攝的罪犯或嫌疑犯的面部照片),而非洲裔美國人最有可能被挑出來,因?yàn)樗麄冊(cè)谶@個(gè)數(shù)據(jù)庫中占的比例格外高。

              人臉識(shí)別技術(shù)受到的監(jiān)管還很少

              猶他大學(xué)計(jì)算機(jī)科學(xué)教授Suresh Venkatasubramanian說:“現(xiàn)在是時(shí)候了,我們要認(rèn)真研究AI系統(tǒng)的工作方式和問題,要從社會(huì)角度向它們問責(zé)。”

              之前已經(jīng)有一些計(jì)算機(jī)視覺技術(shù)犯錯(cuò)的例子,顯示存在著歧視。例如在2015年,谷歌的圖像識(shí)別照片app把非洲裔美國人標(biāo)記為“大猩猩”,后來谷歌為此道了歉。

              哈弗福德學(xué)院的計(jì)算機(jī)科學(xué)家索列爾o弗里德勒(Sorelle Friedler)說,專家們?cè)缇蛻岩扇四樧R(shí)別軟件對(duì)不同人群的效果不同。

              “但這是我所知道的第一個(gè)顯示存在這種不同的研究,”弗里德勒說。

              28歲的布蘭威尼是非裔美國計(jì)算機(jī)科學(xué)家,曾經(jīng)歷過人臉識(shí)別偏見。她在喬治亞理工學(xué)院就讀本科時(shí),人臉識(shí)別技術(shù)對(duì)她的白人朋友們來說效果很好,但是卻無法識(shí)別出她的臉。她當(dāng)時(shí)覺得這個(gè)缺陷在不久之后就會(huì)修復(fù)。

              但是幾年后,當(dāng)她進(jìn)入MIT媒體實(shí)驗(yàn)室時(shí),又再次遇到了這個(gè)問題——只有當(dāng)她戴上白色面具后,軟件才能將她的臉識(shí)別出來。

              那時(shí),人臉識(shí)別軟件正在日益走出實(shí)驗(yàn)室,進(jìn)入主流社會(huì)。

              “這是個(gè)很嚴(yán)肅的問題,”她回憶說。 “是時(shí)候做點(diǎn)事情了。”

              于是她將注意力轉(zhuǎn)向與數(shù)字技術(shù)中的偏見作斗爭。布蘭威尼現(xiàn)在在讀博,作為羅德學(xué)者和富布賴特研究員,她倡導(dǎo)“算法問責(zé)制”,致力于讓自動(dòng)化決策變得更加透明、有解釋力,以及公平。

              她在TED上關(guān)于“編碼偏見”的演講視頻瀏覽量已經(jīng)超過94萬次,她還創(chuàng)立了 “算法正義聯(lián)盟”,這個(gè)項(xiàng)目旨在增進(jìn)人們對(duì)這個(gè)問題的認(rèn)識(shí)。

              對(duì)三家公司人臉識(shí)別軟件進(jìn)行的實(shí)驗(yàn)

              布蘭威尼將在本月一個(gè)會(huì)議上介紹一篇最新發(fā)表的論文。她為這篇論文研究了微軟、IBM和中國曠視科技這三家公司的人臉識(shí)別系統(tǒng)的性能,對(duì)它們識(shí)別不同膚色用戶的性別的效果進(jìn)行了衡量。她之所以選擇這些公司,是因?yàn)樗鼈兊娜四樂治鲕浖峁┝诵詣e判斷功能,并且它們的代碼已經(jīng)公開發(fā)布,可以用來測試。

              她發(fā)現(xiàn),這三家公司軟件的識(shí)別效果有待提高。

              布蘭威尼為該測試建立了一個(gè)數(shù)據(jù)集,共有1270張人臉,使用的是女議員較多的國家的議員面部圖像,包括三個(gè)以黑皮膚為主的非洲國家,以及三個(gè)以白皮膚為主的北歐國家。

              然后她根據(jù)皮膚科醫(yī)生使用的 “六點(diǎn)標(biāo)志體系”對(duì)非洲和北歐的這些人臉資料進(jìn)行評(píng)分,對(duì)皮膚進(jìn)行分類。相對(duì)于種族分類,醫(yī)學(xué)分類更加客觀和準(zhǔn)確。

              她再對(duì)這些人臉圖像進(jìn)行性別和膚色上的取舍,然后使用三家公司的軟件來識(shí)別它們。微軟識(shí)別黑皮膚女性的錯(cuò)誤率是21%,而IBM和Megvii的錯(cuò)誤率則接近35%。三家公司在識(shí)別白皮膚男性時(shí)的錯(cuò)誤率都低于1%。

              布蘭威尼發(fā)布這項(xiàng)研究的成果之后。 IBM發(fā)表聲明說,該公司已經(jīng)穩(wěn)步改善了人臉分析軟件,鄭重致力于“不帶偏見”和“透明度”。IBM表示將在本月推出的軟件升級(jí)版在識(shí)別膚色較深的女性時(shí),精確度會(huì)提高近10倍。

              微軟則表示它已經(jīng)“已經(jīng)采取措施來提高人臉識(shí)別技術(shù)的準(zhǔn)確性”,并且正在投入資源,研究如何“識(shí)別、理解和消除偏見”。

              布蘭威尼說,曠視科技的Face ++軟件廣泛應(yīng)用于中國的在線支付和網(wǎng)約車服務(wù),但該公司沒有回復(fù)置評(píng)請(qǐng)求。

              布蘭威尼發(fā)布了她的數(shù)據(jù)集,供其他人使用。她稱自己的研究是“解決方案的起點(diǎn),基本上是第一步”。

              布蘭威尼還采取了進(jìn)一步的行動(dòng),她與IEEE(一家大型計(jì)算機(jī)專業(yè)組織)合作,成立了一個(gè)團(tuán)隊(duì),為人臉分析軟件制定問責(zé)制和透明度標(biāo)準(zhǔn)。

              她還定期與其他關(guān)注AI影響的學(xué)者、公共政策組織和慈善機(jī)構(gòu)會(huì)面。福特基金會(huì)主席達(dá)倫o沃克(Darren Walker)表示,這種新技術(shù)可能是一個(gè)“機(jī)會(huì)平臺(tái)”,但如果它復(fù)制并放大了過去的偏見和歧視,就發(fā)揮不了作用。

              沃克說:“數(shù)字世界正在進(jìn)行一場公平、包容和正義之戰(zhàn)。”



            關(guān)鍵詞: 人臉識(shí)別 AI

            評(píng)論


            相關(guān)推薦

            技術(shù)專區(qū)

            關(guān)閉