AI進(jìn)入“深水區(qū)”,算法是潛在偏見的最后解決方案?
人工智能本來并不存在偏見,它不會(huì)因?yàn)闊o法通過邏輯來解釋的理由而“想”某些東西是真的或假的。不幸的是,從創(chuàng)建算法到解釋數(shù)據(jù),機(jī)器學(xué)習(xí)中存在著人類的偏見,并且直到現(xiàn)在,幾乎沒有人試圖解決這個(gè)嚴(yán)重的問題。
本文引用地址:http://www.biyoush.com/article/201804/378701.htm本周二,外媒表示,由谷歌前首席技術(shù)官Varun Kacholia和Facebook前搜索引擎工程師Ashutosh Garg一起創(chuàng)立的AI公司,近日完成了2400萬美元的融資,投資方為Lightspeed Ventures和Foundation Capital。
這是一家旨在通過公開收集世界各地的勞動(dòng)力的信息,解決雇傭、求職和晉升的信息鴻溝與招聘歧視問題的初創(chuàng)公司,依托于自主研發(fā)的軟件收集處理招聘職位和應(yīng)聘者的個(gè)人信息,人工智能系統(tǒng)的處理減輕了信息不對(duì)稱的問題,匹配率比傳統(tǒng)招聘的提高了八倍,同時(shí)還節(jié)約了90%的篩選成本。
將大數(shù)據(jù)和算法自動(dòng)化決策應(yīng)用于勞動(dòng)力的篩選上無可厚非,龐大的數(shù)據(jù)基礎(chǔ)也可以提高決策的效率。但算法的結(jié)果一定沒有偏差嗎?對(duì)此,Gary表示:“人們在招聘過程中也存在偏見,這是因?yàn)閭€(gè)體獲取的信息是有限的。而數(shù)據(jù)算法為招聘人員提供了充足的信息和洞見,彌補(bǔ)了招聘人員可能因不了解某些技能或公司而產(chǎn)生的誤差,從而大幅增加合格候選人的數(shù)量。”
按照該公司的說法,產(chǎn)品的篩選機(jī)制將消除任何潛在的人類偏見,使其完成符合平等就業(yè)機(jī)會(huì)委員會(huì)的規(guī)定,年齡、性別、種族、宗教、殘疾等都不會(huì)成為算法的參考標(biāo)準(zhǔn)。消除人們固有的成見,使人事決策變得不那么“私人化”固然有可取之處,但前提是決策系統(tǒng)本身不受這些偏見的影響。對(duì)算法的監(jiān)督和修正,必然成為算法運(yùn)行的重中之重。
其實(shí),對(duì)于人工智能的偏見問題,在2017年的時(shí)候,一篇來自MIT Technology Review的文章就曾針對(duì)這一問題發(fā)表過相關(guān)評(píng)論。
“在機(jī)器學(xué)習(xí)和人工智能發(fā)展的關(guān)鍵時(shí)刻,算法偏見正逐漸成為一個(gè)重大的社會(huì)問題。如果算法中潛在的偏見導(dǎo)致很重要的決策不被承認(rèn)、不受控制,這可能會(huì)造成更嚴(yán)重的負(fù)面后果,尤其是對(duì)較貧窮的社區(qū)和少數(shù)群體。另外,最終的抗議可能會(huì)阻礙一項(xiàng)極其有用的技術(shù)的進(jìn)步。”
而算法專家凱文·斯拉文(Kevin Slavin)也曾在TED演講中表示,算法“提煉自這個(gè)世界,來源于這個(gè)世界”,而現(xiàn)在則“開始塑造這個(gè)世界”。在算法“塑造世界”的時(shí)代,我們應(yīng)該思考的是:該如何突破算法的瓶頸,賦予AI正向的價(jià)值。
1.算法其實(shí)并不客觀
在我們的認(rèn)知里,算法最大的優(yōu)勢是能夠根據(jù)用戶的“數(shù)字自我”實(shí)現(xiàn)智能化、精準(zhǔn)化推薦。換句話說,算法是人們在眾多的信息中尋找自己所需材料的快速通道,這個(gè)過程的實(shí)現(xiàn)也是基于人們對(duì)算法的信任,即它具有“客觀性”。
不過,人們都忘了一點(diǎn),AI算法及其決策程序是由開發(fā)者塑造的。開發(fā)者寫入的代碼,使用的訓(xùn)練數(shù)據(jù)以及對(duì)算法進(jìn)行應(yīng)力測試的過程,都會(huì)影響算法之后的選擇。這就意味著開發(fā)者的價(jià)值觀、偏見和人類缺陷都會(huì)反映在軟件上。
就像Facebook一直過不去的“劍橋分析丑聞”事件,利用先進(jìn)的計(jì)算技術(shù)或者AI技術(shù),試圖通過人們的隱私數(shù)據(jù)來操縱選舉,其實(shí)質(zhì),就是基本數(shù)據(jù)倫理的問題。每個(gè)公司都有屬于自己的一套算法,因?yàn)樗麄兌加胁煌哪康暮蛢r(jià)值觀。獲取信息時(shí),我們覺得自己有權(quán)利去做選擇,但實(shí)際上,所有的選項(xiàng)都是算法給出的既定選項(xiàng)。這么看來,算法并不客觀。
2.在不客觀中學(xué)會(huì)自救
對(duì)算法的質(zhì)疑從其誕生起就一直存在,這種質(zhì)疑反映出了人類的科學(xué)理性。在對(duì)算法的設(shè)計(jì)提出繼續(xù)完善的同時(shí),學(xué)會(huì)自救也是必要的,換句話說我們要學(xué)會(huì)自我保護(hù)。
就整體情況而言,算法的最大問題,在于其不透明性。對(duì)于這個(gè)復(fù)雜的領(lǐng)域,專業(yè)的技術(shù)人員至今也未能全部摸清楚,搞明白,更不用說普通人了。所以,在不確定其設(shè)計(jì)理念或者運(yùn)行邏輯的情況下,我們要做的是明確“算法并不客觀”的理念,時(shí)刻對(duì)其限制表示警惕。
或許,這個(gè)時(shí)候,較為激進(jìn)的思維模式更受歡迎,我們要學(xué)會(huì)提問,從提問中了解算法發(fā)生的作用以及其最初的設(shè)計(jì)目的。比如,用傳統(tǒng)網(wǎng)頁方式瀏覽新聞,盡量不依靠智能搜索,雖然不一定能成功,但是還是要學(xué)著用自己的邏輯對(duì)抗算法可能帶來的信息窄化,從而不被算法限制。
3.如何減少人工智能的偏見
至于如何減少人工智能的偏見,微軟的研究員表示,最好的方式是從算法訓(xùn)練的數(shù)據(jù)開始審查,這是一種有效的方式。
數(shù)據(jù)分布本身有一定的偏見性。還是以美國大選為例,開發(fā)者手中的美國公民數(shù)據(jù)分布并不均衡,本地居民的數(shù)據(jù)多于移民者,富人多于窮人,這都是可能出現(xiàn)的情況。而數(shù)據(jù)的不均衡可能會(huì)使AI對(duì)社會(huì)的組成得出錯(cuò)誤的結(jié)論,比如僅僅通過機(jī)器學(xué)習(xí)算法分析,就得出“大多數(shù)美國人都是富有的白人”這個(gè)結(jié)論。
同樣的,也有研究表明,用于執(zhí)法部門的AI 在檢測新聞中出現(xiàn)的罪犯照片時(shí),結(jié)果會(huì)偏向黑人和拉丁美洲裔居民。此外,訓(xùn)練數(shù)據(jù)中存在的偏見還有很多其他形式,只不過這些提到的更多一些。但是訓(xùn)練數(shù)據(jù)只是審查方式的一種,通過“應(yīng)力測驗(yàn)”找出人類存在的偏見也同樣重要。
其實(shí)要讓AI變得沒有偏見,我們就要勇于去揭開算法的“黑箱”??焓諧EO宿華曾說,如果沒有很好的對(duì)社會(huì)的認(rèn)知、對(duì)人文的思考,僅靠技術(shù)本身會(huì)很容易走偏,要用哲學(xué)的智慧將算法、技術(shù)力量放大,從而避免表達(dá)幸福感的種種障礙。現(xiàn)在,我們要做的就是盡最大的努力去避免這些事情的發(fā)生。
評(píng)論