何為“AI倫理”?又何為“AI治理”?科技向善,何為“善”,如何“向”?
編者按:人工智能(AI)技術(shù)的發(fā)展正在重塑當今社會生產(chǎn)方式與產(chǎn)業(yè)結(jié)構(gòu)。AI 在提升生產(chǎn)效率、賦能產(chǎn)業(yè)的同時,也為社會帶來了全新的挑戰(zhàn)。自動駕駛汽車交通事故的防范與歸責、新冠疫情下個人隱私的保護、人工智能技術(shù)的應(yīng)用對就業(yè)的影響、技術(shù)是否會引起貧富差距擴大等,均成為公共討論的議題。
如何應(yīng)對 AI 可能對社會產(chǎn)生的負面影響?AI 倫理與治理的討論應(yīng)此而生?!叭绾伪苊獯髷?shù)據(jù)時代下個人隱私形同虛設(shè)?”“代碼是否具有道德?”“人工智能時代的道德代碼如何編寫?”
微軟全球資深副總裁,微軟亞太研發(fā)集團主席,微軟亞洲研究院院長洪小文受邀參加未來論壇 AI 倫理與治理系列活動,在“AI 向善的理論與實踐”主題論壇中發(fā)表了看法。
洪小文認為“技術(shù)都是死的,我們才是制造者與使用者。所謂的 AI 道德,最后反映的是我們的道德,是我們的價值觀。”
以下是論壇全文,轉(zhuǎn)載自未來科學(xué)論壇公眾號。
議題一:人工智能將會對人類社會帶來哪些挑戰(zhàn)?近些年 AI 的發(fā)展,已經(jīng)產(chǎn)生了哪些問題?社會應(yīng)該如何應(yīng)對?
1.技術(shù)導(dǎo)致的不良后果其實源于人類自身;
2.微軟人工智能設(shè)計原則:合法與主權(quán)、負責、透明、公平、可靠與安全、隱私與保障、包容。
洪小文:怎么樣讓技術(shù)促進經(jīng)濟發(fā)展?怎么樣讓技術(shù)促進社會進步?在大多數(shù)情況下,技術(shù)都是好的,而在技術(shù)被廣泛應(yīng)用后,也產(chǎn)生一些大家所擔心的負面隱憂,英文叫“Techlash”。
這里舉一些例子。首先,每個國家的經(jīng)濟發(fā)展程度不同,如果有些人可以使用到最新的技術(shù),而有些人不能,這就可能帶來發(fā)展的不均衡和落差,帶寬、網(wǎng)絡(luò)的就是這樣的例子;另外,關(guān)于安全、隱私的問題大家也談的很多。比如社交媒體中出現(xiàn)假新聞,如果不小心誤傳誤信,就會影響決定;還有數(shù)據(jù)和技術(shù)偏見的問題。有數(shù)據(jù)就一定會有偏見,因為體量再大的數(shù)據(jù)也不可能涵蓋所有方面;再有就是關(guān)于 AI 在武器上的使用以及技術(shù)取代人類工作的問題等等。我認為水能載舟,亦能覆舟,不能說技術(shù)無辜,但是真正的問題還是在于技術(shù)背后的創(chuàng)造者,在于怎么使用技術(shù),因此技術(shù)導(dǎo)致的不良后果其實源于人類自身。制造者、用戶、政府、受影響者都是重要的相關(guān)方。
微軟1998年提出了人工智能的相關(guān)原則(“Responsible AI”),要求以負責任的方式設(shè)計人工智能。其中,最基本的原則就是合法與主權(quán)。對數(shù)據(jù)及人工智能治理而言,今天很多規(guī)則性的內(nèi)容都會變成將來的法律規(guī)范。微軟作為一家跨國公司,在任何國家或地區(qū)經(jīng)營都要保證合法性、尊重其主權(quán)。第二是負責,任何技術(shù)和產(chǎn)品都有其設(shè)計制造者,要對技術(shù)和產(chǎn)品的部署和運營承擔責任,包括法律以及社會等各方面的責任。第三是透明,設(shè)計制造者要能夠解釋程序如何設(shè)計,尤其是數(shù)據(jù)的收集,更需要透明化。比如當攝像頭被安置在公共場所搜集數(shù)據(jù)的時候,需要提前告知數(shù)據(jù)被收集對象,進入數(shù)據(jù)收集區(qū)域其頭像信息可能會被采集。第四是包容,做任何東西都需要考慮到所有的人,也要求我們創(chuàng)造的技術(shù)能夠服務(wù)每個人,包括少數(shù)族群,殘障人士,所以開發(fā)這些人工智能技術(shù)的時候需要考慮如何保證它的包容性。第五是隱私與保障,有些人利用互聯(lián)網(wǎng)或者 AI 在網(wǎng)絡(luò)上做一些不道德的事,比如說“黑客”、“釣魚”,對于系統(tǒng)或平臺而言,很重要的時要保障用戶不受網(wǎng)絡(luò)騷擾、身份信息不被竊取,以及避免產(chǎn)生一些實質(zhì)性的災(zāi)難;第六是可靠和安全,任何 AI 系統(tǒng)都不可能萬無一失。例如一個 GPS 系統(tǒng),即使只要有萬分之一的機會把司機引到懸崖,那也是不安全的。所以怎樣做到安全可靠在 AI 領(lǐng)域中非常重要。機器學(xué)習都會存在一定誤差。問題在于,存在誤差的時候如何預(yù)防風險,如何提供更進一層的安全保障。第七是公平,坦言之很難做到,因為沒有絕對的公平。在現(xiàn)實條件下存在很多偏差或偏見,這些偏見或偏差可能來自數(shù)據(jù),可能來自我們的固有認知,可能屬于一種社會偏見,毫無疑問,每個人都存在偏見,問題在于怎樣不把偏見帶到我們所制造的東西里、怎么樣避免這些偏見。
最后,技術(shù)都是死的,我們才是制造者與使用者。所謂的 AI 道德,最后反映的是我們的道德,是我們的價值觀。對于科技工作者而言,需要把正確的價值觀與道德納入技術(shù)語言中進行表達,但即使這樣還不夠,還需要跨領(lǐng)域的合作,需要法學(xué)家、社會學(xué)家、人類學(xué)家等都參與進來,才有可能把這個做得盡量完善。
郭銳:謝謝洪老師。我有兩點思考,一是這個規(guī)制框架是否可以拓展,我認為它現(xiàn)在可以用于專用人工智能領(lǐng)域,在未來向通用人工智能行進的過程中,這樣的框架是否可以繼續(xù)適用,還是我們需要一些新的道德準則?道德準則是否可以內(nèi)化在算法之中?洪老師講到的公平性問題,與此密切相關(guān)。二是洪老師提到一個關(guān)鍵詞——信任,社會對技術(shù)的信任至關(guān)重要,中國在過去20年特別是近10年來在人工智能領(lǐng)域的發(fā)展,很大程度上借力于社會對于技術(shù)的擁抱和信任。我記得薛瀾老師講到過信任的重要性,下面有請薛瀾老師,對這個問題給出點評。
1.AI 改變了人類與技術(shù)的關(guān)系;
2.信任問題。
薛瀾:關(guān)于剛才談到信任的問題,第一,從某種意義上講,很多傳統(tǒng)技術(shù)是相對被動的,所以人類的應(yīng)用行為顯得比較主動。但是我覺得人工智能技術(shù)的不同之處在于,好像它不完全聽從我們,因為人工智能還具有智能性,因此我們與技術(shù)的關(guān)系好像發(fā)生了改變。如此一來,我們有時候的確擔心它會不會錯誤決策導(dǎo)致不利的后果。我們對傳統(tǒng)技術(shù)占據(jù)主動權(quán),清楚知道這些技術(shù)能做什么、不能做什么,但是使用人工智能技術(shù)進行人機交互時,有時候感覺不一定敢那么自信。
第二,我覺得對技術(shù)開發(fā)的公司而言,信任問題需要被重視,特別是隱私問題。正如剛才大家所說,鑒于人工智能技術(shù)在應(yīng)用過程中搜集了大量數(shù)據(jù),如果我們百分之百地信任這些公司,比如說用戶知道技術(shù)公司只是把數(shù)據(jù)作為一個機器學(xué)習的原料,那對于它們收集數(shù)據(jù)的行為,我不會太擔心。但是,現(xiàn)實中有些技術(shù)公司或其中的部分員工存在不道德地利用信息的可能,比如把個人或非個人數(shù)據(jù)匯集在一起得到更多的信息,或者把這些數(shù)據(jù)打包在網(wǎng)上拍賣,這些行為我們都看到過。所以從用戶角度來講,我們就希望非常清楚地知道智能公司的開發(fā)系統(tǒng)如何運行,對我們數(shù)據(jù)的處置是否合理。
郭銳:謝謝薛老師的點評。人工智能技術(shù)和其他技術(shù)相比,能夠更加直接地作用于普通用戶。比方說,如果能源的相關(guān)技術(shù)改進了,我們就會看到日用品的價格下降,或者用電的價格下降,但人工智能技術(shù)好像可以直接對我們產(chǎn)生影響。在數(shù)據(jù)領(lǐng)域中,如果我們意欲使用某個技術(shù),可能需要技術(shù)的部署應(yīng)用企業(yè)收集我們的信息,但同時我們又擔心所收集的信息是否會被誤用。剛才華夏老師也提到了一個很重要的問題——隱私問題,從您的角度來看,我們怎么應(yīng)對人工智能技術(shù)對社會的影響?
1.隱私問題:數(shù)據(jù)歸屬于誰,如何保護用戶隱私?從兩個層面加以分析:一是提高透明度,二是企業(yè)自律。
2.安全問題:需要多方共同參與法律法規(guī)的制定與完善。
夏華夏:我覺得洪老師的架構(gòu)圖總結(jié)得非常好,尤其是把法律法規(guī)放在底下兜底,上面包括隱私、公平這幾個問題,內(nèi)容全面、層次分明。說到數(shù)據(jù)隱私的問題,現(xiàn)在很多企業(yè)都掌握著大量數(shù)據(jù),我們也在思考如何合理保護用戶隱私,這個問題蠻難的,有時候數(shù)據(jù)的歸屬問題并不是那么清楚。
前幾天跟龔克老師溝通的時候,他提到當我們?nèi)メt(yī)院拍一個醫(yī)學(xué)影像片時,醫(yī)學(xué)影像的數(shù)據(jù)到底屬于誰,是屬于用戶嗎?醫(yī)院的確是拍的是用戶的片子,但同時如果沒有醫(yī)院、沒有工作人員通過儀器加以采集,沒有醫(yī)生為他做各種醫(yī)學(xué)診斷或判斷,這就不是一個完整的數(shù)據(jù)。因此至少有三方跟這個數(shù)據(jù)有關(guān)系,數(shù)據(jù)的所有權(quán)歸屬問題比較復(fù)雜,在此基礎(chǔ)上,怎么保護最終端用戶的隱私,也是一個蠻有挑戰(zhàn)的問題。一方面,剛才洪老師在框圖第二層中寫的是是透明度,透明化對于隱私來說是一個非常好的解決之道。當科技企業(yè)收集用戶數(shù)據(jù)的時候,企業(yè)會告訴他該數(shù)據(jù)在未來可能會有哪些用途,這種告知就是解決隱私問題非常重要的手段。如果技術(shù)足夠成熟,每次調(diào)用用戶數(shù)據(jù)的時候,系統(tǒng)都能自動通知每個用戶,這就使用戶更加安心和放心。再一個方面,保護數(shù)據(jù)隱私,可能還要從企業(yè)的自律方面做很多工作,企業(yè)到底怎么使用、內(nèi)部數(shù)據(jù)誰能看到,是一個非常重要的問題。比如在美團為此專門成立人工智能治理委員會,內(nèi)部制定了很多數(shù)據(jù)使用的規(guī)則和規(guī)范,劃分了諸多數(shù)據(jù)的保密級別,高密級的數(shù)據(jù)只有在極少數(shù)的情況下通過專門的程序才可以調(diào)用,這樣就能夠比較好地保護用戶的隱私。
此外,整個數(shù)據(jù)的安全性也是一個很重要的技術(shù)要求,AI 系統(tǒng)或者用戶數(shù)據(jù)的數(shù)據(jù)庫不能輕易被黑客攻擊進來。當然,兜底還是要靠法律法規(guī)。洪老師把法律法規(guī)列在底下非常合理,就人工智能治理而言,不管是安全、隱私、公平還是就業(yè),法律法規(guī)最終是一個兜底方。最近國家也在非常積極討論數(shù)據(jù)保護的相關(guān)法律法規(guī),這些法律如果得以應(yīng)用,對于企業(yè)是約束,對用戶是更放心的事情。未來隱私會是一個需要大家共同參與才能解決的系統(tǒng)化問題,法律法規(guī)也是如此。
郭銳:謝謝華夏老師。大家都對法律寄予很高的期待,各國立法者好像都在進行技術(shù)追趕,很多法律學(xué)者都開始關(guān)注這個領(lǐng)域,都想知道怎么樣應(yīng)對人工智能帶來的問題。但是,作為一個法律人,我想說我們必須看到法律本身的特性。立法是一個緩慢的過程,可能需要集中民意,通過諸多論證之后才能完成立法。反倒是在技術(shù)和行業(yè)層面上,能夠更快地對問題做出回應(yīng)。
我注意到前面幾位老師都是從現(xiàn)存的 AI 技術(shù)出發(fā)來思考 AI 系統(tǒng)及其給社會帶來的問題。我最早思考這個問題的緣起,相信和今天參與直播的很多觀眾一樣,是關(guān)注 AI 技術(shù)的潛力。我想請教一下漆遠老師:很多人真正思考 AI 倫理問題,是因為看了一些科幻電影。科幻電影里面經(jīng)常出現(xiàn)的一個場景,是 AI 的智能大大超過人類,甚至對我們的生存造成了威脅。在技術(shù)領(lǐng)域里面,大家對于通用人工智能甚至超級智能是否可能實現(xiàn)有不同的看法,我想請教漆遠,您認為通用人工智能可不可能實現(xiàn),有沒有可能給我們帶來生存上的危機?再請您對這個問題的整體進行回應(yīng),一會兒有機會也想聽聽大家如何看待這個看起來有點遙遠的未來問題,下面先請漆遠老師。
1.未來能否實現(xiàn)通用人工智能?并非絕無可能。
2.AI 治理需要推進與法學(xué)、經(jīng)濟學(xué)等結(jié)合的跨學(xué)科研究
漆遠:在一個機器學(xué)習學(xué)術(shù)的頂會里有過一個調(diào)查:你覺得什么時候通用人工智能何時會實現(xiàn)?即使在一個非常專業(yè)的技術(shù)會議里面,答案也是百花齊放的——有人認為五年,有人認為五十年,有人認為永遠不可能。這個反映了什么?說明對科學(xué)的預(yù)測本身是非常難的?,F(xiàn)在學(xué)界業(yè)界比較關(guān)注的是深度學(xué)習。現(xiàn)在有個說法是“大模型即正義”。自然語言處理等模型參數(shù)從以前的百億級到現(xiàn)在的千億萬億級。海量的數(shù)據(jù)和計算使得大模型能力越來越強。比如使用大規(guī)模自然語言模型可以自動寫出真假難辨的新聞,——當然,這是另外一個話題,即數(shù)字生活安全與可信問題。但是面對如此強大的自然語言模型,如果我們問2+3是幾?它能回答出來,但是如果問“1525091+8747721”是多少?它就無法回答了,能力還不如一個簡單的計算器。這背后說明一個問題:從人工智能圍棋程序“Alphago”到現(xiàn)在一系列數(shù)據(jù)驅(qū)動的深度學(xué)習技術(shù)出來以后,很多人都對人工智能的發(fā)展比較樂觀,但其實現(xiàn)階段的人工智能所具備的推理能力還非常低的。
人工智能可以有很多條發(fā)展思路,現(xiàn)在大家看到的深度學(xué)習只是思路之一。未來把知識、人的推理能力和數(shù)據(jù)驅(qū)動的深度學(xué)習結(jié)合在一起,可能成為未來非常重要的發(fā)展方向。在這個目標沒有實現(xiàn)之前,也就是說在 AI 在不具備常識推理的能力時,實現(xiàn)真正的通用人工智能是不可能的事情。換句話說,AI 目前像一個走火入魔的練武之人,它在某一個領(lǐng)域特別厲害,但是稍微改一下領(lǐng)域,它可能會出大問題。AI 的推理能力、可解釋性都是非常關(guān)鍵的問題,如果沒有解決這些問題,我們談的通用人工智能是不太可能的。
但是從另一方面看,也不能說絕對不可能。今天我們在這一個有意思的時間點上,未來有各種可能性。如果把幾種技術(shù)思路和因素結(jié)合在一起,或許能夠在通用人工智能的路上大踏步走出一步,這誰也不知道。就像在2010年深度學(xué)習興起之前,深度學(xué)習背后的很多思路早就已經(jīng)有了,但并沒有落地推廣。隨著海量數(shù)據(jù)和強大計算能力的到來,深度學(xué)習在十年間突飛猛進,被業(yè)界大量使用。我們誰都不知道會不會有新的種子點燃新的劇變。但是我們必須努力的是在人工智能技術(shù)被廣泛使用的今天,如何治理 AI 技術(shù),保證 AI 技術(shù)的可靠和可信。打一個比方,假如我們不知道如何管理高速公路,最簡單的方法是關(guān)閉高速公路。但如此一來會降低大家通行效率。這顯而易見不是我們想要的治理方法。我們會通過建立紅綠燈等交通管理系統(tǒng)進行管控。類似的,我們要在發(fā)展 AI 的同時,做好 AI 治理系統(tǒng)和相關(guān)技術(shù)研究。而要做好這個,需要對 AI 技術(shù)與法學(xué)、經(jīng)濟學(xué)等結(jié)合進行跨學(xué)科的研究和思考??鐚W(xué)科的研究將有助于 AI 走向可靠的、可持續(xù)發(fā)展之路。
實通用人工智能的技術(shù)發(fā)展邊界問題
薛瀾:通用人工智能是個非常有意思的話題,我想趁這個機會問一下三位專家,假設(shè)人類實現(xiàn)通用人工智能以后,AI 有可能做出更多更能干、更強大的事情。但是,通用人工智能發(fā)展到某個階段,可能會對人類產(chǎn)生一定的威脅,在這樣的情況下,我們到底應(yīng)不應(yīng)該開發(fā)這項技術(shù)?一般性地討論時,大家都會說科學(xué)技術(shù)研究應(yīng)該無止境、無前沿,走到哪算哪,但當我們預(yù)料到某些問題的時候是否應(yīng)該按下暫停鍵?在通用人工智能技術(shù)開發(fā)方面,它的界限要不要設(shè)、應(yīng)該設(shè)在哪兒?想請三位專家來幫我們解答一下。
實現(xiàn)通用人工智能”的說法并無現(xiàn)實依據(jù);AI 技術(shù)的控制關(guān)鍵在于規(guī)制其背后的制造者
洪小文:第一,對于“實現(xiàn)通用人工智能”的說法我們還沒有看到任何現(xiàn)實依據(jù)。第二,通用人工智能至少有兩種,所謂“通用人工智能”,就比如我們?nèi)祟愖陨?,就是一種通用人工智能。我常常講,“強人工智能很弱,弱人工智能很強”,什么意思呢?弱人工智能就是專家系統(tǒng)(Expert System),它只能做一件事,做得比誰都好,比如做一個特定物體的辨認系統(tǒng),它就只能辨認狗和貓或者犯罪嫌疑人,這叫“Narrow AI”,它很強大;但是我們呢?恰恰相反——每樣都懂一點,比如我可以談治理,可以談 AI,也可以談量子,什么都可以談,但是我除了計算機是專家,其他都不是專家,因此事實上通用人工智能是很弱的。我們的孩子也是通用人工智能,你今天會教他做所有事情嗎?當然不會,只會教他做某一件事情。所以,我覺得大家對通用人工智能不要抱以太多厚望。我們擔心的其實是“超級人工智能”(Super intelligence),比方說這個人什么都懂,什么都是世界最強,有沒有這樣的客觀存在?就目前所有對通用人工智能的研究來看一點影子都還沒有,因為今天的人工智能根本沒有具備系統(tǒng)化解問題的功能。試想,我們今天怎么造一個機器,讓它解一個從來沒有遇到過的新問題,讓算法自己去解問題根本不可能。我們今天很多問題無解,就拿計算機里面,NP 是不是等于 P,沒有人知道。對于某些問題,我們也根本不知道怎么解決,所以我覺得通用人工智能離我們很遠。
講到治理,談一個沒有的東西:時間機器(Time machine),怎么治理?這可能是哲學(xué)界可以討論的問題,但今天我們對它的討論不是哲學(xué)意義上的討論。對于你剛剛的問題——如果有人說他可以做出超級人工智能來,我們該不該禁止?討論這個問題前,我覺得考慮近期問題可能更為迫切,比如轉(zhuǎn)基因或者基因編輯,就是“人造人”,基因工程可以造福人類,也可以為害一方,所以哪些科技應(yīng)該得到發(fā)展,這也是哲學(xué)意義上的問題。還有一點我比較有信心的,人做任何事情都希望它可控,很多人擔心我們創(chuàng)造的事物不可控,因此,任何一個科學(xué)家進行發(fā)明創(chuàng)造,沒有人希望不可控,沒有人希望最后把這個世界給毀了。除了瘋子以外沒有人會干這種事,但是怎么限制瘋子呢?這又要回歸到哲學(xué)性的探討。如果人類真的實現(xiàn)了通用人工智能,我們能否控制它,在于我們需要控制其制造者。
1.AI 未來發(fā)展不好預(yù)測,但是實現(xiàn)通用人工智的概率不是零;
2.可靠性與信任:AI 制造者負有責任,也需要將人和機器作為大系統(tǒng)整體來思考和分析;
3.隱私問題:協(xié)同行業(yè)共同發(fā)展“可用不可見”的隱私保護的機器學(xué)習技術(shù),促進隱私保護與數(shù)據(jù)價值實現(xiàn)的平衡
漆遠:幾年前在麻省理工學(xué)院(MIT)頂尖科學(xué)家之間有一個非常好的辯論,關(guān)于通用人工智能。他們辯論的主題是——將來機器人是否能夠像牛頓和愛因斯坦等科學(xué)家一樣發(fā)現(xiàn)科學(xué)定律。幾年前在一個電視節(jié)目上我和伯克利的楊培東教授、清華的魯白教授和西湖大學(xué)的許田教授等人,討論過一個關(guān)于未來的技術(shù)問題。當時,我也提出了這個問題。我沒有答案,但是我感覺這是可能的。在 MIT,這是一場非常激烈的辯論,在場的研究者分為兩派,一派認為不可能、這個技術(shù)的“種子”不存在;另一派認為,為了實現(xiàn)這個目標,這個技術(shù)路線未來如何發(fā)展我們不得而知,但有可能實現(xiàn)。我們并不知道未來會具體發(fā)生什么,實現(xiàn)這個目標的挑戰(zhàn)會非常巨大,但其實概率是零的事其概率才是零。就好比在金融風險領(lǐng)域不存在任何情況下絕對不會發(fā)生的風險。系統(tǒng)可控性同樣如此,人人都想做出可控的系統(tǒng),但是系統(tǒng)經(jīng)常就在我們以為可控的時候出現(xiàn)不可控的情形。所以系統(tǒng)設(shè)計里面要留有所謂的“冗余”(Redundance),即理論上沒有問題,但工程實現(xiàn)的時候,要留有冗余和余地。
這里就講到信任和可靠性的問題。確實,人是第一重要的,現(xiàn)在的機器也是由人制造。在著名的科幻作家阿西莫夫提出的“機器人三定律”中強調(diào),機器人必須聽從人的指令,不可以傷害人。但是,假如我們未經(jīng)認真思考,對機器人下達了一些不計長期后果的指令,就完全可能發(fā)生我們沒有預(yù)料到的大規(guī)模風險。從無人駕駛到醫(yī)療服務(wù)、金融服務(wù),機器正在參與越來越多的決策。認為只要控制住人,智能系統(tǒng)就沒有風險,這其實遠遠不夠的。一個原因是智能系統(tǒng)越來越復(fù)雜有很多無法理解的地方,所以前面我提到“可解釋性”非常重要。技術(shù)人員往往希望系統(tǒng)是開放透明的,能夠持續(xù)發(fā)展的。但是在技術(shù)發(fā)展成復(fù)雜系統(tǒng)后,就技術(shù)本身而言,普通人很難明白背后發(fā)生了什么、很難解釋技術(shù)背后的原理是什么,系統(tǒng)里的因果關(guān)系是什么?,F(xiàn)實中會很難認定事故背后的真實原因,是人造成的,還是系統(tǒng)的哪個因素造成的。不能簡單的說,人是負責的(accountable),系統(tǒng)就是負責可靠的(accountable)。比如司機很稱職,但如果剎車出現(xiàn)故障,同樣可以導(dǎo)致車禍。所以需要將人和智能機器看一個大系統(tǒng)從整體來思考和構(gòu)建可信可靠性。
數(shù)據(jù)隱私保護,是用戶保護的問題,也是一個數(shù)字經(jīng)濟的發(fā)展問題。一方面涉及數(shù)據(jù)生產(chǎn)資料,但另一方面又事關(guān)每個用戶的權(quán)益,如何在保護用戶隱私的同時,讓 AI 發(fā)揮數(shù)據(jù)價值推動經(jīng)濟持續(xù)發(fā)展,這也是一個非常關(guān)鍵的問題。隱私的反義詞可以是“透明”,透明能夠幫助信任,但就保護隱私而言,有些地方是不能透明和對外開放的。對于隱私保護來說,去標識匿名化是我們可以使用的技術(shù)方案之一。但如果將數(shù)據(jù)簡單地完全匿名化,數(shù)據(jù)所含的有用信息量也會大大減損,數(shù)據(jù)價值降低。其實數(shù)據(jù)作為一種生產(chǎn)資料,就像大樓的磚頭一樣,磚頭放在一起才能蓋起大樓,單個的數(shù)據(jù)點很難產(chǎn)生巨大價值,只有互補的數(shù)據(jù)源合在一起才能讓 AI 發(fā)揮最好的價值。
這里就引出了一個非常關(guān)鍵的問題:智能時代下的數(shù)字經(jīng)濟能不能既保護隱私,又發(fā)揮數(shù)據(jù)核變的經(jīng)濟推動能力?螞蟻集團在2016年開始布局隱私計算、開發(fā)相關(guān)技術(shù),在世界范圍內(nèi)我們擁有數(shù)量最多的隱私保護專利,包括“差分隱私”、“多方計算”、“可信環(huán)境計算”等技術(shù)。這些技術(shù)可以幫助數(shù)據(jù)可用不可見,但是他們有不同的安全等級。我們可以基于場景,把數(shù)據(jù)和隱私保護技術(shù)進行分析分類,把他們劃分成不同安全等級,在某些安全等級下可以用對應(yīng)的某類數(shù)據(jù)和技術(shù)。每一個安全等級都有對應(yīng)的代價,就像越重的汽車往往越安全,但是也消耗更高的能量。我們要基于場景需求來選擇適當?shù)募夹g(shù)。最后,隱私是一個社會問題,需要更多的人來一起討論,需要來自各行業(yè)的研究者和從業(yè)者共同討論。世上沒有一個絕對的答案,就像中國文化講求的平衡發(fā)展,我們要在中間點上找到一條共同前進的路。
郭銳:我以前聽過一個笑話:有一個修車的人,他問醫(yī)生:“憑什么修車的一個月就賺這么一點錢,醫(yī)生就賺的比我們多得多?而我們做的工作是一樣的,我就是把車上面壞的部分修好,你就是把人身上壞的部分修好。”醫(yī)生說:“你是怎么修的?你把車停到修車庫,抬起車,把損壞的零件取下來,訂一個新的零件,把它裝上就好了。我怎么干我的工作?我有一個病人正在呼吸,但是我要給他肺部動一個手術(shù),要保證他在這個過程中不能死,還要讓他減少痛苦,把這個手術(shù)做完,還要保證病人復(fù)建后很好地完成所需的一切活動,醫(yī)生的工作要比你難得多。”我們在人工智能技術(shù)已經(jīng)投入應(yīng)用、而且實實在在地對社會產(chǎn)生影響。同時,我們還在進行技術(shù)方面的改進、實施各種治理方案,這需要我們像醫(yī)生一樣謹慎。存在各種各樣和 AI 相關(guān)的技術(shù)和治理問題——隱私的問題、公平性的問題,還涉及到透明度的問題——如何在治理的同時,還能從整體上贏得社會的信任?以下我們轉(zhuǎn)入第二個議題的討論:如何應(yīng)對人工智能治理問題?先請華夏老師。
議題二:如何應(yīng)對人工智能治理問題?
保障 AI 公平性——美團“助老、助殘項目”
夏華夏:很多技術(shù)我們沒法禁止,技術(shù)的發(fā)展總在往前走,只要大家知道這個地方有一個技術(shù)金礦,總有很多對未知的事情充滿好奇的學(xué)者,包括企業(yè)界的人,不斷進行探索。今天討論 AI 的治理,目的就是在技術(shù)不斷往前發(fā)展的時候能找到一些規(guī)則辦法,讓越來越先進的技術(shù)繼續(xù)走在向善的、幫助我們的用戶及社會、甚至幫助整個人類的方向上。美團把人工智能應(yīng)用于生活服務(wù)的很多場景,大概包括200多種不同的生活服務(wù)功能,包括吃喝玩樂、出行游玩,每個功能里面都會涉及人工智能。我們有很多例子與公平性有關(guān),有時候不同的人使用人工智能技術(shù)的應(yīng)用效果是不一樣的,比如老人或其他殘障人士往往不會使用人工智能的工具,我們在設(shè)計人工智能應(yīng)用的時候,會特別注意幫助老年人、幫助弱勢群體設(shè)計一些應(yīng)用。我們有一個助老項目,專門開發(fā)一款打車程序,該 APP 字體特別大,且在 APP 的頁面里不需要輸入目的地,可以上車之后告訴司機你去哪,讓司機幫助輸入。此外,在這個程序頁面里,老年人會有一個緊急聯(lián)系人,APP 可以實時跟親屬匯報老年人的位置,這樣在年輕人來看很正常的一個 APP,老年人也能夠便利地使用。
再比如說我們有一些盲人用戶,由于看不見,他們很難使用手機上的 APP,但是為了讓一些盲人用戶能夠在美團 APP 上點餐、打車,我們?yōu)樗麄冮_發(fā)了一個語音交互頁面,這些用戶就可以完全通過語音在 APP 上點餐、打車,后來發(fā)現(xiàn)這樣的 APP 對很多老人、小孩也非常有用。這是在公平性方面美團所做的一點小的示例。就像洪老師說的,AI 技術(shù)本來無所謂好壞,真正決定 AI 是向善還是向惡,則是使用 AI 的工程師、企業(yè),美團希望在內(nèi)部制定這樣的規(guī)范,讓人工智能技術(shù)能夠幫助每一個用戶。
郭銳:我有一個對技術(shù)前景好奇的問題,在法律和治理領(lǐng)域有學(xué)者提出:可以把一些道德倫理的價值內(nèi)化到代碼中,在研究或者應(yīng)用中是否存在這種道德算法?
1.要慎重選擇 AI 公平性的考量標準,要全面、多層次考慮;
2.就社會角度而言,螞蟻集團開發(fā)支持弱勢群體接入數(shù)字生活的技術(shù)、實施扶貧項目以促進就業(yè);
3.就人與自然角度而言,螞蟻集團通過 AI 實施環(huán)保項目。
漆遠:就 AI 公平性而言,從技術(shù)的角度,到社會的角度,再到人和自然的角度我來講幾個例子。首先要有向善的心,但是好心不一定辦好事。在技術(shù)上,要慎重選擇和設(shè)計 AI 公平性的考量標準。一個經(jīng)典的例子:辛普森悖論——在不同層面看問題會得出完全不同的結(jié)論。比如伯克利大學(xué)在統(tǒng)計男生女生的入學(xué)率時發(fā)現(xiàn),1973年男生錄取率40%多、女生30%多(在美國專門討論各個種族、性別的大學(xué)錄取率最能反映公平性,因為教育是最大的公平),似乎是女生被歧視了。如果再仔細看,將各個系的男女錄取比例進行比較,就會發(fā)現(xiàn)每個系女生錄取率不一定低男生,甚至比男生錄取率還高,這是怎么回事?聽說現(xiàn)在不少國外高校的錄取系統(tǒng)都使用了計算機輔助決策系統(tǒng),如果要把道德指標寫入這算法決策系統(tǒng)里,怎么選定這個指標呢?是全校的男女錄取率的平衡還是每個系的男女錄取率的平衡?這是需要仔細考慮的。回到那年伯克利大學(xué)錄取的問題,背后原因是什么?分析發(fā)現(xiàn)大量男生申請了錄取率比較高的系,而女生普遍申請了錄取率比較低的系,從而拉低了學(xué)校范圍的女生錄取率,盡管從每個系的角度看,男女錄取比例基本一致的。如果我們錄取更多女生,讓學(xué)校范圍的男女錄取率更一致就可能導(dǎo)致在每個系里男生都比女生更難被錄取,會是對男生的歧視。
還有一個非常經(jīng)典的例子,在美國某個州關(guān)于黑人死刑判決里面是否存在歧視有過法律分析。當時的問題是否黑人殺人更容易被判死刑?整體看好像沒什么區(qū)別,但如果按照“受害者是白人或黑人”或者“行兇人是白人或黑人”進行分類,并分開分析,就會看到一個完全不同的結(jié)論。所以要從不用層次細致分析設(shè)計算法公平性的指標,分析是否存在“辛普森悖論”, 否則也許會導(dǎo)致好心辦壞事。更深入而言,公平性背后一個很重要的基礎(chǔ)是因果分析——究竟是什么東西導(dǎo)致了當前情況的不一樣,是自身不努力不負責導(dǎo)致的問題?還是先天條件導(dǎo)致其受到限制?針對不同的原因,治理方案是不一樣的,背后涉及哲學(xué)和法律的思考。所以我們在設(shè)計這些系統(tǒng)指標時,需要哲學(xué)家,社會學(xué)家,法律學(xué)者和 AI 技術(shù)專家一起討論,把哲學(xué)法律等人文的思考和技術(shù)結(jié)合在一起,才能實現(xiàn)持續(xù)良性的發(fā)展。
再講個具體的例子。螞蟻集團技術(shù)上關(guān)心弱勢群體,支付寶開發(fā)了幫助弱勢用戶的功能。例如把 APP 菜單自動用語音讀出來幫助視力有障礙的人使用支付寶。另外,為了防止黑產(chǎn)使用機器攻擊,支付寶在用戶身份驗證時可能需要校驗碼來證明使用者是人不是機器。而對于盲人來講,由于看不見就無法完成拖拉通過校驗,就無法使用電子支付。螞蟻技術(shù)人員開發(fā)了空中手勢識別技術(shù),可以幫助盲人通過身份校驗。螞蟻會把這個技術(shù)開源給行業(yè),協(xié)同行業(yè)伙伴幫助更多人。
從社會的角度,我們用 AI 技術(shù)來幫助邊遠貧困地區(qū)就業(yè)。兩年前我的團隊通過“AI 豆計劃“開發(fā)一系列的 AI 工具幫助在陜西清澗當?shù)厝俗鲾?shù)據(jù)打標。借助智能數(shù)據(jù)打標工具,沒有經(jīng)驗的普通人也迅速上手。目前“AI 豆計劃”已在全國培訓(xùn)了2000多名從業(yè)人員,其中困難群眾占比50%以上。讓困難群眾,尤其是貧困地區(qū)的女性,實現(xiàn)在家門口獲得更多就業(yè)機會。
更大的角度是從人機器和自然的關(guān)系切入,保護環(huán)境。我們的 AI 技術(shù)團隊在2019年開發(fā)了“AI 垃圾分類”小程序和智能垃圾桶,使用 AI 技術(shù)來區(qū)分干垃圾、濕垃圾等幾千種垃圾,提高垃圾回收和處理努力。我們也因此獲得聯(lián)合國綠色可持續(xù)發(fā)展“綠眼睛獎”。
郭銳:謝謝漆遠老師,漆遠老師已經(jīng)把我們帶到了討論的第三個主題。由于技術(shù)的進步前沿的研究和應(yīng)用都在行業(yè)里面,所以企業(yè)也許需要承擔更多的社會責任,這也是 AI 不同于傳統(tǒng)技術(shù)的地方。薛瀾老師在公共治理方面是真正的專家,從社會治理的角度看,我們想請薛老師就企業(yè)的社會責任給一些點評。
議題三:從 AI 倫理和治理的角度看,科技企業(yè)有什么樣的社會責任?
在 AI 治理領(lǐng)域,“敏捷治理”是處理政企關(guān)系的最佳方式
薛瀾:現(xiàn)在我們在人工智能領(lǐng)域討論治理問題,企業(yè)要承擔很大的責任。通常講行業(yè)治理,政府作為治理者,企業(yè)作為被治理者中間,與政府往往有種博弈關(guān)系,政府出臺一些規(guī)則以后,企業(yè)總想在遵守規(guī)則的情況下,使得企業(yè)利益最大化,甚至規(guī)避一些監(jiān)管,這很常見。而人工智能領(lǐng)域的實際情況是,由于技術(shù)發(fā)展很快,政府作為治理者遠遠落后于企業(yè)。治理者在制定規(guī)則的過程中,技術(shù)已經(jīng)往前走得很遠,永遠是一追再追(Catch up forever)。
對此,比較好的治理模式是“敏捷治理”,政府和企業(yè)都要改變觀念。如果企業(yè)發(fā)展過快,導(dǎo)致以公眾利益和安全為目標的政府管制無法企及。倘若此時企業(yè)出現(xiàn)一些問題、帶來一些危害,政府就會把管制口袋扎得很緊,甚至一下就會把企業(yè)卡死,這樣對技術(shù)的發(fā)展非常不利。怎樣使得治理者和技術(shù)發(fā)展者之間形成良性互動,這就要改變原來政企互相博弈的關(guān)系,從貓抓老鼠的關(guān)系轉(zhuǎn)變成搭檔的關(guān)系。技術(shù)發(fā)展迅速可能會帶來一些危害,如果政府沒有及時采取措施,公眾也會問責,所以政府對技術(shù)不及時下手監(jiān)管,對技術(shù)發(fā)展本身也是不利的?!懊艚葜卫怼币笳c企業(yè)互相溝通,共同討論潛在風險,談判如何有意識地加以規(guī)避。鑒于不同類型的企業(yè)在不同發(fā)展階段可能考慮問題不同,所以這時尤其需要成熟企業(yè)與政府合作,建立合理的治理框架,我覺得這是最合理的治理方式。另外,如果企業(yè)出了一點小問題,政府就一下采取非常嚴厲的規(guī)制手段,對技術(shù)發(fā)展也是不利的。政企要形成互動關(guān)系,企業(yè)要比原來承擔更大的社會責任。
由于人工智能技術(shù)的復(fù)雜性,從某種程度上講更加需要強化企業(yè)的自律。較之其他行業(yè),社會對 AI 企業(yè)自律的要求更高,只有這樣,才能夠讓人工智能技術(shù)更健康的發(fā)展。
與其擔心 AI 導(dǎo)致的失業(yè)問題,不如關(guān)注教育。未來在孩子的教學(xué)課程中,至少應(yīng)該安排不少于6年的 AI 通識教育。
洪小文:我認為企業(yè)應(yīng)當負擔更多的社會責任。第一,法律只是最低標準,企業(yè)最先接觸技術(shù),法律在后制定管制標準,所以企業(yè)走在管制前面。微軟這幾年的轉(zhuǎn)型很成功,很大的原因在于我們在同類公司里比較值得信賴,微軟在191個國家有商務(wù)往來,尤其是2B的業(yè)務(wù),守法是最基本的,沒有信任根本行不通。尤其是高科技方面,因為涉及多方的利益相關(guān)者,我們應(yīng)該要聽取各方的想法。
第二,今天很多人把超級人工智能想像得像神一樣,但沒有影子不代表機率是零,做 AI 跟做時間機器,很難說哪一個比較難。但是,以假設(shè)實現(xiàn)超級人工智能的思路進行 AI 治理,完全是緣木求魚,所以治理的關(guān)鍵是契合今天的 AI 技術(shù)。我可以保證人工智能再往前發(fā)展,不管進展怎樣、能夠做到什么程度,它背后的原理永遠是“AI+HI”(人工智能加人類智慧)。我們希望這個制造群體可以做出最好的判斷。
第三,至于人工智能會不會取代一部分人類的工作,很明顯當然是會。從歷史來看,一兩百年前,90%的人從事農(nóng)業(yè)工作,今天最多只有10%的人從事農(nóng)業(yè),而其他的90%并沒有失業(yè)。汽車的發(fā)明導(dǎo)致馬夫失業(yè),這是技術(shù)發(fā)展的必然結(jié)果。技術(shù)更迭對職場的變化是必然的,更不要說新冠疫情更加速了這一變化,遠程會議、線上教育,數(shù)字化讓將來的工作場所可以無所不在。不管從政府角度、個人角度還是公司角度,與其擔心就業(yè)問題,更應(yīng)該關(guān)注教育,數(shù)字教育不只屬于計算機專業(yè)的課程,實際對非計算機專業(yè)也一樣重要。我個人覺得,未來每個人不論文科理科,都至少接受了12年的數(shù)學(xué)教育,那么對于計算機、大數(shù)據(jù)、AI 等一些通用的數(shù)字技能而言,至少應(yīng)該安排6年的通識教育,這不是自由班教育,而是大家所必備的基本的數(shù)字技能。此外,還要鼓勵每個人終身學(xué)習。因為對于 AI 而言,10年前學(xué)習的東西和現(xiàn)在完全不一樣。當然,還需要很好地職業(yè)技能匹配及認證系統(tǒng),幫助大家進修以后找到更好的工作。
第四,牛津大學(xué)經(jīng)濟學(xué)家講過,“The purpose of business is to produce profitable solutions to the problems of people and planet”(商業(yè)的目的不僅是利潤,而是要能夠創(chuàng)造解決人類和地球的問題的解決方案)。怎么樣讓 AI 解決人類的大問題,還可以實現(xiàn)盈利,這是每個企業(yè)都要考慮的。比如為節(jié)能減碳,微軟去年提出“負碳”的承諾,到2030年實現(xiàn)碳的負排放,到2050年消除公司從1975年成立以來的碳排放總合。要做到負排放,首先要做到零,不是通過買碳稅,而是要讓包括云計算在內(nèi)的所有的產(chǎn)品,都做到百分之百的零碳排放;在硬件軟件的制造上,不僅要用再生能源,而且要更省能源;同時幫助我們的伙伴以及客戶,減少他們的碳排放。當然,面對地球環(huán)境和氣候的挑戰(zhàn),僅僅減少碳排放還不夠,碳排放即使達到零,在大氣層中怎樣回收、怎么樣捕捉碳排放,這也需要企業(yè)拿出資源資來,一起治理我們的環(huán)境,不僅為我們自己,也為我們的子子孫孫。
郭銳:今天的科技企業(yè)和傳統(tǒng)大企業(yè)相比,還有一個不同的地方,就是每一個“頭部大企業(yè)”,包括美團、微軟、螞蟻等,最初都是建立在滿足社會需求的愿景之上。比如在金融服務(wù)領(lǐng)域,因為有了支付寶,大大減少了人們?nèi)?***的頻率。再比如在“新冠”疫情期間,如果沒有美團外賣或者買菜等智能服務(wù),整個城市都會停止運轉(zhuǎn),正是因為有了這樣的新科技,讓我們這個城市在經(jīng)歷這么一場巨大挑戰(zhàn)的時候,我們能夠挺過來。剛才漆遠老師講到驗證碼的問題,我也特別有感觸。我在人民大學(xué)教授殘障法,我們會邀請很多盲人朋友到課上分享經(jīng)驗或者給我們提供一些具體案例,曾經(jīng)有一位盲人朋友分享在買火車****的時候,某款 APP 的驗證碼操作非常復(fù)雜,讓沒有視力殘障的朋友使用起來都很麻煩,這導(dǎo)致他幾乎沒有辦法從手機上買****。去趟火車站,困難又非常大。因此,支付寶的驗證碼真的是解決了非常實際的問題,這些都是科技企業(yè)承擔社會責任的表現(xiàn)。正如薛老師剛才所講,企業(yè)在“敏捷治理”里回應(yīng)社會的呼聲,的確是單純的政府管理所無法取代的。
*博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。