人工智能發(fā)展面臨的法律挑戰(zhàn)
觀察一個概念是不是在公眾視野中“紅了”,有一個判斷標準,就是看看在各大機場的書店里有多少本關于這個主題的暢銷書。以這個標準來看,人工智能現(xiàn)在無疑“紅的發(fā)紫”,也還會繼續(xù)紅下去。
本文引用地址:http://www.biyoush.com/article/201704/346769.htm然而,科技領域的每一個新概念,從產生到具體在各行業(yè)中落地,都需要面對很多挑戰(zhàn),既有技術和商業(yè)層面的,也有法律和公共政策層面的。
在過去的一年之間,人工智能的發(fā)展已經引起了很多國家、國際組織的重視,聯(lián)合國、美國、歐洲議會、英國、法國、電氣和電子工程師協(xié)會(IEEE)先后發(fā)布多份關于人工智能的報告,討論人工智能的影響和需要考慮的風險。這其中也包含了對于法律問題的討論。
筆者作為多家科技公司的顧問,也在業(yè)務實踐中遇到了很多和人工智能技術應用相關的法律問題,本文會結合實例討論人工智能發(fā)展在法律問題上可能會遇到哪些挑戰(zhàn)。
數(shù)據的收集、使用和安全
盡管人工智能從法律上很難準確定義,但從技術上來說,目前人工智能基本都會涉及機器學習技術(MachineLearning),這意味著需要收集、分析和使用大量數(shù)據,其中很多信息由于具有身份的識別性(包括結合其他信息識別身份),屬于個人信息。按照個人信息保護方面的法律規(guī)定,這些行為應當取得用戶明確、充分且完備的授權,并應當明確告知用戶收集信息的目的、方式手段、內容、留存時限還有使用的范圍等。
早在2011年,F(xiàn)acebook就曾因其人臉識別和標記功能未按伊利諾伊州《生物信息隱私法案》(BIPA)要求告知用戶收集面部識別信息的期限和方式被訴,隨后又因采集面部特征前未能明確提醒用戶并征得用戶同意而遭到愛爾蘭和德國有關部門的調查。盡管Facebook辯稱默認開啟該功能是因為用戶通常不會拒絕進行人臉識別,并且用戶有權隨時取消這一功能,但德國漢堡市數(shù)據保護與信息安全局堅持Facebook的面部識別技術違反了歐洲和德國的數(shù)據保護法,F(xiàn)acebook應刪除相關數(shù)據。最終,F(xiàn)acebook被迫在歐洲地區(qū)關閉了人臉識別功能,并刪除了針對歐洲用戶建立的人臉數(shù)據庫。
當然也有對企業(yè)有利的案例。著名籃球游戲NBA2K提供了使用用戶面部識別信息建立角色模型的功能,部分用戶以游戲制造者未征得其同意提起集體訴訟,法官認為被告收集信息最多是抽象的違反了BIPA,而沒有給原告造成具體而特定的損害,因此原告主體身份不適格,駁回了原告的訴請。
除了需要按告知的方式和范圍使用用戶數(shù)據,人工智能應用的開發(fā)者還可能面臨需要配合政府部門提供數(shù)據的情況。2016年阿肯色州發(fā)生的一起謀殺案中,警方希望獲取Alexa語音助手收集的語音數(shù)據,該請求遭到了亞馬遜公司的拒絕,理由是警方沒有出具有效的法律文件。但這種例子以后還會層出不窮。公權和私權的沖突,也許會因為人工智能技術的引入,出現(xiàn)新的形式。
人工智能開發(fā)者在收集、使用數(shù)據的過程中,還要遵守安全保障原則,采取適當?shù)?、與個人信息遭受損害的可能性和嚴重性相適應的管理措施和技術手段,保護個人信息安全,防止未經授權的檢索、披露及丟失、泄露、損毀和篡改個人信息。
數(shù)據歧視和算法歧視
人工智能在應用中,往往需要利用數(shù)據訓練算法。如果輸入的數(shù)據代表性性不足或存在偏差,訓練出的結果將可能將偏差放大并呈現(xiàn)出某種歧視特征。根據國外報道,卡內基?梅隆大學的研究顯示,由谷歌(Google)創(chuàng)建的廣告定位算法可能存在對互聯(lián)網用戶的性別歧視。在搜索20萬美元薪水的行政職位中,假冒男性用戶組收到1852個廣告,而假冒女性用戶組僅收到318個廣告。而在2016年3月23日,微軟公司的人工智能聊天機器人Tay上線不到24小時,就在一些網友的惡意引導和訓練下,發(fā)表了各種富有攻擊性和歧視性的言論。除此以外,因為數(shù)據存在偏差,導致結果涉嫌歧視甚至攻擊性的例子,已經大量出現(xiàn)。
這意味著開發(fā)者在人工智能的訓練和設計過程中需要秉承廣泛的包容性,充分考慮女性、兒童、殘疾人、少數(shù)族群等易被忽視群體的利益,并對道德和法律的極端情況設置特別的判斷規(guī)則。
由于人工智能系統(tǒng)并非表面那么看起來“技術中立”,在毫不知情的情況下,特定人群就可能就成了系統(tǒng)“偏見”和“歧視”的受害者。作為開發(fā)者,需要審慎面對這樣的風險。除了在采集數(shù)據和設計算法的時候需要注意數(shù)據的全面性和準確性以及算法的不斷調整更新外,在應用機器的預測結果是也應該更為謹慎,在重要領域不能將人工智能的運算結果當然作為最終且唯一的決策依據,關鍵的人為審查依然是必要的。例如在關于人工智能醫(yī)療輔助診斷的規(guī)定中,就明確了人工智能輔助診斷技術不能作為臨床最終診斷,僅作為臨床輔助診斷和參考,最終診斷必須由有資質的臨床醫(yī)師確定。
如果人工智能的歧視行為給用戶造成了實際或精神損害,相關的法律責任應當首先由人工智能服務的最終使用者承擔,人工智能開發(fā)者有過錯的,最終使用者承擔責任后可以向開發(fā)者追償。在判斷開發(fā)者過錯程度時,可能需要區(qū)分不同算法:如果技術開發(fā)者主動設立了算法中的規(guī)則,那么對最終出現(xiàn)的歧視風險預見和控制程度也更高,如果最終因系統(tǒng)的“歧視”或者“偏見”損害了第三方的合法權益,難辭其咎。但如果采取的深度學習等算法,由系統(tǒng)自身探索并形成規(guī)則,所以開發(fā)者對歧視風險的控制程度是比較低的,主觀惡意和過錯都較小,可能具有一定的免責空間。
事故責任和產品責任
和其他技術一樣,人工智能產品也有事故和產品責任的問題,但要分清是人為操作不當還是人工智能的缺陷并沒有那么容易,舉證上尤其困難。汽車的自動駕駛功能在國內外都曾因發(fā)生交通事故而被質疑其安全性。然而,并非只要安裝了人工智能,用戶使用產品受到的損害就都屬于人工智能的責任。筆者收集和接觸了不少和人工智能產品有關的糾紛,但其中有相當?shù)谋壤?,都不能證明開啟了人工智能的相關功能。
在確定事故屬于人工智能責任前需要明確排查以下問題:是否有人為操作等其他原因造成損害后果的發(fā)生?人工智能的具體功能是什么?損害發(fā)生時相關功能是否已經啟用?相關功能是否發(fā)揮了預期作用?相關功能與損害后果之間是否存在因果關系?因果關系的相關程度如何?產品功能描述和介紹中是否存在可能造成用戶降低注意水平的歧義或誤解?
根據《侵權責任法》的規(guī)定,因終端產品存在缺陷造成用戶損害的,終端產品生產者應當承擔侵權責任。如果終端產品使用的人工智能存在缺陷,而終端產品使用的人工智能芯片和服務(人工智能產品)是由他人提供的,則終端產品生產者可以以銷售者的身份,要求人工智能產品和服務的開發(fā)者作為產品生產者承擔侵權責任。同時,雙方也可以自行約定侵權責任的劃分問題。
在認定產品缺陷責任時一個比較棘手的問題是,各生產者之間的責任認定問題。因使用人工智能的終端產品可能涉及多類技術和部件,當該產品最終發(fā)生意外時,往往難以精準定位問題出現(xiàn)的具體環(huán)節(jié)和部位。因此,建議人工智能開發(fā)者通過黑匣子等技術手段加強對操作數(shù)據的記錄和保存,以便產生正義時履行舉證義務。
評論