三大頂級學府發(fā)布98頁人工智能報告:警告!AI面臨黑客攻擊風險
一份新的報告警告說,人工智能的快速發(fā)展正在增加危險,惡意用戶很快就會利用這項技術(shù)來安裝自動黑客攻擊,導致無人駕駛汽車碰撞或?qū)⑸逃脽o人機變成有針對性的武器。
本文引用地址:http://www.biyoush.com/article/201802/375946.htm這項研究由來自劍橋、牛津和耶魯大學的25名技術(shù)和公共政策研究人員以及隱私和軍事專家于周三發(fā)布,他們對流氓國家、罪犯和孤狼襲擊者可能濫用人工智能的行為發(fā)出了警告。
研究人員說,人工智能的惡意使用會對數(shù)字、物理和政治安全構(gòu)成迫在眉睫的威脅,因為它允許大規(guī)模、精細目標、高效的攻擊。這項研究的關(guān)注重點是5年內(nèi)的合理發(fā)展。
“我們都認為人工智能有很多積極的應用。”牛津大學人類學院未來研究員邁爾斯·布倫達奇說,“但在有關(guān)惡意使用的文獻卻是一片空白。”
AI,即人工智能,包括使用計算機執(zhí)行通常需要人類智能的任務,比如決策或識別文本、語音或視覺圖像。
人工智能被認為是開啟各種技術(shù)可能性的強大力量,但它已成為尖銳辯論的焦點,即它所支持的大規(guī)模自動化是否會導致廣泛的失業(yè)和其他社會混亂。
這篇98頁的文章警告說,通過使用AI來完成可能需要人力和專業(yè)知識的任務,可能會降低攻擊的成本。 可能會出現(xiàn)新的攻擊,單靠人類獨自開發(fā)或利用AI系統(tǒng)本身的脆弱性是不切實際的。
報告審查了越來越多的關(guān)于人工智能安全風險的學術(shù)研究,并呼吁各國政府和政策和技術(shù)專家合作并化解這些危險。
研究人員詳細描述了人工智能的力量,以生成合成圖像、文字和音頻,以模仿他人的在線行為,以改變公眾的觀點,并指出專制政權(quán)可能會使用這種技術(shù)。
該報告提出了一系列建議,包括將人工智能作為一種軍民兩用的軍事/商業(yè)技術(shù)。
它還提出了一些問題,即學者和其他人是否應該控制他們發(fā)布或披露人工智能的新進展,直到該領(lǐng)域的其他專家有機會研究并對他們可能構(gòu)成的潛在危險做出反應。
“相比得到答案,最終會冒出更多問題。”布倫達奇說。
這篇論文是在2017年初的一個研討會上誕生的,它的一些預測在撰寫的時候基本實現(xiàn)了。作者推測,人工智能可以用來制作高度真實的虛假音頻和視頻,用于宣傳目的。
去年晚些時候,所謂的“deepfake”色情視頻開始在網(wǎng)上出現(xiàn),明星們的面孔實際上融合到了不同的身體上。
“這發(fā)生在色情行業(yè),而非宣傳,”OpenAI的政策主管杰克·克拉克(Jack Clark)說,該集團由特斯拉首席執(zhí)行官埃隆·馬斯克和硅谷投資家山姆·奧特曼(Sam Altman)創(chuàng)立,專注于造福人類的友好人工智能。“但是,沒有任何關(guān)于deepfake的東西表明它不會用于宣傳。”
評論