在线看毛片网站电影-亚洲国产欧美日韩精品一区二区三区,国产欧美乱夫不卡无乱码,国产精品欧美久久久天天影视,精品一区二区三区视频在线观看,亚洲国产精品人成乱码天天看,日韩久久久一区,91精品国产91免费

<menu id="6qfwx"><li id="6qfwx"></li></menu>
    1. <menu id="6qfwx"><dl id="6qfwx"></dl></menu>

      <label id="6qfwx"><ol id="6qfwx"></ol></label><menu id="6qfwx"></menu><object id="6qfwx"><strike id="6qfwx"><noscript id="6qfwx"></noscript></strike></object>
        1. <center id="6qfwx"><dl id="6qfwx"></dl></center>

            新聞中心

            EEPW首頁(yè) > 消費(fèi)電子 > 業(yè)界動(dòng)態(tài) > 微軟CEO談人工智能、算法責(zé)任以及Tay黑化的教訓(xùn)

            微軟CEO談人工智能、算法責(zé)任以及Tay黑化的教訓(xùn)

            作者: 時(shí)間:2016-11-08 來源:網(wǎng)絡(luò) 收藏

              在納德拉設(shè)想的未來中,聊天機(jī)器人將大行其道。

            本文引用地址:http://www.biyoush.com/article/201611/339839.htm

              正迅速轉(zhuǎn)型,自我定位為的領(lǐng)導(dǎo)者。

              周一(9月26日),該公司首席執(zhí)行官薩蒂亞·納德拉(Satya Nadella)站在舞臺(tái)上發(fā)表了年內(nèi)關(guān)于(AI)的第二場(chǎng)主題演講。

              從云計(jì)算服務(wù)到Microsoft Word,他重申了要在旗下各項(xiàng)業(yè)務(wù)中注入某種技術(shù)的承諾。

              在納德拉走下舞臺(tái)之后,筆者獲得了這次采訪機(jī)會(huì),他向我們介紹了在開發(fā)人工智能助手方面的進(jìn)展情況。

              今年早些時(shí)候,你開始談到我們需要打造透明的AI、道德的AI以及負(fù)責(zé)任的AI。自那以后你都做了哪些工作,具體是什么?

              納德拉:我想,我做的第一件事情,甚至于在微軟的內(nèi)部,就是提出原則以及喚起開發(fā)者的意識(shí),正如我們對(duì)用戶界面所做的那樣。

              我們打造的機(jī)器智能是在幫助人類嗎,是在增強(qiáng)人類嗎?

              微軟開發(fā)的所有AI產(chǎn)品,在我第一次拿到手時(shí),首先都會(huì)問:

              它增強(qiáng)了什么?

              做了哪些賦權(quán)?

              用了哪些我們可以在算法上負(fù)起責(zé)任的訓(xùn)練方法?

              這些都是可以具體落實(shí)的要求。不過,我并不想簡(jiǎn)單地把這些要求當(dāng)成某種業(yè)績(jī)指標(biāo)類的東西。

              落實(shí)這些要求,關(guān)鍵在于設(shè)計(jì)上的敏感性,在于我們的開發(fā)人員、我們的設(shè)計(jì)師以及我們的產(chǎn)品選擇。

              一家公司想要提供優(yōu)秀的用戶體驗(yàn),都要提到設(shè)計(jì)原則,那么對(duì)于優(yōu)秀的人工智能,它的設(shè)計(jì)原則是什么呢?

              這個(gè)問題,極大地吸引我去思考:

              當(dāng)你在訓(xùn)練一個(gè)深度神經(jīng)網(wǎng)絡(luò)時(shí),負(fù)起算法責(zé)任(algorithmic accountability)意味著什么?

              當(dāng)你們?cè)谧鰣D像識(shí)別那樣的技術(shù)時(shí),開發(fā)者依賴于你們的服務(wù),如果某個(gè)地方出了錯(cuò),那可能在他們那里造成不良影響。對(duì)于客戶和最終用戶,你們是否有必要提供一種開放性?

              納德拉:我們無法知道所有的用例。

              人們將會(huì)使用這些認(rèn)知性API,不管是圖像識(shí)別還是語音識(shí)別,那取決于他們正在做的事情。

              我們不會(huì)成為“檢查員”或者編輯。

              就以圖像識(shí)別為例。

              如果我們的圖像識(shí)別API本身就存在一些偏見——那可能是因?yàn)槿狈?shù)據(jù),或者是特征選擇出了問題,又或者是我們構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò)偏離了設(shè)計(jì)——我完全認(rèn)為,我們必須負(fù)起責(zé)任,就像我們?yōu)槟切┸浖┒磽?dān)負(fù)責(zé)任一樣。

              因?yàn)?,說到底,雖然我們談?wù)撝斯ぶ悄?,但人工智能賴以工作的參?shù)最終還是由人類工程師定義的。

              并不是說我們想要所有事情時(shí)時(shí)刻刻都做到完美,但如果有人發(fā)現(xiàn)某個(gè)地方存在錯(cuò)誤,那么我們就會(huì)對(duì)它進(jìn)行重新訓(xùn)練。

              再來談?wù)劻奶鞕C(jī)器人,我們可以讓一個(gè)聊天機(jī)器人大體上理解用戶在說什么,但語言生成仍然是一個(gè)很大的研究課題。我們?nèi)绾尾拍茏屃奶鞕C(jī)器人說的話聽上去更智能呢?

              納德拉:這個(gè)問題可以分為多個(gè)層次。

              教導(dǎo)計(jì)算機(jī)學(xué)會(huì)人類語言是我們的終極任務(wù)之一。

              因此,對(duì)我來說,事情要一步一步地來做。在AI學(xué)會(huì)自由運(yùn)用人類語言之前,首先要讓它理解你來我往的對(duì)話。

              只不過,實(shí)現(xiàn)語言生成是一個(gè)通用人工智能(AGI)問題;它并不是一個(gè)應(yīng)用人工智能問題。

              你必須掌握一種通用人工智能和通用學(xué)習(xí)模型,它要能充分理解人類知識(shí)和詞匯中一切事物的語義。

              只要是會(huì)遇到歧義和錯(cuò)誤,就需要思考如何讓人類介入進(jìn)來,以及如何升格到由人來做出選擇。在我看來,這就是人工智能產(chǎn)品最講究的地方。

              如果有一定比例會(huì)出現(xiàn)歧義和錯(cuò)誤,那你就必須要有處理異常情況的能力。

              可是這首先要能夠檢測(cè)出那個(gè)異常來。

              幸運(yùn)的是,在人工智能中,你擁有信心和概率分布的支持。

              所以,你必須利用所有這一切讓人類介入進(jìn)來。

              就拿客戶支持來說,我們不認(rèn)為虛擬助理能夠回答所有問題。

              這種事可能需要升格到讓人類客服代表進(jìn)行處理,這時(shí)候聊天機(jī)器人就從主角變成了配角。

              客服代表回答問題,然后虛擬助理藉由強(qiáng)化學(xué)習(xí)從中汲取經(jīng)驗(yàn)教訓(xùn)。

              所以,那樣的過程將會(huì)幫助我們做得越來越好。

              但是,要做到這一點(diǎn),我們需要在通用學(xué)習(xí)技術(shù)上取得突破性進(jìn)展。

              當(dāng)人們都在努力爭(zhēng)取實(shí)現(xiàn)這些突破時(shí),你如何保持對(duì)聊天機(jī)器人這種技術(shù)的興趣?你怎樣屏蔽掉輿論炒作帶來的干擾?”

              納德拉:這就是所謂的產(chǎn)品選擇,它是一點(diǎn)點(diǎn)的藝術(shù),加一點(diǎn)點(diǎn)的設(shè)計(jì),再加上一大堆的人工智能能力,但這就是我們學(xué)到的東西。

              我的意思是,即便是通過微軟小娜(Cortana),我們也解決了很多難題,并且意識(shí)到很多人喜歡聽小娜講笑話。

              于是我們想:“哇哦,那很酷,讓我們?yōu)橛脩糇龀鲞@項(xiàng)功能吧。”

              這不僅僅在于技術(shù),而是我們必須找到技術(shù)與設(shè)計(jì)之間的那個(gè)能夠讓它們共同發(fā)展的黃金回路。

              你是否認(rèn)為存在一種讓所有業(yè)務(wù)都擁有聊天機(jī)器人的設(shè)計(jì)?它是否適用于每一項(xiàng)業(yè)務(wù)?

              納德拉:我想我們會(huì)找到答案的。

              我的確認(rèn)為,有些特定的業(yè)務(wù)和特定的業(yè)務(wù)流程,比如買保險(xiǎn),是非常適合聊天機(jī)器人的,可以通過設(shè)計(jì)實(shí)現(xiàn)。

              事實(shí)上,監(jiān)管要求是這樣的,當(dāng)你購(gòu)買保險(xiǎn)時(shí),使用聊天機(jī)器人的效果要比自己通過移動(dòng)應(yīng)用或網(wǎng)站摸索好得多。所以,那至少可以算作一個(gè)用例。

              我們正從這些開發(fā)者身上學(xué)到很多東西。

              什么時(shí)候保護(hù)人工智能免受攻擊或反向工程變成了一個(gè)問題?

              納德拉:如今這已經(jīng)是一個(gè)問題。

              我從(聊天機(jī)器人)Tay身上得到的最大收獲之一就是,你需要打造出能夠抵御惡意攻擊的人工智能。

             

              觀察Twitter上發(fā)生的事情,那很有趣,但舉例來說,我們?cè)谥袊?guó)沒有遇到同樣的事情。

              聊天機(jī)器人在中國(guó)進(jìn)行的社交對(duì)話是不同的,如果你把它置于美國(guó)的語料庫(kù)當(dāng)中,結(jié)果就不一樣了。

              當(dāng)然,Tay還遇到了集中攻擊。

              就像如今開發(fā)軟件要能經(jīng)受住DDOS攻擊,你也要能夠經(jīng)受住語料庫(kù)攻擊——這種攻擊試圖污染語料庫(kù),對(duì)AI進(jìn)行誤導(dǎo),從而讓AI學(xué)習(xí)模型選中錯(cuò)誤的東西。

              我們正想方設(shè)法應(yīng)對(duì)這些挑戰(zhàn)。

              我們(開發(fā)Tay)是作為一個(gè)學(xué)習(xí)模型的原型產(chǎn)品。

              如今,考慮到現(xiàn)有的媒體新聞周期,原型和正式發(fā)布的版本之間已經(jīng)區(qū)別不大。

              當(dāng)然,這是有意為之;如果你以一種公開的方式做這件事,毋庸置疑大家都能看到。在某些層面上,結(jié)果令人震驚。

              但與此同時(shí),我們并沒有說自己想要推出某個(gè)完美無缺的東西。

              它不像Windows 10的發(fā)布,它屬于那種研究項(xiàng)目,而不是用來賺錢的產(chǎn)品。

              而且,盡管有那種種“反應(yīng)”,它確實(shí)幫到了我們,也起到了很好的號(hào)召作用,讓我們更好地為自己所談?wù)摰脑O(shè)計(jì)原則打好基礎(chǔ),負(fù)起更大的算法責(zé)任,思考質(zhì)量保證意味著什么?以及思考你是基于公開語料庫(kù)發(fā)布產(chǎn)品,還是先發(fā)布到一個(gè)不同的語料庫(kù)中并進(jìn)行觀察?

              這些都是我們正在學(xué)習(xí)和改進(jìn)的技術(shù)。



            關(guān)鍵詞: 微軟 人工智能

            評(píng)論


            相關(guān)推薦

            技術(shù)專區(qū)

            關(guān)閉