在线看毛片网站电影-亚洲国产欧美日韩精品一区二区三区,国产欧美乱夫不卡无乱码,国产精品欧美久久久天天影视,精品一区二区三区视频在线观看,亚洲国产精品人成乱码天天看,日韩久久久一区,91精品国产91免费

<menu id="6qfwx"><li id="6qfwx"></li></menu>
    1. <menu id="6qfwx"><dl id="6qfwx"></dl></menu>

      <label id="6qfwx"><ol id="6qfwx"></ol></label><menu id="6qfwx"></menu><object id="6qfwx"><strike id="6qfwx"><noscript id="6qfwx"></noscript></strike></object>
        1. <center id="6qfwx"><dl id="6qfwx"></dl></center>

            新聞中心

            EEPW首頁 > 業(yè)界動態(tài) > 算法正在創(chuàng)造一個沒人能理解的代碼世界

            算法正在創(chuàng)造一個沒人能理解的代碼世界

            作者: 時間:2018-09-04 來源:品途商業(yè)評論 收藏

              這幾年,以今日頭條為代表的“算法分發(fā)”模式席卷全球互聯網行業(yè)。而各界對算法的非議也漸漸浮現,有的認為它“計算不準”,有的認為它“惡意推薦”,甚至還出現了“算法技術應退出時代舞臺”的論調。

            本文引用地址:http://www.biyoush.com/article/201809/391505.htm

              事實上,對科技公司來說,算法是一把雙刃劍,一方面在驅動其業(yè)績增長方面立下了汗馬功勞,另一方面卻“后患無窮”。以今日頭條為例,該公司幾乎完全憑借算法,快速超越了傳統門戶的人工編輯模式,優(yōu)勢極為明顯;但在判斷內容質量,發(fā)現傳播風險方面,算法卻還處于非常初級的階段,不太能指望得上。

              總的來說,隨著算法的發(fā)展,這個代碼疊加的技術正逐漸創(chuàng)造一個沒人能理解的世界......

              2018年3月18日,悲劇發(fā)生了,這也是科技人士所擔心的。那天晚上,一輛Uber無人車在自動駕駛的狀態(tài)下行駛,突然檢測到前方有障礙物出現。一系列雷達和激光雷達傳感器探測到的數據讓機載算法開始計算,假設障礙物保持不動,車速穩(wěn)定在43英里/小時,那現在二者的距離只需6秒。但是道路中的物體很少保持靜止,于是更多的算法開始搜索可識別生物實體的數據庫,以尋找一個模型來推出一個完美的解決方案。

              起初,計算機空白了幾秒,隨后決定與障礙物“碰面”希望它能自行離開。然而,到最后一秒,該車才清楚的知道,這是一位推著自行車的女士。在這種情況下,汽車想要繞過去,但因為禁止自行采取規(guī)避行動,計算機只能將控制權交還人類。遺憾的是,安全員正在開小差,悲劇就這樣發(fā)生了:49歲的Elaine Herzberg在車禍中去世。這件事也給科技界的留下了兩個值得反思的問題:這種算法造成的悲劇是不可避免的嗎?我們應該如何應對這些事件?

              “在某些方面,我們失去了控制權。當程序進入代碼,代碼進入算法,然后算法開始創(chuàng)建新算法時,它會越來越不受人類控制,軟件也就進入了一個沒人能理解的代碼世界?!笔遣皇锹犉饋砗荏@悚,事實也會如此。這句話出自Ellen Ullman之口,她是自20世紀70年代以來的一位杰出的專業(yè)程序員,也是為數不多的幾位出版過關于編程的書的人。

              “人們可能會說,‘那Facebook呢?他們創(chuàng)造并使用算法,還會進行改進。’但這不是Facebook的運作方式。研究員設置算法,它們學習,改變和運行自己。Facebook定期介入,但他們真的無法控制這些算法,對特殊的算法而言,它們不僅僅是自主運行,還會調用數據庫,進入深層操作系統,等等?!?/p>

              什么是算法?

              如今,很少有哪種技術會比算法更受歡迎,但算法究竟是什么呢?從根本上說,算法是一個小而簡單的事情,即用于自動處理數據的規(guī)則。如果a發(fā)生了,那么執(zhí)行b;如果沒發(fā)生,那就執(zhí)行c。這是經典計算的“if / then / else”邏輯。核心上,計算機程序是這類算法的捆綁,為它們投遞處理數據。

              不過,近年來算法出現了一種很模棱兩可的定義,指任何大型、復雜的決策軟件系統,根據一組給定的標準(或“規(guī)則”),獲取數據輸入并快速評估。這徹底改變了醫(yī)學、科學、交通、以及通信領域,讓人們的生活在各個方面變得更好。

              直到2016年,我們對算法有了新的思考。像Facebook和谷歌這樣的公司開始以客觀的承諾為算法辯護,認為它可以通過數學分離和缺乏模糊情感來權衡一系列條件?;诖耍@種算法決策擴展到了發(fā)放貸款、保釋、福利、工作面試以及其他任何需要選擇的事情上。

              現在的我們不再能接受這種對算法的“推銷”。凱西·奧尼爾(Cathy O'Neil)在其著作《數學破壞武器》(Weapons of Math Destruction)中表示,對于人類的偏見,算法不僅會鞏固還會放大,而不是消除。對此,她呼吁對任何能直接影響公眾的系統進行“算法審計”(algorithmic audits),這是一個明智的想法,不過對科技行業(yè)不是一件好事,因為算法是他們的支撐,他們最不愿做的就是透明化。

              好消息是這場戰(zhàn)斗正在進行中,壞消息是人們的注意力都集中在人工智能的遙遠承諾和威脅上,幾乎沒人注意到我們進入了算法革命的新階段。由奧尼爾和其他人所創(chuàng)造的算法是不透明但可預測的,我們將這些算法稱為“dumb”,它們能根據人類定義的參數來完成工作。

              而結果的質量取決于編程的思想和技巧。其終極目的便是人工智能或AGI。一個智能機器將能夠基于直覺(我們可能認為是經驗和知識的積累)質疑自己的計算質量。谷歌DeepMind創(chuàng)建的AlphaGo就是一個很好的例子。事實上,在某些特定任務中,計算機已經遠遠優(yōu)于人類,但要與人類的能力相比媲美,還需要時間。

              現實生活中的危險

              回到之前Uber無人車發(fā)生事故的原因。目前正在測試的自動駕駛汽車可能包括1億行代碼,并且鑒于沒有程序員可以預測真實世界道路上的所有可能情況,他們必須學習并接收不斷更新。我們如何避免在此代碼環(huán)境中發(fā)生沖突,尤其是算法可能還需要保護自己免受黑客攻擊的時候?

              二十年前,George Dyson在他的經典著作《電腦生命天演論》(Darwin Among the Machines)中預測了今天發(fā)生的大部分事情。他表示問題在于我們正在構建超出控制范圍的系統。人們總是相信,如果一個系統是確定的(根據固定規(guī)則行動,這是一個算法的定義),它就是可預測的,并且預測也是可控的。實際上,這兩個假設都是錯誤的。

              與以前的電子機械系統不同,新算法無法進行詳盡的測試。除非我們擁有超級智能機器為我們做這件事,否則我們就是在鋌而走險。因此,從目前的情況看,重點是機器學習。我們都知道,今年早些時候,Uber自動駕駛汽車出現了致死事故,因為算法在對行人分類時猶豫不決。這是由于編程不佳,算法培訓不足還是拒絕接受技術的局限性造成的?真正的問題是我們可能永遠不會知道答案。

              新南威爾士大學的人工智能教授Toby Walsh表示,“我們最終會完全放棄編寫算法,因為未來機器能比以我們做得更好。從這個意義上說,軟件工程可能是一個垂死的職業(yè)。它將被機器接管?!贝送?,他還指出,這會讓人們學習編程變得更加重要,因為隨著我們越來越疏離編程,就會越覺得它的影響超出了我們的能力。另外,倫理在科技領域來說,是最重要的。畢竟,哪里有選擇,哪里就是道德所在的地方。

              相反的觀點是,一旦程序出現問題,整個程序群體就可以被重寫或更新,同一種情況就不會再發(fā)生了,而不像人類,重復錯誤的傾向可能更會誤導機器。盡管如此,雖然從長遠來看自動化應該更安全,但我們現有的侵權法體系需要重新定制,這需要有意或過失的證明。

              其實,上文描述的大多數問題,也都在尋找解決方案。從長遠來看,會有更多的人猜測,考慮到我們越來越依賴的算法系統的規(guī)模,復雜性和相互依賴性,當前的編程方法已不再適用。對此,部分航空航天工業(yè)采用了一種較新的被稱為“基于模型的編程”的方法,其中機器完成大部分編碼工作并且能夠隨時進行測試。

              然而,基于模型的編程可能不是萬能的靈丹妙藥。它不僅使人類進一步遠離這一過程,而且人類也無法從代碼本身推斷出極端行為,即使是在使用大型復雜系統構建的情況下也是如此。當我們等待技術上的答案來解決算法問題時,或許采用一些預防措施才是最重要的。



            關鍵詞:

            評論


            相關推薦

            技術專區(qū)

            關閉