在线看毛片网站电影-亚洲国产欧美日韩精品一区二区三区,国产欧美乱夫不卡无乱码,国产精品欧美久久久天天影视,精品一区二区三区视频在线观看,亚洲国产精品人成乱码天天看,日韩久久久一区,91精品国产91免费

<menu id="6qfwx"><li id="6qfwx"></li></menu>
    1. <menu id="6qfwx"><dl id="6qfwx"></dl></menu>

      <label id="6qfwx"><ol id="6qfwx"></ol></label><menu id="6qfwx"></menu><object id="6qfwx"><strike id="6qfwx"><noscript id="6qfwx"></noscript></strike></object>
        1. <center id="6qfwx"><dl id="6qfwx"></dl></center>

            博客專(zhuān)欄

            EEPW首頁(yè) > 博客 > 谷歌I/O四大更新:科技本質(zhì)不是硬件和軟件,而是知識(shí)與計(jì)算

            谷歌I/O四大更新:科技本質(zhì)不是硬件和軟件,而是知識(shí)與計(jì)算

            發(fā)布人:硅星人 時(shí)間:2022-05-14 來(lái)源:工程師 發(fā)布文章

            科技的存在,應(yīng)該為了我們更好地理解世界,并被世界所理解。

            文|杜晨    編輯 | Lianzi      所有圖片來(lái)源:谷歌


            經(jīng)過(guò)三年,谷歌開(kāi)發(fā)者大會(huì) I/O 終于今天回歸線(xiàn)下。

            位于谷歌山景城總部旁邊的 Shoreline 露天劇院今天座無(wú)虛席。上千名公司員工、合作伙伴代表,以及幸運(yùn)的第三方開(kāi)發(fā)者,終于在他們最熟悉的地方得以齊聚一堂。

            在歡快的電子舞曲之后,谷歌 CEO Sundar Pichai 走了出來(lái):“哈咯,大家能聽(tīng)到我嗎?”這引得臺(tái)下一陣歡笑。

            “過(guò)去兩年里,每次我進(jìn)會(huì)議都是靜音的,所以我想也許我應(yīng)該跟大家一起測(cè)試一下麥。

            圖片

            Pichai 表示,今年的 I/O 大會(huì)會(huì)發(fā)布和預(yù)告一系列科技含量非常高的產(chǎn)品和功能,橫跨谷歌的搜索、地圖、Android 軟件、Pixel 硬件產(chǎn)品,以及 AI 研究等多個(gè)部門(mén)。

            然而這些產(chǎn)品和功能本身,并不是科技的本質(zhì)。

            幾年前,谷歌重新設(shè)計(jì)了自己的公司使命:整合全球信息,使人人都能訪(fǎng)問(wèn)并從中受益。在 Pichai 看來(lái),這個(gè)使命有兩個(gè)最根本的組成部分:知識(shí)和計(jì)算。在 Pichai 的帶領(lǐng)下,谷歌在過(guò)去幾年內(nèi)在技術(shù)和產(chǎn)品創(chuàng)新方面所做的努力,包括感知計(jì)算 (Ambient Computing)、多模態(tài)學(xué)習(xí)、融合搜索 (Multisearch)、超大規(guī)模語(yǔ)言模型、增強(qiáng)現(xiàn)實(shí)等——其實(shí)歸根結(jié)底,都是在做兩件事:

            1)加深對(duì)于信息的理解,將其變?yōu)橹R(shí);

            2)推進(jìn)計(jì)算的范式創(chuàng)新,從而讓任何人在世界任何角落,都可以更容易地訪(fǎng)問(wèn)和獲取知識(shí)。

            圖片

            最直接的例子,就是谷歌在過(guò)去兩年所扮演重要的信息樞紐角色:

            在2021年,人們通過(guò)谷歌搜索和地圖來(lái)查找疫苗接種信息超過(guò)20億次;

            在印度和孟加拉國(guó),谷歌采用最新神經(jīng)網(wǎng)絡(luò)技術(shù)開(kāi)發(fā)的季風(fēng)預(yù)警系統(tǒng),已經(jīng)為超過(guò)2300萬(wàn)人提供了暴雨洪水預(yù)警,預(yù)計(jì)已挽救數(shù)十萬(wàn)災(zāi)民的生命。 

            信息只是信息,在民眾之間流轉(zhuǎn)的效率極低,并且很難保持準(zhǔn)確度。但是因?yàn)橛辛讼冗M(jìn)的知識(shí)圖譜技術(shù),這些信息能夠被系統(tǒng)識(shí)別、提取、精煉、匯總,最終以搜索結(jié)果、手機(jī)通知、災(zāi)害報(bào)告等形態(tài),作為一種知識(shí),得到了準(zhǔn)確和高效的傳播。

            在今天的 I/O 大會(huì),谷歌發(fā)布了一系列以推進(jìn)知識(shí)和計(jì)算為核心的新產(chǎn)品、功能和技術(shù)。

            | 讓真實(shí)世界可以被"Ctrl-F"

            今年4月,谷歌發(fā)布了一個(gè)全新的多模態(tài)搜索功能,讓用戶(hù)手機(jī)上通過(guò)拍照+文本的方式,進(jìn)行更加定制化的搜索。比如很想買(mǎi)別人穿的一雙鞋,但想要另一款顏色,就可以拍照,再加上“藍(lán)色的文字。這樣,需要進(jìn)行一次搜索,就可以更容易地找到自己正在尋找的信息和產(chǎn)品。

            但這還不夠。對(duì)于谷歌來(lái)說(shuō),他們想要索引和組織的信息,早已不僅限于網(wǎng)上。比如,我們用谷歌地圖來(lái)搜索真實(shí)世界中的地理位置相關(guān)信息。但如果想要更進(jìn)一步,讓用戶(hù)可以更加精確地搜索真實(shí)世界,特別是他們附近的特定信息,能做到嗎?

            在今天 I/O 大會(huì)上,谷歌還真發(fā)布了一個(gè)這樣的功能:Multisearch Near Me(周邊多重搜索).

            圖片

            我們可能都遇到過(guò)這樣的情況:在網(wǎng)上看到一道之前從未見(jiàn)過(guò),但讓你口水直流的菜,但是你壓根都不知道它叫什么菜,屬于什么菜系,附近有沒(méi)有對(duì)應(yīng)的餐館。

            這個(gè)功能就是專(zhuān)門(mén)來(lái)解決這個(gè)痛點(diǎn)的。你只需要拍照或者把照片上傳,然后文字輸入加上 “在我周?chē)保?strong style="margin: 0px; padding: 0px; outline: 0px; max-width: 100%; box-sizing: border-box !important; overflow-wrap: break-word !important;">谷歌不僅能告訴你這道菜叫什么名字,還能夠搜到附近有這道菜的店家。

            圖片

            這個(gè)搜索能力不僅限于食物,因?yàn)樗谋澈笫枪雀杷阉饕呀?jīng)在采用的多模態(tài)機(jī)器學(xué)習(xí)引擎。一個(gè)模型可以同時(shí)理解并處理文字、圖片、語(yǔ)音等多種不同模態(tài)的信息。原則上,任何物體它都能夠搜索,包括并不限于食物、商品、服務(wù)(比如美甲)等。

            這個(gè)功能將于今年內(nèi)正式推出,初期僅支持英文,后續(xù)將會(huì)增加更多語(yǔ)言。與此同時(shí),這個(gè)功能已經(jīng)上線(xiàn)谷歌移動(dòng)端 App,用戶(hù)已經(jīng)可以開(kāi)始使用。

            除此之外,今年谷歌在視覺(jué)搜索上面還有另一個(gè)大動(dòng)作:對(duì)移動(dòng)的取景框內(nèi),多個(gè)不同物體,進(jìn)行同時(shí)和連續(xù)搜索,并且通過(guò)AR疊加的方式來(lái)展現(xiàn)這些物體相關(guān)的信息。

            比如在超市,面對(duì)一整面貨架的咖啡豆,不知道該買(mǎi)哪一款,你只需要掏出手機(jī),打開(kāi) Google Lens(谷歌搜索和相機(jī)的視覺(jué)搜索功能),就可以看到這些不同品牌咖啡豆的評(píng)分了。

            不僅如此,你還可以繼續(xù)進(jìn)行條件過(guò)濾,比如“高分”、“深烘焙”、“不含堅(jiān)果等”:

            這個(gè)功能叫做 Scene Exploration,目前仍在開(kāi)發(fā)中,尚無(wú)具體發(fā)布的計(jì)劃。除了 AR 之外,它也同樣利用了剛才提到的多重搜索技術(shù)。

            Pichai 表示:這就像給真實(shí)世界加入了 "Ctrl-F" 功能一樣。

            | 谷歌地圖:觀察真實(shí)的世界,現(xiàn)在有了全新角度

            疫情兩年以來(lái),很多人恐怕已經(jīng)忘記旅行是一種怎樣的體驗(yàn)。這也是為什么很多現(xiàn)在只能通過(guò)谷歌地圖/地球,以及瀏覽各種網(wǎng)站照片和旅行視頻來(lái)過(guò)眼

            深知這一點(diǎn),谷歌地圖團(tuán)隊(duì)決定給用戶(hù)們送上一份大福利。

            先看下面這張圖。如果不說(shuō)清楚的話(huà),你可能以為這是一張倫敦實(shí)景照片:

            圖片

            但其實(shí),這是谷歌地圖團(tuán)隊(duì)使用最先進(jìn)的繪圖和機(jī)器學(xué)習(xí)技術(shù),開(kāi)發(fā)出的全新的3D渲染地圖功能 Immersive View:

            對(duì)于一些知名的地標(biāo)建筑,比如倫敦的大本鐘和西敏寺大教堂,用戶(hù)可以旋轉(zhuǎn)3D地圖查看不同角度,甚至還可以自選查看地標(biāo)建筑物在不同時(shí)間和天氣下多變的樣貌:

            圖片

            谷歌地圖 Immersive View (沉浸式視圖)將在今年內(nèi)推出,支持 Android 和 iOS,支持的城市和地標(biāo)有限,首批包括洛杉磯、倫敦、紐約、舊金山和東京,之后將逐漸增加更多城市和知名建筑物。


            | AI 幫你“長(zhǎng)求總”

            在谷歌,Pichai 會(huì)要求員工給他發(fā)送較長(zhǎng)文檔或電郵的時(shí)候,把內(nèi)容總結(jié) TLDR (Too Long Didn't Read,也就是長(zhǎng)求總”),放在文檔或電郵的最前面。這引發(fā)了團(tuán)隊(duì)的思考:如果更多東西也能被 TLDR,那該多好?

            之前谷歌還就真的推出過(guò)這么一個(gè)功能:

            在文檔當(dāng)中,機(jī)器學(xué)習(xí)模型會(huì)在后臺(tái)運(yùn)行,從文檔和聊天記錄當(dāng)中提取文本,提煉出關(guān)鍵內(nèi)容,然后自動(dòng)生成一份總結(jié):

            圖片

            以下面這份團(tuán)隊(duì)出游計(jì)劃為例:AI 可以提取出組織者、成員、每一位成員的登記狀態(tài)和提問(wèn),以及相關(guān)參考資料等重要信息,放在文檔的開(kāi)頭,讓文檔的參與者可以一目了然。

            圖片

            而在這屆 I/O 大會(huì)上,谷歌宣布把這個(gè) TLDR 功能遷移到整個(gè)企業(yè)套件 Google Workspace 的更多功能里,比如 Space 和 Google Chat。

            (Space 是谷歌企業(yè)服務(wù)的團(tuán)隊(duì)溝通產(chǎn)品,和 Slack 對(duì)標(biāo)。)

            畢竟我們可能都有特別喜歡在聊天的時(shí)候一句話(huà)只發(fā)幾個(gè)字,還不停的發(fā)的同事或朋友——有了這個(gè)功能之后,我們也許就可以直接屏蔽ta的消息通知,然后隔段時(shí)間看一下總結(jié)就行了。

            在這個(gè) TLDR 功能的背后,實(shí)際上是谷歌在自然語(yǔ)言理解和處理方面的一次“大躍進(jìn)”式的突破。

            在過(guò)去,類(lèi)似的文本總結(jié)功能通常需要神經(jīng)網(wǎng)絡(luò)模型同時(shí)具有長(zhǎng)文本段落理解、信息壓縮和語(yǔ)言生成方面的能力,對(duì)于以往的模型來(lái)說(shuō)不可能的。

            隨著谷歌近幾年在超大規(guī)模語(yǔ)言模型和多模態(tài)機(jī)器學(xué)習(xí)方面的進(jìn)步,這一看起來(lái)非常簡(jiǎn)單,正常人可以輕松具備的能力,才終于被機(jī)器獲得。


            | 用計(jì)算的力量,讓知識(shí)無(wú)遠(yuǎn)弗屆

            去年,谷歌推出了 LaMDA (Language Model for Dialog Applications),一個(gè)主要用于對(duì)話(huà)類(lèi)應(yīng)用的語(yǔ)言生成模型。我們?cè)谌ツ甑?I/O 大會(huì)報(bào)道中曾經(jīng)詳細(xì)介紹過(guò)這個(gè)模型。

            圖片

            今年,谷歌在 LaMDA 的基礎(chǔ)上進(jìn)一步開(kāi)發(fā),強(qiáng)化了模型的參數(shù)量和能力,并終于推出了 LaMDA 2 模型。已經(jīng)有數(shù)千名谷歌員工在試用這一模型并為 Google AI 的研究開(kāi)發(fā)團(tuán)隊(duì)提供反饋。

            在此基礎(chǔ)上,谷歌還推出了一個(gè)名為 AI Test Kitchen 的測(cè)試環(huán)境。這是一個(gè)應(yīng)用,目前仍在小范圍封閉測(cè)試中,主要目的是讓一小部分人跟它背后的 LaMDA 2 進(jìn)行對(duì)話(huà),提出各種各樣的問(wèn)題,或者讓它完成各種各樣的任務(wù)。

            目前 AI Test Kitchen 已經(jīng)開(kāi)放了三個(gè) Demo:

            1)想象 Imagine it,用戶(hù)給出一個(gè)地點(diǎn),讓模型自己想象那里的景色并生成描述:

            2)分解步驟/規(guī)劃列表 List it,你可以問(wèn)它一個(gè)復(fù)雜的問(wèn)題,比如“把大象裝進(jìn)冰箱”,然后看它把完成任務(wù)需要的步驟列出來(lái)。

            值得一提的是,分解和生成的步驟列表當(dāng)中的每一項(xiàng),還可以繼續(xù)分解裂變;而且,它不僅能夠生成列表(提煉知識(shí)),還能夠在具體步驟上提供額外的詳細(xì)指導(dǎo)(設(shè)定幾種不同的具體情況,并提供不同的建議)。

            3)描述 Talk About It,給一個(gè)既定的話(huà)題,讓他隨便說(shuō)些什么。

            圖片

            目前,LaMDA 模型技術(shù)還處于早期階段,在實(shí)際試用和完成具體任務(wù)的時(shí)候會(huì)出現(xiàn)一些預(yù)料之中或之外的異常情況,比如在用戶(hù)意圖繼續(xù)討論當(dāng)前話(huà)題的時(shí)候出現(xiàn)跑題,或者分解生成的步驟列表存在錯(cuò)誤信息等。

            目前,谷歌搜索和其它一些重度依賴(lài)知識(shí)圖譜 (Knowledge Graph) 的產(chǎn)品,已經(jīng)在利用類(lèi)似的語(yǔ)言生成模型了。通過(guò) AI Test Kitchen,谷歌希望測(cè)試者能夠更多地和 LaMDA 進(jìn)行互動(dòng),做出評(píng)價(jià),給予反饋。

            在未來(lái),谷歌的計(jì)劃是采用其在最近一年里開(kāi)發(fā)的超大規(guī)模語(yǔ)言模型集大成者——PaLM(全稱(chēng) Pathways Language Model)來(lái)完成更加復(fù)雜的語(yǔ)言模型類(lèi)任務(wù)。

            PaLM 和前序超大規(guī)模語(yǔ)言模型最大的不同,就在于它一個(gè)“思路鏈條”(Chain of Thought) 系統(tǒng),并且能夠在輸出結(jié)果的時(shí)候把這個(gè)推理邏輯一同體現(xiàn)出來(lái)。這和以往被認(rèn)為是黑盒子的神經(jīng)網(wǎng)絡(luò)模型工作方式產(chǎn)生了非常大的不同,不僅在 AI 可解釋性上獲得了長(zhǎng)足進(jìn)展,還展現(xiàn)出神經(jīng)網(wǎng)絡(luò)在仿生(人類(lèi))的工作機(jī)制上的重要進(jìn)步。

            圖片

            開(kāi)發(fā)超大規(guī)模語(yǔ)言模型、多模態(tài)神經(jīng)網(wǎng)絡(luò)等目前最先進(jìn)的機(jī)器學(xué)習(xí)技術(shù),并且將其用于谷歌的核心商業(yè)產(chǎn)品,對(duì)于這家公司來(lái)說(shuō)尤為重要。

            互聯(lián)網(wǎng)乃至整個(gè)人類(lèi)社會(huì)每天都在生成大量的信息,而谷歌需要維持將這些信息高效地轉(zhuǎn)變成成為知識(shí),并且讓這些知識(shí)可以被每一位用戶(hù)及時(shí)、方便地獲取的能力。

            雖然今天谷歌仍然是世界的百科全書(shū),但只有維持這種能力,谷歌才能繼續(xù)實(shí)現(xiàn)其當(dāng)前商業(yè)地位和人類(lèi)社會(huì)地位的永續(xù)。


            | One More Thing: 借助 AR 和翻譯的力量,打破語(yǔ)言的隔閡

            這場(chǎng) I/O 大會(huì)也發(fā)布了不少硬件產(chǎn)品,它們并非我們今天主要關(guān)注的對(duì)象,你可以通過(guò)硅星人的母站品玩的報(bào)道來(lái)了解這些硬件產(chǎn)品。

            不過(guò)值得一提的是,還真有一款今天展示的硬件,以它自己獨(dú)特的方式,強(qiáng)化了今天谷歌想要傳達(dá)的主題。

            主題演講的最后,Pichai 播放了一段視頻,展示了谷歌正在開(kāi)發(fā)的一款智能眼鏡原型產(chǎn)品。

            圖片

            這支眼鏡,看起來(lái)一點(diǎn)都不“智能”。然而,它卻能夠?qū)崟r(shí)翻譯面前的人所說(shuō)的話(huà),并且把翻譯結(jié)果顯示在鏡片上:

            圖片

            更厲害的是,它還能夠翻譯美國(guó)手語(yǔ) (ASL):

            語(yǔ)言是人際溝通最重要的工具。然而,如果對(duì)方說(shuō)的是完全不懂的語(yǔ)言,或者當(dāng)對(duì)方是聾啞人的時(shí)候,我們之間的溝通就成了一堵難以跨越的高墻。

            在高墻面前,谷歌選擇了它最熟悉的方式——用技術(shù)去消弭隔閡,使得難以進(jìn)行的溝通,終于得以成為可能。

            曾幾何時(shí),“科技以人為本”作為一家科技公司的標(biāo)語(yǔ),被傳為佳話(huà)。而在今天,谷歌更加具體地幫助我們拆解了“科技以人為本”的概念究竟是什么:

            科技的本質(zhì)是知識(shí)與計(jì)算。而歸根結(jié)底,知識(shí)與計(jì)算的存在,都應(yīng)該是為了我們更好地理解世界,并被世界所理解。


            *博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。



            關(guān)鍵詞: 谷歌I/O

            相關(guān)推薦

            技術(shù)專(zhuān)區(qū)

            關(guān)閉