在线看毛片网站电影-亚洲国产欧美日韩精品一区二区三区,国产欧美乱夫不卡无乱码,国产精品欧美久久久天天影视,精品一区二区三区视频在线观看,亚洲国产精品人成乱码天天看,日韩久久久一区,91精品国产91免费

<menu id="6qfwx"><li id="6qfwx"></li></menu>
    1. <menu id="6qfwx"><dl id="6qfwx"></dl></menu>

      <label id="6qfwx"><ol id="6qfwx"></ol></label><menu id="6qfwx"></menu><object id="6qfwx"><strike id="6qfwx"><noscript id="6qfwx"></noscript></strike></object>
        1. <center id="6qfwx"><dl id="6qfwx"></dl></center>

            博客專欄

            EEPW首頁 > 博客 > 微軟OpenAI聯(lián)手圍剿英偉達,首款自研AI芯片下月發(fā)布!

            微軟OpenAI聯(lián)手圍剿英偉達,首款自研AI芯片下月發(fā)布!

            發(fā)布人:傳感器技術 時間:2023-10-09 來源:工程師 發(fā)布文章
            編輯:好困 潤

            【導讀】一家獨大的英偉達,把微軟和OpenAI都逼得親自下場造芯片了。也許AI芯片大戰(zhàn)才剛剛拉開帷幕。
            微軟自研AI芯片,11月上線!知名外媒The Information獨家爆料稱,微軟計劃在下個月舉行的年度開發(fā)者大會上,推出首款人工智能芯片。同時,OpenAI也在招聘能夠幫助其評估和設計AI硬件的人員。業(yè)內(nèi)有一種說法,「賣H100比向沙漠里快要渴死的人賣水還要容易」。不論是為了走出算力枯竭,更高效,低成本地開發(fā)自己的模型,還是為了擺脫被「利潤率高達1000%」的H100盤剝。微軟和OpenAI都在嘗試「變硬」,努力戒掉對于英偉達的GPU依賴。但是,根據(jù)業(yè)內(nèi)人士爆料,英偉達對于已經(jīng)推出自己芯片的公司,比如谷歌和亞馬遜,會控制GPU的供給。所以「芯片自研」的道路,是一個風險和收益都很高的選擇,畢竟誰也不想未來被黃老板在GPU供給上進一步「卡脖子」。

            微軟自研AI芯片,追趕谷歌亞馬遜

            與英偉達的GPU類似,微軟的芯片也是專為數(shù)據(jù)中心服務器設計,可用于訓練和運行諸如ChatGPT這類的大語言模型。

            目前,不管是為云客戶提供先進的LLM支持,還是為自家的生產(chǎn)力應用提供AI功能,微軟都需要依靠英偉達的GPU提供算力的加持。而這款從2019年便開始研發(fā)的全新芯片,顯然可以極大地減輕微軟對英偉達GPU的依賴。據(jù)知情人士稱,微軟和OpenAI組成的聯(lián)合團隊,現(xiàn)在已經(jīng)在對其進行測試了。相比起早早入局的競爭對手,微軟直到2019年才開始AI芯片的研發(fā)。也是同年,微軟宣布將向OpenAI投資10億美元,并要求他們必須使用微軟的Azure云服務器。然而,當微軟開始與OpenAI進行更緊密地合作時發(fā)現(xiàn),依靠購買GPU來支持這家初創(chuàng)公司、Azure客戶以及自家產(chǎn)品的成本,實在是太高了。據(jù)知情人士透露,在開發(fā)Athena期間,微軟為了滿足OpenAI的需求,已經(jīng)向英偉達訂購了至少數(shù)十萬塊GPU。早在,今年4月,就有消息透露了這款代號為Athena的芯片的存在。據(jù)稱,微軟希望這款代號為Athena(雅典娜)芯片,能與一直供不應求的英偉達H100 GPU相媲美。目前,亞馬遜和谷歌已將人工智能芯片作為其云業(yè)務營銷戰(zhàn)略的重要組成部分。其中,亞馬遜在對Anthropic的投資中規(guī)定,對方需要使用亞馬遜的AI芯片,即Trainium和Inferentia。同時,谷歌云也表示,Midjourney和 Character AI等客戶使用了自研的TPU。微軟雖然還在討論是否要向Azure云客戶提供自研芯片,但該芯片在開發(fā)者大會上的首次亮相,可能預示著微軟正在尋求吸引未來云客戶的興趣。可以肯定的是,微軟將借著Athena的推出,極大縮短與另外兩家巨頭的距離——谷歌和亞馬遜早已在自家的云服務器上大規(guī)模采用了自研的芯片。此外,為了擺脫英偉達的「卡脖子」,微軟還在與AMD密切合作,開發(fā)即將推出的人工智能芯片MI300X。不過,微軟和其他云服務提供商普遍表示,自己并沒有停止從英偉達購買GPU的打算。但如果他們能說服云客戶更多地使用自研芯片,那么從長遠來看,這可以極大地節(jié)省開支。同時,也能幫助他們在與英偉達的談判中獲得更多籌碼。

            OpenAI:這兩家,我都不想要

            對于OpenAI來說,能同時減少對微軟和英偉達芯片的依賴,顯然是最好的。

            據(jù)OpenAI網(wǎng)站上的幾則招聘信息顯示,公司正在招聘能夠幫助其評估和共同設計AI硬件的人員。路透社也報道,OpenAI正在計劃下場生產(chǎn)自己的AI芯片。此前,CEO Sam Altman曾將獲得更多AI芯片作為公司的首要任務。一方面,OpenAI所需的GPU十分短缺,另外,運行這些硬件時產(chǎn)生的成本「令人瞠目結舌」。如果算力成本一直居高不下,長遠來看于整個AI行業(yè)來說可能并不是一個好消息。畢竟如果掘金的「鏟子」賣的比金子本身都貴,那么還會有人去做挖金子的人嗎?根據(jù)Stacy Rasgon的分析,ChatGPT每次查詢大約需要4美分。如果ChatGPT的查詢量增長到谷歌搜索規(guī)模的十分之一,那么就將需要價值約481億美元的GPU,并且每年需要價值約160億美元的芯片來維持運行。目前還不清楚OpenAI是否會推進定制芯片的計劃。據(jù)業(yè)內(nèi)資深人士分析,這將是一項投資巨大的戰(zhàn)略舉措,其中每年的成本可能高達數(shù)億美元。而且,即使OpenAI將資源投入到這項任務中,也不能保證成功。除了完全的自研之外,還有一種選擇是像亞馬遜在2015年收購Annapurna Labs那樣,收購一家芯片公司。據(jù)一位知情人士透露,OpenAI已經(jīng)考慮過這條路,并對潛在的收購目標進行了盡職調(diào)查。但即使OpenAI繼續(xù)推進定制芯片計劃(包括收購),這項工作也可能需要數(shù)年時間。在此期間,OpenAI還是將依賴于英偉達和AMD等GPU供應商。因為就算強如蘋果,在2007年收購了P.A. Semi和Intristy,到2010年推出第一款芯片A4,也經(jīng)歷了3年的時間。而OpenAI,自己本身都還是一家初創(chuàng)公司,這個過程也許走得會更加艱難。而且英偉達GPU最重要的護城河,就是它基于CUDA的軟硬件生態(tài)的積累。OpenAI不但要能設計出性能上不落后的硬件,還要在軟硬件協(xié)同方面趕超CUDA,絕對不是一件容易的事情。但是,另一方面,OpenAI做芯片也有自己獨特的優(yōu)勢。OpenAI要做的芯片,不需要向其他巨頭推出的芯片一樣,服務于整個AI行業(yè)。他只需滿足自己對模型訓練的理解和需求,為自己定制化的設計一款AI芯片。這和谷歌、亞馬遜這種將自己的AI芯片放在云端提供給第三方使用的芯片會有很大的不同,因為幾乎不用考慮兼容性的問題。這樣就能在設計層面讓芯片能更高效地執(zhí)行Transformer模型和相關的軟件棧。而且,OpenAI在模型訓練方面的領先優(yōu)勢和規(guī)劃,能讓它真正做到在未來把模型訓練相關的硬件問題,用自己獨家設計的芯片來解決。不用擔心自己的芯片在「滿足自己需要」的性能上,相比與英偉達這樣的行業(yè)巨頭會有后發(fā)劣勢。

            都是成本的問題

            設計自己的AI芯片,與英偉達直接「剛正面」如此之難,為什么巨頭們還要紛紛下場?

            最直接的原因就是,英偉達的GPU太貴了!加上云提供商在中間還要再賺一筆。這樣,包括OpenAI在內(nèi),使用英偉達GPU+云提供商的基礎模型企業(yè)成本肯定居高不下。有國外媒體算過這樣一筆賬:現(xiàn)在,購買一個使用英偉達H100 GPU的人工智能訓練集群,成本約為10億美元,其FP16運算能力約為20 exaflops(還不包括對矩陣乘法的稀疏性支持)。而在云上租用三年,則會使成本增加2.5倍。這些成本包括了集群節(jié)點的網(wǎng)絡、計算和本地存儲,但不包括任何外部高容量和高性能文件系統(tǒng)存儲。購買一個基于Hopper H100的八GPU節(jié)點可能需要花費近30萬美元,其中還包括InfiniBand網(wǎng)絡(網(wǎng)卡、電纜和交換機)的分攤費用。同樣的八GPU節(jié)點,在AWS上按需租用的價格為260萬美元,預留三年的價格為110萬美元,在微軟Azure和谷歌云上的價格可能也差不多。因此,如果OpenAI能夠以低于50萬美元的單價(包括所有成本)構建系統(tǒng),那么它的成本將減少一半以上,同時還能掌握自己的「算力自由」。將這些費用削減一半,在投入資源不變的情況下,OpenAI的模型規(guī)模就會擴大一倍;如果成本能夠減少四分之三,則翻四倍。在模型規(guī)模每兩到三個月翻倍的市場中,這一點非常重要。所以長遠來看,也許任何一個有野心的AI大模型公司,都不得不面對的一個最基本問題就是——如何盡可能的降低算力成本。而擺脫「金鏟子賣家」英偉達,使用自己的GPU,永遠都是最有效的方法。

            網(wǎng)友熱議

            對于OpenAI和微軟下場造AI芯片的做法,一些網(wǎng)友似乎持不同的意見,認為AI芯片是一個「陷阱」。

            逼得OpenAI等模型公司造硬件,一個最大的原因是其他芯片公司完全不給力,英偉達幾乎沒有競爭。如果AI芯片是一個競爭充分的市場,OpenAI這類的公司就不會自己下場做AI芯片。而有些想法更加激進的網(wǎng)友認為,大語言模型未來將集成到芯片當中,人類可以用自然語言和計算機直接對話。所以設計芯片是走到那一步的自然選擇。

             來源:新智元


            *博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



            關鍵詞: OpenAI

            技術專區(qū)

            關閉