<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>

新聞中心

EEPW首頁(yè) > 業(yè)界動(dòng)態(tài) > 引領(lǐng)人工智能發(fā)展:英特爾的獨家方法論

引領(lǐng)人工智能發(fā)展:英特爾的獨家方法論

—— 英特爾是領(lǐng)先的且更有能力引領(lǐng)人工智能應用時(shí)代的公司
作者: 時(shí)間:2022-02-15 來(lái)源:電子產(chǎn)品世界 收藏


本文引用地址:http://dyxdggzs.com/article/202202/431293.htm

內容摘要

●   人工智能是增長(cháng)最快的計算工作負載,其復雜性也在不斷增長(cháng),對計算、功率和帶寬的要求也越來(lái)越高。

●   我們處于一個(gè)轉折點(diǎn):人工智能正在逐漸突破數據中心,隨著(zhù)人工智能應用時(shí)代的到來(lái),人工智能的未來(lái)更在數據中心之外。

●   英特爾以獨家方法論推動(dòng)人工智能從云到端再到邊緣的發(fā)展。

●   英特爾的人工智能策略是通過(guò)降低用戶(hù)的進(jìn)入門(mén)檻加速人工智能普及?;谟⑻貭?至強?處理器和英特爾強大的產(chǎn)品組合及開(kāi)放的軟件生態(tài)系統,我們不僅能夠引領(lǐng)人工智能的發(fā)展,也可以深入影響更廣泛的行業(yè)趨勢,讓每個(gè)人都可以更便捷地使用人工智能。

1644895237383627.jpg

Sandra Rivera英特爾公司執行副總裁兼數據中心與人工智能事業(yè)部總經(jīng)理

人工智能(AI)的核心是使機器識別模式并據此做出準確預測的能力。而隨著(zhù)AI模型持續變得更加精妙和復雜,對更多計算、內存、帶寬和功率的需求也與日俱增。

AI是增長(cháng)最快的計算工作負載,也是英特爾認為將對世界產(chǎn)生變革性影響的四大超級技術(shù)力量之一。盡管它誕生于數據中心,但我相信AI的未來(lái)在數據中心之外。AI在客戶(hù)端和邊緣的應用時(shí)代已經(jīng)來(lái)臨,為了讓AI從云端擴展到邊緣,社區需要一種更加開(kāi)放和整體的解決方案來(lái)加速并簡(jiǎn)化整個(gè)數據建模和部署管道。我們的策略是復制公司歷史上為其他重大技術(shù)轉型所采取的措施:向更多客戶(hù)開(kāi)放,加速AI的普及化并推動(dòng)更大規模的應用。

在全球范圍內,英特爾是為數不多的能夠更好地引領(lǐng)世界進(jìn)入AI下一個(gè)時(shí)代的公司?;谖覀儚姶蟮纳鷳B(tài)系統和開(kāi)放式軟件,以及至關(guān)重要的CPU、GPU、ASIC等架構能夠滿(mǎn)足無(wú)數AI使用場(chǎng)景的特定需求,這將使我們能夠引領(lǐng)市場(chǎng)發(fā)展并為無(wú)處不在的開(kāi)放式AI打下堅實(shí)基礎。

一系列具備AI特性的領(lǐng)先架構

提及AI,許多人立刻會(huì )聯(lián)想到深度學(xué)習訓練和顯卡性能。由于訓練往往是大規模并行的,因此顯卡得到了很多關(guān)注,但這只是AI的一部分。大部分AI實(shí)踐中的解決方案會(huì )包含經(jīng)典機器學(xué)習算法和中低復雜度的深度學(xué)習模型的組合,而這些功能都已經(jīng)被集成在至強等現代CPU內。

1644895266369093.png

目前,AI數據流水線(xiàn)主要在至強處理器上運行。通過(guò)內置加速和優(yōu)化軟件,我們能夠讓至強處理器運行得更快?;诖?,我們一方面通過(guò)Sapphire Rapids,將AI的總體性能比上一代產(chǎn)品提高最多30倍;同時(shí),我們還通過(guò)將更多AI工作負載引入至強處理器以減少對獨立加速器的需求,從而進(jìn)一步提高至強處理器的產(chǎn)品競爭力。對于諸如至強等英特爾產(chǎn)品而言,AI功能和優(yōu)化并不是一個(gè)新概念。因此,我們計劃擴展這種方法,將AI融入我們交付到數據中心、客戶(hù)端、邊緣、顯卡等諸多領(lǐng)域的每個(gè)產(chǎn)品中。

對于那些真正在GPU上表現最佳的深度學(xué)習訓練,我們希望客戶(hù)能夠自由選擇最適合其AI工作負載的計算?,F階段的GPU是專(zhuān)有且封閉的,但我們有一款針對特定領(lǐng)域的Habana Gaudi AI處理器,和一款專(zhuān)為高性能計算打造的Ponte Vecchio顯卡,它們將基于開(kāi)放的行業(yè)標準。我們對Gaudi目前取得的進(jìn)展感到十分高興,AWS在2021年第四季度宣布全面推出基于Habana Gaudi的DL1實(shí)例,其性?xún)r(jià)比較基于顯卡的現有實(shí)例高40%,并在早期Gaudi使用測試中表現優(yōu)異。

打造成熟的生態(tài)系統吸引更多客戶(hù)

特定的模型、算法和要求會(huì )因使用場(chǎng)景和行業(yè)而變化。例如,一家自動(dòng)駕駛汽車(chē)公司需要解決感知(使用物體檢測、定位和分類(lèi))、高清地圖和路線(xiàn)規劃等問(wèn)題,并采取需要適應動(dòng)態(tài)環(huán)境的行動(dòng)。此外,技術(shù)支持軟件的聊天機器人也需要了解特定公司和行業(yè)的技術(shù)術(shù)語(yǔ),才能準確地回答相關(guān)問(wèn)題。同理,對AI軟硬件需求也因客戶(hù)、細分市場(chǎng)、工作負載和設計點(diǎn)而異。設備端、嵌入式和客戶(hù)端AI系統需要在功耗和散熱受限條件下實(shí)現低延遲推理。人們也越來(lái)越需要云中開(kāi)發(fā)的AI具有邊緣感知能力,以便云中開(kāi)發(fā)的解決方案可以部署在邊緣,反之亦然。

所有這些因素都在推動(dòng)從數據中心到網(wǎng)絡(luò )再到邊緣的全面創(chuàng )新,并影響諸如高帶寬和大容量?jì)却?、快速互連和智能軟件在內的系統級硬件架構。

1644895294662146.png

端到端AI流水線(xiàn)中最大的增長(cháng)點(diǎn)在于模型部署和AI推理階段。如今,超過(guò)70%的AI推理在至強處理器上運行,其中一個(gè)增長(cháng)最快的AI推理使用場(chǎng)景是智能邊緣,而至強已在此領(lǐng)域深耕多年。

在過(guò)去的八個(gè)月中,我一直在與主要客戶(hù)保持密切溝通,以更深入了解他們的需求和工作負載。這些交流不僅讓我們深入了解到如云服務(wù)供應商之類(lèi)的有較強影響力客戶(hù)的需求,也向我們展示了戰略合作伙伴如何幫助我們了解我們自身產(chǎn)品組合所應用的關(guān)鍵領(lǐng)域?,F階段,有數以萬(wàn)計的云實(shí)例在英特爾處理器上運行,而且它的增長(cháng)速度比任何其他架構都快。與此同時(shí),針對x86架構編寫(xiě)的代碼有數千億行,整個(gè)行業(yè)也已經(jīng)安裝了數億顆至強處理器。因此,英特爾具備得天獨厚的優(yōu)勢,不僅可以通過(guò)行業(yè)標準橫向推動(dòng)行業(yè)發(fā)展,亦能在需求更加專(zhuān)業(yè)的自動(dòng)化和醫療等領(lǐng)域縱向推動(dòng)行業(yè)發(fā)展。

面向AI開(kāi)發(fā)者的開(kāi)放軟件堆棧

硬件只是解決方案的一部分,因此我們在A(yíng)I策略上始終秉持“軟件優(yōu)先”的理念。其中,“軟件優(yōu)先”包括安全的AI軟件組件,即讓用戶(hù)能夠利用至強處理器的獨特軟件和安全功能,如通過(guò)英特爾?軟件防護擴展(英特爾? SGX)進(jìn)行機密計算,保護使用中的關(guān)鍵數據和軟件。英特爾?SGX是業(yè)界第一個(gè)也是部署最多的基于硬件的數據中心可信執行環(huán)境,在此基礎之上,我們的至強產(chǎn)品路線(xiàn)圖也涵蓋更多機密計算技術(shù),這也將夯實(shí)我們的技術(shù)領(lǐng)先性。

我們花費數年時(shí)間為CPU優(yōu)化最流行的開(kāi)源框架和函數庫,而且我們擁有基于開(kāi)放標準開(kāi)發(fā)的最廣泛的特定領(lǐng)域加速器組合,使代碼更容易移植且避免被鎖定。此外,為增強技術(shù)領(lǐng)先性并持續推動(dòng)創(chuàng )新,我們持續深耕技術(shù),希望能夠打造開(kāi)放式AI,以涵蓋從云和數據中心到客戶(hù)端、邊緣和更多領(lǐng)域。

盡管在A(yíng)I框架中默認啟用英特爾優(yōu)化對于推動(dòng)大規模芯片應用至關(guān)重要,但我們仍然需要滿(mǎn)足各類(lèi)AI開(kāi)發(fā)者的需求,如從事軟件堆棧底部工作的框架開(kāi)發(fā)者、在堆棧較高位置工作的低代碼或無(wú)代碼主題專(zhuān)家,以及部署、運行、訓練和維護AI模型(MLOps)的所有工程和運營(yíng)人員。盡管他們的角色迥然不同,但AI工作流程的每個(gè)階段都有共同的目標,即以最低的成本和風(fēng)險快速從概念擴展到現實(shí)世界,這也意味著(zhù)他們需要選擇以及基于易于部署和維護的通用框架的開(kāi)放解決方案。

基于此,我們已經(jīng)開(kāi)發(fā)了BigDL和OpenVino?。其中,BigDL支持在現有大數據基礎設施上進(jìn)行大規模機器學(xué)習;而通過(guò)數百個(gè)提前訓練的模型,OpenVino?可以加速并簡(jiǎn)化推理在許多不同硬件上的部署。通過(guò)一致的標準和API,為從事底層AI堆棧工作的開(kāi)發(fā)者提供可組合或優(yōu)化的構建塊,以及為低代碼開(kāi)發(fā)者提供優(yōu)化和產(chǎn)品化的工具和套件,英特爾助力AI開(kāi)發(fā)者茁壯成長(cháng)。我們持續深耕AI加速器和安全性,這將讓我們能夠使這些關(guān)鍵計算元素在所有客戶(hù)、細分市場(chǎng)和產(chǎn)品中廣泛存在。

英特爾推動(dòng)AI Everywhere

現階段AI已經(jīng)在深刻變革各行各業(yè),未來(lái)它也有望改善地球上每個(gè)人的生活,但前提是它能夠被更容易地大規模部署。我們認為,降低AI的進(jìn)入門(mén)檻需要正確的AI技術(shù)集合。經(jīng)過(guò)實(shí)踐,我們驗證了一個(gè)成功的模式,以加速AI創(chuàng )新的下一個(gè)時(shí)代:通過(guò)開(kāi)源工作幫助定義開(kāi)發(fā)環(huán)境,我們將能夠開(kāi)發(fā)和影響客戶(hù)的解決方案,從而影響整個(gè)行業(yè)。我們預測,到2026年,英特爾AI邏輯芯片的市場(chǎng)規模將超過(guò)400億美元。我們正以強大的實(shí)力抓住這個(gè)機會(huì ),我對未來(lái)充滿(mǎn)信心。



關(guān)鍵詞:

評論


相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>