一個(gè)時(shí)代有一個(gè)時(shí)代的計算架構
Can Machines Think?
這是阿蘭·圖靈在1950年論文《計算機器和智能》中的經(jīng)典提問(wèn),圍繞著(zhù)圖靈的目標,軟件和硬件開(kāi)啟了分頭行動(dòng)。
軟件,以算法為核心,衍生出了神經(jīng)網(wǎng)絡(luò ),并在深度學(xué)習的加持下,讓人工智能浪潮實(shí)現全面洶涌。
硬件,以芯片為載體,從CPU、GPU到各類(lèi)AI芯片,從執行人的計算程序,到像人一樣計算。芯片和AI,硬件和軟件,一個(gè)源頭流出的兩條大河,終于在此刻合流交匯。
但背后的驅動(dòng)力也越來(lái)越明顯:
一個(gè)時(shí)代有一個(gè)時(shí)代的架構。
現在,面向AI時(shí)代的計算架構,呼之欲出。
讓機器執行人的思考和計算:從CPU到GPU要想知道未來(lái)到哪去,必先知道自己從哪兒來(lái)。
今天,一切智能機器無(wú)論大小,都少不了一塊CPU。正是這個(gè)好比“大腦”的東西,讓大大小小的硬件可以執行人寫(xiě)好的規則,實(shí)現各式各樣的功能。
世界首塊CPU誕生于1971年,但它的概念可以追溯到世界上第一臺具有現代意義的通用計算機——EDVAC身上。
EDVAC是ENIAC(世界第一臺電子計算機)的小老弟,由馮·諾伊曼設計。EDVAC最大的改變之一,就是將計算機劃由運算器、控制器、存儲器、輸入和輸出這五個(gè)部分組成。
這就是著(zhù)名的馮·諾伊曼架構。從這個(gè)架構里,我們就可以看到CPU的雛形。
——從彼時(shí)至今,無(wú)論CPU的具體實(shí)現怎么變、晶體管數量翻多少番,它的構成始終由運算器、控制器和寄存器這三大部分組成。
其中,運算器也叫算術(shù)邏輯單元(ALU),負責算術(shù)運算和邏輯運算。寄存器細分為指令寄存器和數據寄存器等,負責暫存指令、ALU所需的操作數、ALU算出的結果等。
控制器則負責整體調度工作,包括對要執行的指令進(jìn)行譯碼、從內存中調取數據給寄存器、向運算器和寄存器發(fā)出具體操作指令等。
從上面這個(gè)分工我們也能看出CPU的大概工作流程,簡(jiǎn)單來(lái)說(shuō)就是這四步:
1、從內存提取指令;2、解碼;3、執行;4、寫(xiě)回。
其中寫(xiě)回到寄存器的結果,可供后續指令快速訪(fǎng)問(wèn)。
看起來(lái),整個(gè)流程沒(méi)有什么bug。
但仔細回看一下CPU三大組成的各自分工,可以發(fā)現控制器和寄存器是這里面要負責的東西最多、要存的東西最多的兩部分。
從下面這張CPU的簡(jiǎn)略架構圖也能看出,運算器“偏居一隅”,幾乎80%的空間都被控制單元和存儲單元占據。
這樣的設計就造成CPU最擅長(cháng)的是邏輯控制,而非計算。
同時(shí),依照馮·諾依曼架構“順序執行”的原則,“古板”的CPU只能執行完一條指令再來(lái)下一條,計算能力進(jìn)一步受限。
當然,你說(shuō)CPU靈活性高、通用性強,我們可以將它進(jìn)行同構并行。
但別忘了,單個(gè)CPU的性能上限就那么高、能容納的核數也有限,這種方法能挖掘的潛能實(shí)在有限。
所以,要是讓CPU來(lái)完成計算量動(dòng)輒上億的AI任務(wù),實(shí)在是“愛(ài)莫能助”。就比如在自動(dòng)駕駛領(lǐng)域,系統需要同時(shí)查看人行道、紅綠燈等路況,如果交給CPU來(lái)計算,總不能車(chē)都撞上了還沒(méi)算出來(lái)結果吧。
所以,針對CPU“拉垮”的計算能力,GPU站在了浪潮之巔。
正如其全稱(chēng)“圖形計算單元”,GPU的初衷主要是為了接替CPU進(jìn)行圖形渲染的工作。
因為圖像上的每一個(gè)像素點(diǎn)都需要處理,這項任務(wù)計算量相當大。尤其遇上一個(gè)復雜的三維場(chǎng)景,就需要在一秒內處理幾千萬(wàn)個(gè)三角形頂點(diǎn)和光柵化幾十億的像素。
不過(guò),由于每個(gè)像素點(diǎn)處理的過(guò)程和方式相差無(wú)幾,這項艱巨的任務(wù)可以靠并行計算來(lái)化解。
而這恰好就是GPU最得天獨厚的優(yōu)勢,尤其以處理這種邏輯簡(jiǎn)單、類(lèi)型統一的瑣碎計算任務(wù)為甚。
GPU之所以擅長(cháng)并行計算,從其架構里就決定了。
GPU幾乎主要由計算單元ALU組成,僅有少量的控制單元和存儲單元。
這也就意味著(zhù),GPU可以擁有數百、數千甚至上萬(wàn)核心來(lái)同時(shí)處理計算任務(wù),使計算的并行度得到成千上萬(wàn)倍的提升——相比現在普通電腦最多8核CPU同時(shí)工作,這是一個(gè)多么恐怖的數字。
再舉一個(gè)最簡(jiǎn)單的例子來(lái)直觀(guān)感受一下。
比如現在我們來(lái)計算一下5000個(gè)數相加之后的總和。
如果我們用CPU來(lái)算,即使派上8核CPU,每個(gè)核也需要計算625個(gè)數;假設每計算一個(gè)數需要1s,即使8核并行計算,總共也需要625s。(這里暫時(shí)不考慮支持向量指令的CPU)而GPU,核心數成千上萬(wàn),計算5000個(gè)數字只需每核算1個(gè)數,1s就能搞定。
625sVS1s,這是何等的差距。
除了并行計算能力,GPU的內存帶寬也是CPU的幾十倍 ,決定了它將數據從內存移動(dòng)到計算核心的速度更快,整體計算性能更加讓CPU望塵莫及。
由于GPU的設計并沒(méi)有專(zhuān)門(mén)跟圖形綁定的邏輯,屬于一種通用的并行計算架構,所以除了圖像處理,它其實(shí)也非常適用于科學(xué)計算,乃至復雜的AI任務(wù)。
所以在2012年,當Hinton及其弟子Alex Krizhevsky將其作為深度學(xué)習模型AlexNet的計算芯片,一舉贏(yíng)得Image Net圖像識別大賽之后,GPU在A(yíng)I領(lǐng)域的名聲就一炮打響。
而早就基于自家GPU推出了CUDA系統的英偉達,又憑借著(zhù)三年時(shí)間里將GPU性能提升65倍,并提供后端模型訓練和前端推理應用的全套深度學(xué)習解決方案,奠定了自己在該領(lǐng)域的王者地位。
直到今天,GPU也還是AI時(shí)代算力的核心、人工智能硬件領(lǐng)域的霸主。
然而,GPU屬于通用計算芯片和架構,并非專(zhuān)門(mén)為AI打造,無(wú)法實(shí)現性能和功耗的統一。它的計算能力越強代表核心越多,功耗也就越大。
比如RTX 4090,450W;比如今年9月剛上市的H100,直接史無(wú)前例,700W。這種情況還大有逐年攀升之勢。
還是拿自動(dòng)駕駛舉例,在電車(chē)基本成為主流的當下,如此高的功耗勢必對續航里程造成困擾。更別提越來(lái)越多的終端也開(kāi)始具備AI能力(比如手機、智能音箱),它們不僅要求計算能力,對功耗的要求也更加嚴格,再強的GPU在這里也顯得很弱勢。
另外,一些更復雜的AI場(chǎng)景(如云端推理、模型訓練等),常常動(dòng)輒就需要上百塊GPU一起運算,這讓整個(gè)計算平臺的功耗控制也是相當棘手。很多機構不得不考慮能源和環(huán)保問(wèn)題。
這不,今年7月誕生的目前最大的多語(yǔ)言開(kāi)源模型BLOOM,就動(dòng)用了384塊A100煉成,釋放的熱量最終都用來(lái)給學(xué)校供暖了。
所以,綜上來(lái)看,CPU和GPU的出現,雖然幫助機器擁有了執行人的思考和計算的能力,尤其后者讓AI計算任務(wù)得到了相當大的加速,但一些缺點(diǎn)還是讓它們無(wú)法大展身手。
因此要想讓機器像人一樣思考和計算,通用計算芯片的架構決定了不會(huì )是最佳方案。
讓機器像人一樣思考和計算:AI芯片大爆發(fā)數據驅動(dòng)的方式方法,讓機器像人一樣思考和計算展現了可能。
但背后的計算需求,也讓過(guò)去的計算架構越顯強弩之末。
據統計,光是在2012年到2018年的六年時(shí)間里,人們對于算力的需求增長(cháng)了就超過(guò)30萬(wàn)倍。也就說(shuō),每3.5個(gè)月AI算力就大約翻一倍。如今這個(gè)數字還在繼續攀升。
所謂“通不如精”,以CPU和GPU為代表的通用計算芯片架構,已經(jīng)無(wú)法很好地匹配和滿(mǎn)足這一需求,所以在各類(lèi)新AI技術(shù)層出不窮的同時(shí),新計算、新架構、新芯片在過(guò)去幾年也迎來(lái)了前所未有的大爆炸。
因此這幾年,我們看到了很多除了CPU和GPU以外的各種“xPU”,諸如谷歌TPU、Graphcore IPU、特斯拉NPU、英偉達DPU……
盡管它們的分類(lèi)不同,有的屬于半定制化的FPGA,有的屬于全定制化的ASIC,有的應用于終端,有的應用于云端……但作為專(zhuān)門(mén)為AI任務(wù)和需求而生的新芯片,它們都有著(zhù)比CPU/GPU功耗低、計算性能高、成本更低等優(yōu)勢,落地到哪里就給哪里帶去了翻天覆地的變化,比如最近幾年的智能手機、自動(dòng)駕駛、機器人、VR等領(lǐng)域。
按照能力和用途,這些AI芯片們在這個(gè)過(guò)程中上演了這樣兩個(gè)階段:
首先是僅作為加速器,輔助CPU完成HPC、模型訓練/推理等AI任務(wù)。
(AI芯片幾乎都不具有圖靈完備,所以必須要和CPU一起搭配使用,這也是所謂的“異構融合”大趨勢。)
它們的結構類(lèi)似串聯(lián),可以用“CPU+xPU”這樣的公式來(lái)表達。
這一組合最經(jīng)典的其實(shí)就是CPU+GPU,它倆到現在其實(shí)也還在流行。
只不過(guò)如前面所說(shuō),GPU不算專(zhuān)門(mén)為AI設計的芯片,無(wú)法在這一領(lǐng)域發(fā)揮出極致的性能,所以這里的xPU更多的指TPU、IPU、DPU等AI加速芯片。
(當然,GPU還是自有它的用處,所以它有時(shí)也會(huì )加入進(jìn)來(lái),形成“CPU+GPU+xPU”的結構。)
這一模式最大的特點(diǎn)就是,CPU只負責少量的計算,一般為那些情況比較復雜、計算難度不確定、靈活性要求高的部分;大部分“臟活累活”都由計算能力超強、能耗又沒(méi)那么高的xPU來(lái)完成。
就如下圖所示,在實(shí)際情況中,它們的分工很可能遵守“二八定律”——xPU負責整個(gè)系統80%的計算任務(wù),剩下的20%由CPU+GPU分擔,其中GPU的比例又高達16%,留給CPU的只剩下4%。
如果進(jìn)行軟硬件融合的進(jìn)一步優(yōu)化,三者之間的比例還可能變動(dòng)為90%、9%和1%。
這樣各司其職、各揮所長(cháng)的安排可以保證最極致的性能和性?xún)r(jià)比,做到從前CPU和GPU單上無(wú)法企及的高度。
其次,AI芯片作為專(zhuān)用芯片,針對專(zhuān)門(mén)的領(lǐng)域推出,負責某一特定AI任務(wù)的計算。
(說(shuō)通俗點(diǎn),就是某一塊專(zhuān)用芯片能在自動(dòng)駕駛領(lǐng)域使用,換了機器人領(lǐng)域就不行)。
在這種模式下,各xPU已成為各系統的主角,決定該系統的整體性能和效果。
這就導致一些自動(dòng)駕駛公司,在宣傳它們的技術(shù)時(shí),只把xPU拉出來(lái)大肆宣傳,基本不提CPU和GPU的事兒了。
那么CPU在干嘛?當然是利用自己擅長(cháng)的邏輯控制來(lái)把控整個(gè)流程。
因此此時(shí),CPU和AI芯片的關(guān)系更像一種并聯(lián)結構,我們就可以用“CPU、xPU”的公式來(lái)表達(當然,GPU也仍然可能參與其中)。
如前面所說(shuō),由于CPU基本不決定計算性能,我們也就不用再寄希望于CPU的戰斗力有多強。
進(jìn)一步地,我們可以認為,這種模式其實(shí)是將通用計算芯片的核心地位削減了——CPU的地位又變了。
那么,成為“中流砥柱”的AI芯片們究竟有多大威力?我們來(lái)看3個(gè)案例。
首先是云端。
在這個(gè)領(lǐng)域,互聯(lián)網(wǎng)巨頭們有著(zhù)“本土作戰”的優(yōu)勢,因此大多可以不依賴(lài)英偉達等傳統巨頭。
如谷歌2015年就推出了自己的云端加速AI芯片TPU。
它的中文名叫張量處理器,屬于A(yíng)SIC芯片的一種,專(zhuān)為加速深度學(xué)習框架TensorFlow而設計。
得益于用量化技術(shù)進(jìn)行8位整數運算、脈動(dòng)陣列、基于復雜指令集(CISC)等設計,它與同期的CPU和GPU相比(英特爾至強E5-2699 v3與Tesla K80 GPU),可以提供大約15-30倍的性能提升。
如下圖所示,當將延遲全部控制在7毫秒之內時(shí),TPU每秒可運行的MLP0預測可達22.5萬(wàn)次。同等情況下,CPU只有5000多,GPU也僅為1.3萬(wàn)+。
效率方面(性能/瓦特)的提升也高達30-80倍:
(谷歌第一代TPU功耗約為40W,性能最強的第四代也只有175W,而同時(shí)期的A100已達400W。)
這樣的成績(jì)意味著(zhù)它既可以大規模運行于最先進(jìn)的神經(jīng)網(wǎng)絡(luò ),也可以同時(shí)把成本控制在可接受的程度上。
它的出現,不僅打破了深度學(xué)習硬件執行的瓶頸,也在一定程度上撼動(dòng)了英偉達等傳統巨頭的地位。
谷歌也對它重用有加,搜索、街景、照片、翻譯等服務(wù)以及AlphaGo背后的神經(jīng)網(wǎng)絡(luò )計算,都交由它來(lái)完成。TPU的出現,成為了AI時(shí)代云端計算需求的代表性解決方案。
終端方面,最具代表性的場(chǎng)景是AI司機變革下的汽車(chē)領(lǐng)域,即自動(dòng)駕駛。
目前,自動(dòng)駕駛芯片有兩條主要技術(shù)路線(xiàn):
一是英偉達Orin靠“魔改”GPU所走的通用架構路線(xiàn);另一個(gè)是特斯拉、高通、Mobileye等青睞的專(zhuān)用芯片技術(shù)路線(xiàn),也就是CPU+(GPU)+xPU的形式。
比如特斯拉FSD芯片就是主要由CPU、GPU和NPU組成。
其中,NPU是里面占比最大的處理器,是整個(gè)架構的重點(diǎn)。
它是由特斯拉硬件團隊自研的一種ASIC芯片,主要用來(lái)對視覺(jué)算法中的卷積運算和矩陣乘法運算進(jìn)行有效加速。
具體來(lái)看,每塊NPU的運行頻率為2GHz,峰值性能可達每秒36.86萬(wàn)億次運算(TOPs),總功耗卻僅為7.5W。
所以,正是從特斯拉開(kāi)始,專(zhuān)為自動(dòng)駕駛所需的神經(jīng)網(wǎng)絡(luò )打造的NPU開(kāi)始成為汽車(chē)芯片的主要組成部分,傳統的通用芯片CPU、GPU開(kāi)始退居輔助位置。
國內方面,唯一實(shí)現車(chē)載智能芯片大規模前裝量產(chǎn)的地平線(xiàn),其代表芯片征程系列,也是采用“CPU+ASIC”的技術(shù)路線(xiàn),ASIC部分用的是自研的BPU。
它的使用使最新的征程5芯片算力達到了128TOPS,功耗也只有30W。
由此,征程5靠4.3TOPS/W能耗比,一舉超過(guò)了特斯拉FSD(2TOPS/W)、也超過(guò)了2022年高端智能電動(dòng)車(chē)標配的英偉達Orin(3.9TOPS/W)。
這種性能和功耗展現出的對比,甚至是標志性的。背后是芯片架構在A(yíng)I時(shí)代正在發(fā)生的變化趨勢:
CPU在其中的作用和地位一直在變化,而這其實(shí)反映的是AI時(shí)代計算架構客觀(guān)需求的進(jìn)化——
一開(kāi)始是完全規則驅動(dòng),只有CPUGPU等通用計算芯片進(jìn)行發(fā)力,但由于架構的規則都是被寫(xiě)死的,無(wú)法適應越來(lái)越快的算力需求;
于是開(kāi)始了半規則驅動(dòng),CPUGPU等通用計算芯片的核心能力繼續發(fā)力,但已開(kāi)始有專(zhuān)用芯片的介入,讓AI計算架構不再依賴(lài)于完全寫(xiě)死的規則,相對靈活地發(fā)揮出價(jià)值;
再到后來(lái),便開(kāi)啟了自定義規則驅動(dòng)的階段,此時(shí)專(zhuān)用型AI芯片占據核心地位,CPU/GPU僅僅作輔助之用,AI計算架構獲得最大的自由度。
而我們的機器也終于能夠從執行人的思考和計算,越來(lái)越接近像人一樣思考和計算。
但這還不是終點(diǎn)。
終極計算架構:Neural Computing終點(diǎn)是什么?不同視角會(huì )有不同的答案。
最近正在被更多人認同的是:Neural Computing,神經(jīng)網(wǎng)絡(luò )架構,或者說(shuō)神經(jīng)網(wǎng)絡(luò )統一架構。
即一個(gè)大一統的神經(jīng)網(wǎng)絡(luò )計算架構,一套架構驅動(dòng)所有場(chǎng)景、領(lǐng)域或任務(wù),比如圖像處理、視頻編解碼、圖像的生成、渲染,只需要很少的一點(diǎn)點(diǎn)改動(dòng)或者一點(diǎn)點(diǎn)算法的調優(yōu),就能解決各式各樣的問(wèn)題。
其特點(diǎn),就是用技術(shù)驅動(dòng)的方式去集成少量的規則,讓硬件因軟件而打造,軟件為實(shí)現算法而生,這樣更符合AI算法模型和任務(wù)的特點(diǎn),也才能真正讓模型躍遷驅動(dòng)性能躍遷。而不再是傳統的用硬件迭代解決問(wèn)題。
而且這種方法論,不只是單純的展望,因為正在被實(shí)踐。
比如智能車(chē)載芯片,不僅用神經(jīng)網(wǎng)絡(luò )做了分割、檢測和識別等語(yǔ)義級信息,而且能夠清晰地看到一個(gè)趨勢,包括ISP(Image Signal Processing)這樣的圖像處理任務(wù),也都能夠用神經(jīng)網(wǎng)絡(luò )實(shí)現了。
而業(yè)內,視頻編解碼相關(guān)的方法,神經(jīng)網(wǎng)絡(luò )也比傳統方式實(shí)現得更好,信噪比更優(yōu)異。
這兩年火爆的NeRF,涉及到過(guò)去非??简炗布芰Φ膱D像渲染,需要基于光線(xiàn)追蹤等等圖形學(xué)理論建立復雜規則的算法,也都被證明神經(jīng)網(wǎng)絡(luò )可以做得更好。
甚至用的還是很簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò )計算方法,通過(guò)學(xué)習再推理的方式重構整個(gè)過(guò)程,把過(guò)去花費大力氣求解的3D點(diǎn)云恢復重建等問(wèn)題,更直接高效解決,實(shí)力和潛力,都不言自明了。
更重要的是,這種實(shí)踐被放到了一個(gè)更具時(shí)代變革的趨勢上:計算架構領(lǐng)域到了一個(gè)分久必合的時(shí)候,到了一個(gè)傳統馮諾依曼架構亟待突破的時(shí)候。
這是兩個(gè)時(shí)代的劃分,背后是人與機器關(guān)系的兩種范式。
1.0時(shí)代,依賴(lài)于經(jīng)驗和規則,把人類(lèi)理性分析轉換成計算機可具體執行的規則代碼,不僅定義目標,也定義整個(gè)執行的過(guò)程。
這個(gè)時(shí)代里有很多經(jīng)典的算法排序,會(huì )告訴機器每一步做什么,以及怎么做。CPU和GPU都是這個(gè)時(shí)代里的集大成者。
2.0時(shí)代,依靠的是神經(jīng)網(wǎng)絡(luò )學(xué)習和迭代,人類(lèi)提目標、要求,有時(shí)目標甚至會(huì )是一個(gè)大致的方向和框架,但機器會(huì )在神經(jīng)網(wǎng)絡(luò )驅動(dòng)下,搞清楚如何去執行,如何圍繞目標求解最優(yōu)解——機器有了自主性。于是就得從算法、架構到芯片確保機器的這種自主性。
1.0時(shí)代可以很多精細的規則、后處理、后融合,把所有人類(lèi)對于具體場(chǎng)景任務(wù)的know-how變成計算機可嚴格執行的代碼,再與“摩爾定律”和硬件革新配合,做到極致的高效。
然而AI模型范式下對數據的需求,以及先進(jìn)制程的瀕臨極限,摩爾定律失效已然是再明顯不過(guò)的事實(shí)。
所以計算架構和范式,一定會(huì )進(jìn)入2.0時(shí)代,人類(lèi)架構的是神經(jīng)網(wǎng)絡(luò )模型,模型自己去求解目標和結果,整個(gè)過(guò)程不再依賴(lài)人寫(xiě)死的規則和經(jīng)驗。這會(huì )是軟件、硬件到認知方法方方面面的根本性改變——傳統的計算架構不再適用。
這種對自主機器到來(lái)的判斷,實(shí)際也能理解很多新現象。
比如馬斯克為什么把特斯拉的下一步,定在機器人形態(tài)上。
百度創(chuàng )始人李彥宏,把自動(dòng)駕駛、智能車(chē),放在了“汽車(chē)機器人”的維度上思考和談?wù)摗?/p>
以及當前以智能車(chē)載芯片知名的地平線(xiàn),全名里為啥是“機器人技術(shù)”。
因為一旦沿著(zhù)AI落地展開(kāi)思考和推演,最后能作為獨立品類(lèi)、物種展現AI核心變革力的,有且只有機器人,或者說(shuō)就是自主機器人。
它可以是家里掃地的那種,可以是提供自動(dòng)駕駛出行的那種,也可以是仿照人類(lèi)形體而生的那種——從感知到控制都有自主權,會(huì )是邊緣的而非云端的,會(huì )是去中心化的而非中心化的。
而既然自主機器人是AI最終的歸屬,那更本質(zhì)的要打造的產(chǎn)品,就是驅動(dòng)這個(gè)自主機器人的大腦,就是處理器,或者更本質(zhì)地說(shuō)是計算架構。
這個(gè)本質(zhì)問(wèn)題的搞清楚,也能理解整個(gè)芯片半導體、信息計算產(chǎn)業(yè)的興衰規律。
按照經(jīng)濟學(xué)的觀(guān)點(diǎn)說(shuō),需求決定了供應,經(jīng)濟基礎決定了上層建筑。
這也是為什么一個(gè)時(shí)代會(huì )有一個(gè)時(shí)代的芯片,因為一個(gè)時(shí)代會(huì )有一個(gè)時(shí)代的計算架構。
既然神經(jīng)網(wǎng)絡(luò )已經(jīng)開(kāi)啟了“機器像人一樣思考和計算”的變革,那固化執行人類(lèi)思考和計算過(guò)程的架構,注定讓出中心地位,通用計算芯片也會(huì )逐漸失去主導權。
One more thing這種無(wú)情的歷史變遷,也讓另一個(gè)知名類(lèi)比更具現實(shí)骨感。
在A(yíng)I浪潮洶涌的熱潮中,CPU一而再被質(zhì)疑,一而再被挑戰,后來(lái)英特爾的高管給出了極具中國色彩的比喻——
“CPU是所有XPU平臺的中央神經(jīng)系統,這就有點(diǎn)像中國人的主食米飯,別的XPU都是菜,不同地方的人喜歡不同的菜,但他們都需要和大米來(lái)搭配?!?/strong>
這個(gè)類(lèi)比,彼時(shí)彼刻,不得不承認既形象又巧妙。
只是比喻后來(lái)也跟此時(shí)此刻一樣精準:追求低碳水的新時(shí)代里,誰(shuí)也沒(méi)想到,米飯竟然不再必要了。
來(lái)源:量子位
*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。