<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > Jim Keller:NVIDIA的CUDA不是護城河,是沼澤!

Jim Keller:NVIDIA的CUDA不是護城河,是沼澤!

發(fā)布人:芯智訊 時(shí)間:2024-02-24 來(lái)源:工程師 發(fā)布文章

image.png

2月20日消息,對于 x86、Arm、MISC 和 RISC-V 等處理器架構都有深入研究的傳奇處理器架構師Jim Keller在本周末批評了被外界認為是英偉達(NVIDIA)“護城河”的 CUDA架構和軟件堆棧,并將其比作x86,稱(chēng)之為“沼澤”。他指出,就連英偉達本身也有多個(gè)專(zhuān)用軟件包,出于性能原因,這些軟件包依賴(lài)于開(kāi)源框架。

image.png

“CUDA 是沼澤,而不是護城河,”凱勒在 X 帖子中寫(xiě)道?!皒86 也是一片沼澤。[…] CUDA 并不漂亮。它是通過(guò)一次堆積一件東西來(lái)構建的?!?/p>

確實(shí),就像x86一樣,CUDA在保持軟件和硬件向后兼容性的同時(shí)逐漸增加了功能。這使得英偉達的平臺完整且向后兼容,但它影響了性能并使程序開(kāi)發(fā)變得更加困難。同時(shí),很多開(kāi)源軟件開(kāi)發(fā)框架可以比CUDA更高效地使用。

“基本上沒(méi)有人編寫(xiě) CUDA,”Jim Keller在后續帖子中寫(xiě)道?!叭绻愦_實(shí)編寫(xiě) CUDA,它可能不會(huì )很快。[...] Triton、Tensor RT、Neon 和 Mojo 的存在是有充分理由的?!?/p>

甚至NVIDIA本身也有不完全依賴(lài) CUDA 的工具。例如,Triton Inference Server 是 Nvidia 的一款開(kāi)源工具,可簡(jiǎn)化 AI 模型的大規模部署,支持 TensorFlow、PyTorch 和 ONNX 等框架。Triton 還提供模型版本控制、多模型服務(wù)和并發(fā)模型執行等功能,以?xún)?yōu)化 GPU 和 CPU 資源的利用率。

NVIDIA的TensorRT是一種高性能深度學(xué)習推理優(yōu)化器和運行時(shí)庫,可加速NVIDIA GPU上的深度學(xué)習推理。TensorRT 從各種框架(例如 TensorFlow 和 PyTorch)中獲取經(jīng)過(guò)訓練的模型,并對其進(jìn)行優(yōu)化以進(jìn)行部署,從而減少延遲并提高圖像分類(lèi)、對象檢測和自然語(yǔ)言處理等實(shí)時(shí)應用程序的吞吐量。

但是,盡管像Arm、CUDA 和x86這樣的架構可能會(huì )被認為是“沼澤”,因為它們的演進(jìn)速度相對較慢、必須向后兼容并且體積龐大,但這些平臺也不像GPGPU這樣分散,這可能根本不是一件壞事。

目前尚不清楚 Jim Keller 對 AMD 的ROCm和英特爾的OneAPI有何看法,但很明顯,盡管他花了很多年時(shí)間設計 x86 架構,但他并不迷戀其未來(lái)前景。他的言論還暗示,盡管他曾在世界上一些最大的芯片制造商工作過(guò)一段時(shí)間,包括蘋(píng)果、英特爾、AMD、博通(現在是Tenstorrent)等公司,但我們可能不會(huì )在NVIDIA的名單上看到他的名字。

編輯:芯智訊-林子


*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: 處理器

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>