MathWorks 宣布 MATLAB 與 NVIDIA TensorRT 集成來(lái)加快人工智能應用
MathWorks 今日宣布 ,MATLAB 現在可通過(guò) GPU Coder 實(shí)現與 NVIDIA TensorRT 集成。這可以幫助工程師和科學(xué)家們在 MATLAB 中開(kāi)發(fā)新的人工智能和深度學(xué)習模型,且可確保性能和效率滿(mǎn)足數據中心、嵌入式應用和汽車(chē)應用不斷增長(cháng)的需求。
本文引用地址:http://dyxdggzs.com/article/201804/378263.htmMATLAB 提供了一個(gè)完整的工作流程來(lái)快速訓練、驗證和部署深度學(xué)習模型。工程師可以使用 GPU 資源,而無(wú)需額外編程操作,因此可以專(zhuān)注于應用本身而不是性能調優(yōu)。NVIDIA TensorRT 與 GPU Coder 的全新集成使得可以在 MATLAB 中開(kāi)發(fā)深度學(xué)習模型,然后以高吞吐量低延遲的方式部署在 NVIDIA GPU 上運行。內部基準測試顯示,MATLAB 生成的CUDA代碼與 TensorRT 結合,在部署 Alexnet模型進(jìn)行深度學(xué)習推理時(shí),性能比 TensorFlow 高 5 倍;在部署 VGG-16 模型進(jìn)行深度學(xué)習推理時(shí),性能比 TensorFlow 高 1.25 倍。*
“不斷發(fā)展的圖像、語(yǔ)音、傳感器和物聯(lián)網(wǎng) (IoT) 技術(shù)促使團隊以更好的性能和效率研究人工智能解決方案。此外,深度學(xué)習模型變得越來(lái)越復雜。所有這些都給工程師們帶來(lái)了巨大的壓力,” MathWorks 總監 David Rich 說(shuō)?!艾F在,團隊可以使用 MATLAB 訓練深度學(xué)習模型,NVIDIA GPU 可以將實(shí)時(shí)推理部署到從云端到數據中心到嵌入式邊界設備等各種環(huán)境中?!?/p>
評論