MathWorks今天宣布MATLAB现在通过GPU编码器提供NVIDIA TensorRT集成。这有助于工程师和科学家在MATLAB中开发新的人工智能和深度学习模型,其性能和效率满足数据中心、嵌入式和汽车应用日益增长的需求。
MATLAB提供了一个完整的工作流程,用于快速培训、验证和部署深度学习模型。工程师无需额外编程即可使用GPU资源,因此他们可以专注于应用程序而不是性能调整。NVIDIA TensorRT与GPU编码器的新集成使在MATLAB中开发的深度学习模型能够在NVIDIA GPU上以高吞吐量和低延迟运行。内部基准测试表明,MATLAB生成的CUDA代码结合TensorRT可以部署
“快速发展的图像、语音、传感器和物联网技术正在推动团队探索具有更好性能和效率的人工智能解决方案。此外,深度学习模型变得越来越复杂。所有这些都给工程师带来了巨大的压力,”MathWorks董万博 尤文图斯事David Rich说。“现在,使用MATLAB和NVIDIA GPU训练深度学习模型的团队可以在任何环境中部署实时推理,从云到数据中心再到嵌入式边缘设备。”
*所有基准测试均在MATLAB R2018a上运行,GPU编码器、TensorRT 3.0.1、TensorFlow 1.6.0、CUDA 9.0和cuDNN 7均在Linux 12核Intel的NVIDIA TITAN Xp GPU上运行®至强®E5-1650 v3 PC,带64GB RAM