MathWorks宣布MATLAB与NVIDIA TensorRT集成以加速人工智能应用

与NVIDIA GPU上的TensorFlow相比,深度学习推理速度提高了5倍

美国马萨诸塞州纳蒂克-(2018年3月27日)

MathWorks今天宣布MATLAB现在通过GPU编码器提供NVIDIA TensorRT集成。这有助于工程师和科学家在MATLAB中开发新的人工智能和深度学习模型,其性能和效率满足数据中心、嵌入式和汽车应用日益增长的需求。

MATLAB提供了一个完整的工作流程,用于快速培训、验证和部署深度学习模型。工程师无需额外编程即可使用GPU资源,因此他们可以专注于应用程序而不是性能调整。NVIDIA TensorRT与GPU编码器的新集成使在MATLAB中开发的深度学习模型能够在NVIDIA GPU上以高吞吐量和低延迟运行。内部基准测试表明,MATLAB生成的CUDA代码结合TensorRT可以部署 阿列克斯内特性能比TensorFlow高5倍,可部署VGG-16,性能比TensorFlow高1.25倍,用于深度学习推理*

“快速发展的图像、语音、传感器和物联网技术正在推动团队探索具有更好性能和效率的人工智能解决方案。此外,深度学习模型变得越来越复杂。所有这些都给工程师带来了巨大的压力,”MathWorks董万博 尤文图斯事David Rich说。“现在,使用MATLAB和NVIDIA GPU训练深度学习模型的团队可以在任何环境中部署实时推理,从云到数据中心再到嵌入式边缘设备。”

*所有基准测试均在MATLAB R2018a上运行,GPU编码器、TensorRT 3.0.1、TensorFlow 1.6.0、CUDA 9.0和cuDNN 7均在Linux 12核Intel的NVIDIA TITAN Xp GPU上运行®至强®E5-1650 v3 PC,带64GB RAM

关于MathWorks

MathWorks是数学计算软件的领先开发者。技术计算语言MATLAB是一个用于算法开发、数据分析、可视化和数值计算的编程环境。Simulink是一个图形环境,用于多域动态和嵌入式系统的仿真和基于模型的设计。全世界的工程师和科学家依靠这些产品系列加快汽车、航空航天、电子、金融服务、生物技术制药和其他行业的发现、创新和发展步伐。MATLAB和Simulink也是世界大学和学习机构的基本教学和研究工具。MathWorks成立于1984年,在16个国家拥有万博1manbetx4000多名员工,总部位于美国马萨诸塞州纳蒂克市。有关更多信息,请访问mathworks.com.

MATLAB和Simu万博1manbetxlink是MathWorks,Inc.的注册商标。请参阅mathworks.com/trademarks其他产品或品牌名称可能是其各自持有人的商标或注册商标。