GPU计算

MATLAB对GPU计算的支持万博1manbetx
支持NVIDIA CUDA的GPU

在支持NVIDIA cuda的gpu上执行MATLAB计算

MATLAB®使您能够使用NVIDIA®gpu可以加速人工智能、深度学习和其他计算密集型分析,而无需CUDA®程序员利用MATLAB和并行计算工具箱™, 你可以:

  • 使用NVIDIA gpu直接从MATLAB与超过500内置功能。
  • 使用MATLAB workers和MATLAB并行服务器访问桌面、计算集群和云上的多个GPU™.
  • 直接从MATLAB生成CUDA代码,以便使用GPU编码器部署到数据中心、云和嵌入式设备™.
  • 生成NVIDIA TensorRT™ 来自MATLAB的代码,用于使用GPU编码器进行低延迟和高通量推理。
  • 将MATLAB AI应用程序部署到支持NVIDIA的数据中心,以便使用MATLAB生产服务器与企业系统集成™.

“我们的传统代码花了40分钟来分析单个风洞测试;通过使用MATLAB和GPU,计算时间现在不到一分钟。在GPU上运行我们的MATLAB算法需要30分钟,不需要低水平的CUDA编程。”

克里斯托弗·巴尔,美国宇航局

使用MATLAB开发、扩展和部署深度学习模型

MATLAB允许单个用户使用深度学习工具箱™实现端到端工作流来开发和训练深度学习模型。然后,您可以使用云和集群资源使用并行计算工具箱和MATLAB并行服务器扩展培训,并使用GPU编码器部署到数据中心或嵌入式设备。

使用GPU开发深度学习和其他计算密集型分析

MATLAB是一个用于人工智能和深度学习开发的端到端工作流平台。MATLAB提供用于导入培训数据集、可视化和调试、扩展培训CNN和部署的工具和应用程序。

只需一行代码,即可扩展到桌面、云和集群上的其他计算和GPU资源。


测试您自己的CPU和GPU硬件使用gpuBench.

在GPU上扩展MATLAB,代码更改最少

使用500多个支持CUDA的MATLAB函数在NVIDIA GPU上运行MATLAB代码。在工具箱中使用支持GPU的功能,用于深度学习、机器学习、计算机视觉和信号处理等应用。并行计算工具箱提供gpuArray,一种具有相关函数的特殊数组类型,它允许您直接从MATLAB在支持CUDA的NVIDIA GPU上执行计算,而无需学习低级GPU计算库。

工程师可以使用GPU资源,而无需编写任何额外的代码,因此他们可以专注于自己的应用程序,而不是性能调整。

使用并行语言结构,例如帕弗spmd可以在多个gpu上进行计算。在多个gpu上训练一个模型很简单,只需改变训练选项。

MATLAB还允许您将现有的CUDA内核集成到MATLAB应用程序中,而无需任何额外的C编程。


部署生成的CUDA代码从MATLAB与TensorRT推理部署

使用GPU编码器从MATLAB代码生成优化的CUDA代码,用于深度学习、嵌入式视觉和自治系统。生成的代码自动调用优化的NVIDIA CUDA库,包括TensorRT、cuDNN和cuBLAS,以在NVIDIA GPU上以低延迟和高吞吐量运行。将生成的代码集成到源代码、静态库或动态库中,并将它们部署到GPU上运行,例如英伟达VLTA®,NVIDIA Tesla®,NVIDIA Jetson®,及英伟达道®.