主要内容

设置先决条件产品s manbetx 845

为CUDA使用GPU Coder™®C / C ++代码生成,安装指定的产品s manbetx 845安装必备产品s manbetx 845

Mex设置

当使用GPU编码器生成CUDA MEX时,代码生成器使用NVIDIA®Matlab包含的编译器和库®。根据您的开发计算机上的操作系统,您只需要设置MEX代码生成器。

视窗系统

如果你有多个版本微软®Visual Studio®Windows上安装的C / C ++语言的编译器®MATLAB选择一个作为默认编译器。如果所选编译器与GPU编码器支持的版本不兼容,则更改选择。万博1manbetx适用于支万博1manbetx持微软Visual Studio版本,请参阅安装必备产品s manbetx 845

要更改默认编译器,请使用mex -setup c ++命令。你打电话的时候mex -setup c ++, MATLAB显示一个消息与链接建立不同的编译器。选择一个链接并更改用于构建MEX文件的默认编译器。在调用之前,您选择的编译器将保持默认mex -setup c ++选择其他默认值。有关更多信息,请参阅改变默认的编译器。该mex -setup c ++命令仅更改C ++语言编译器。您还必须通过使用更改C的默认编译器墨西哥人设置C

Linux平台

MATLAB和CUDA toolkit只支持Linux上万博1manbetxC/ c++语言的GCC/ g++编译器®平台。有关支持万博1manbetx的GCC/ g++版本,请参阅安装必备产品s manbetx 845

环境变量

独立代码(静态库、动态链接库或可执行程序)生成有额外的设置要求。GPU编码器使用环境变量来定位生成代码所需的必要工具、编译器和库。

请注意

在Windows中,在工具,编译器和库的路径中的空间或特殊字符可以在构建过程中创建问题。您必须在不包含空格或更改Windows设置的位置安装第三方软件,以便为文件,文件夹和路径创建短名称。有关更多信息,请参阅使用Windows短名称解决方案matlab答案

平台 变量名 描述
视窗 CUDA_PATH

CUDA Toolkit安装的路径。

例如:

C:\Program Files\NVIDIA GPU计算工具包\CUDA\v10.0\

NVIDIA_CUDNN

cuDNN安装根文件夹的路径。根目录下包含bin、include和lib子目录。

例如:

C:\ Program Files \ NVIDIA GPU计算工具包\ CUDA \ CUDNN \

NVIDIA_TENSORRT

TensorRT安装根目录。根目录下包含bin、data、include和lib子目录。

例如:

C:\Program Files\NVIDIA GPU计算工具包\CUDA\TensorRT\

OPENCV_DIR

对主机上OpenCV的构建文件夹的路径。构建和运行深度学习示例需要此变量。

例如:

C:\ Program Files \ OpenCV \ Build

路径

CUDA可执行文件的路径。通常,CUDA toolkit安装程序会自动设置这个值。

例如:

C:\Program Files\NVIDIA GPU计算工具箱CUDA\v10.0\bin

往来的道路cudnn.dll动态库。在您的安装中,这个库的名称可能不同。

例如:

C:\Program Files\NVIDIA GPU计算工具包CUDA\cuDNN\bin

往来的道路nvinfer *TensorRT的动态库。在您的安装中,这个库的名称可能不同。

例如:

C:\Program Files\NVIDIA GPU计算工具箱CUDA TensorRT\lib

OpenCV的动态链接库(DLL)路径。这个变量是运行深度学习示例所必需的。

例如:

C:\ Program Files \ OpenCV \ Build \ x64 \ vc15 \ bin

Linux 路径

CUDA工具包可执行文件的路径。

例如:

/usr/local/cuda-10.0/bin.

opencv库的路径。构建和运行深度学习示例需要此变量。

例如:

/usr/local/lib/

OpenCV头文件的路径。这个变量是构建深度学习示例所必需的。

例如:

/ usr / local /包含/ opencv

LD_LIBRARY_PATH

CUDA库文件夹的路径。

例如:

/usr/local/cuda - 10.0 - / lib64

库文件夹的路径。

例如:

/usr/local/cuDNN/lib64/

tensorrt™库文件夹的路径。

例如:

/ usr / local / tensorrt / lib /

通往手臂的路径®目标硬件上的计算库文件夹。

例如:

/ usr / local / arm_compute / lib /

LD_LIBRARY_PATH在ARM目标硬件上。

NVIDIA_CUDNN

库安装的根文件夹路径。

例如:

/ usr / local / cudnn /

NVIDIA_TENSORRT

tensorrt库安装的根夹的路径。

例如:

/usr/local/TensorRT/

ARM_Comptelib.

ARM计算库安装在ARM目标硬件上的root文件夹的路径。在ARM目标硬件上设置此值。

例如:

/usr/local/arm_compute

验证设置

要验证您的开发计算机拥有所有GPU代码生成所需的工具和配置,请使用Coder.CheckGPuInstall.函数。该函数执行检查,以验证您的环境是否有所有第三方工具和库所需的GPU代码生成。你必须通过考试coder.gpuEnvConfig对象到函数。该函数基于给定配置对象中指定的属性验证GPU代码生成环境。

您还可以使用等效的基于gui的应用程序,该应用程序执行相同的检查,并可以使用命令启动,检查显卡安装

在MATLAB命令窗口中输入:

gpuEnvObj = coder.gpuEnvConfig;gpuEnvObj。BasicCodegen = 1;gpuEnvObj。BasicCodeexec = 1;gpuEnvObj。DeepLibTarget ='tensorrt';gpuenvobj.deepcodeexec = 1;gpuenvobj.deepcodegen = 1;结果= Coder.CheckGPuInstall(GPUENVOBJ)

这里显示的输出具有代表性。结果可能会有所不同。

兼容GPU:通过CUDA环境:通过了运行时:通过CUFFT:通过CUSOLVER:通过CUBBLAS:通过了CUDNN环境:通过了TENRT环境:通过基本代码:通过基本代码:通过深度学习(TensorR)代码生成:通过深度学习(Tensorrt)代码执行:传递结果=带有字段的结构:GPU:1 CUDA:1 CUDNN:1 TensorRT:1 BasicCodegen:1 BasicCodeExec:1 DeepCodeGEN:1 DENDCODEEXEC:1剖面:0

另请参阅

应用程序

功能

对象

相关话题