GPU编码器
产生NVIDIA GPU的CUDA代码
GPU编码器™生成优化的CUDA®从MATLAB代码®深学习,嵌入式视觉和自治系统的代码。所生成的代码调用优化NVIDIA®CUDA库,包括cuDNN,cuSolver和CUBLAS。它可以集成到您的项目源代码,静态库或动态库,并且可用于原型在GPU上,如NVIDIA的Tesla®和NVIDIA Tegra®。您可以使用MATLAB中生成的CUDA加速您的MATLAB代码计算密集型部分。GPU编码器可让您将旧的CUDA代码到您的MATLAB算法和生成的代码。
当与嵌入式编码器一起使用时®,GPU编码器可让您通过软件在环(SIL)测试验证生成的代码的数值行为。
入门:
部署算法免版税
编译和运行上流行的NVIDIA GPU生成的代码,从桌面系统到数据中心,嵌入式硬件。生成的代码是不收费的商业应用给你的客户就免版税的部署。
GPU编码器成功案例
了解工程师和科学家在多种行业如何利用GPU编码器来生成自己的应用程序代码CUDA。
从支持的工具箱和函数生成代码万博1manbetx
GPU编码器从广泛的MATLAB语言生成代码的特征在于设计工程师用来开发算法作为较大系统的构件。这包括超过390运算符和函数从MATLAB和配套工具箱。
将原有的代码
使用旧代码集成能力纳入可信或高度优化的CUDA代码到您的MATLAB算法在MATLAB测试,然后调用从生成的代码相同的CUDA代码。
部署了终端到终端的深度学习算法
部署多种从深度学习工具箱™来的NVIDIA GPU训练的深度学习网络,如RESNET-50和SegNet的。产生预处理和你训练的深度学习网络以及后处理部署完整的算法代码。
生成优化的推理代码
GPU编码器生成与其他深度学习解决方案相比,尺寸更小的代码,因为它只能产生与特定的算法运行推理所需要的代码。万博 尤文图斯生成的代码调用优化库,包括TensorRT™和cuDNN。
进一步优化使用TensorRT
生成的代码与NVIDIA TensorRT集成,高性能的深度学习推理的优化和运行。使用INT8或FP16数据类型额外的性能提升超过标准FP32数据类型。
深度学习量化
量化你的深度学习网络,利用模型量化库支持包,分析在量化所选层的权重和偏差的准确性上的权衡。万博1manbetx
最小化CPU-GPU内存传输和优化内存使用
GPU编码器自动分析,识别和的MATLAB代码分区段CPU或GPU上运行。它也最大限度地减少了CPU和GPU之间的数据副本的数量。使用分析工具,以确定其他潜在的瓶颈。
调用优化库
使用GPU编码器生成的代码调用优化的NVIDIA CUDA库,包括TensorRT、cuDNN、cuSolver、cuFFT、cuBLAS和推力。从MATLAB工具箱函数生成的代码尽可能地映射到优化的库。
样机在NVIDIA特森和DRIVE平台
自动化交叉编译和生成的代码部署到使用GPU编码器支持包NVIDIA GPU的NVIDIA杰特森™和DRIVE™平台。万博1manbetx
访问外设和MATLAB传感器和生成的代码
从MATLAB与NVIDIA目标进行远程通信,从网络摄像头和其他受支持的外围设备获取数据,以进行早期原型设计。万博1manbetx构建并部署您的算法以及外围接口代码到板上,以便独立执行。
移动从构造原型到生产
使用GPU编码器与嵌入式编码交互式跟踪您的MATLAB代码并排侧与生成CUDA。验证使用软件合环(SIL)和处理器在环(PIL)测试的硬件上运行的所生成的代码的数值行为。
加快算法使用的GPU
从您的MATLAB代码中调用生成的CUDA代码作为一个MEX函数来加速执行,尽管性能会根据您的MATLAB代码的性质而变化。配置文件生成了MEX函数,以识别瓶颈并集中优化工作。
CUBLAS支万博1manbetx持
生成CUDA代码,并跨入批量矩阵乘法
行主阵列布局
通过在行-主布局中存储数组,简化与目标库交互生成的深度学习代码
信号处理工具箱代码生成
生成用于基于FFT的FIR滤波和短时傅立叶变换码使用fftfilt,短时傅里叶变换,并ISTFT
NVIDIA硬件支持万博1manbetx
访问板载摄像头模块,并为VideoReader功能生成CUDA代码
单次目标检测(SSD)网络
通过使用单杆Multibox的检测器对象上NVIDIA GPU检测
长短时记忆(LSTM)网络
产生双向的,有状态LSTM代码
多输出网络
产生用于具有多个输出网络代码
深学习网络
产生暗网-19,暗网-53,盗梦空间,RESNET-V2,NASNet-大,NASNet-Mobile的代码
看到发布说明对任何这些特征和对应的功能的详细说明。