33:42视频长度为33:42。
使用GPU编码器将深度学习网络部署到嵌入式GPU和cpu
概述
由于嵌入式设备固有的资源限制,在嵌入式CPU和GPU平台上设计和部署深度学习和计算机视觉应用程序具有挑战性。一个MATLAB®基于工作流的设计方便了这些应用程序,并自动生成C或CUDA®代码可以部署在像Jetson TX2和DRIVE PX这样的板上,并实现非常快的推理。
演示演示了MATLAB如何支持此工作流程的所有主要阶段。万博1manbetx从算法设计开始,该算法可以使用传统计算机视觉技术增强的深度学习网络,并可以在MATLAB中进行测试和验证。接下来,使用GPU和MATLAB的并行计算支持在桌面、集群或云上训练这些网络。万博1manbetx最后,GPU Coder™生成可移植和优化的C/ c++和/或CUDA®然后交叉编译并部署到cpu和/或Tegra上®董事会。基准测试表明,自动生成的CUDA代码的性能比TensorFlow快5倍®比MXNet快2倍。
突出了
观看这段对话,学习如何:
1.访问和管理大型图像集
2.可视化网络,深入了解培训过程
3.导入参考网络,如AlexNet和GoogLeNet
4.从NVIDIA gpu的MATLAB算法自动生成可移植和优化的CUDA代码
5.从MATLAB中实现的深度学习网络自动生成可移植和优化的代码,用于Intel Xeon cpu和ARM Cortex-A处理器
主讲人简介
Bill Chou是GPU Coder的产品营销经理,在过去的12年里一直致力于MathWorks代码生成技术。Bill持有南加州大学电气工程硕士学位和不列颠哥伦比亚大学电气工程学士学位。
记录时间:2018年6月20日
您也可以从以下列表中选择一个网站:
如何获得最佳的网站性能
选择中国站点(中文或英文)以获得最佳站点性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。