周一岳
在嵌入式CPU和GPU平台上设计和部署深度学习和计算机视觉应用具有挑战性,因为嵌入式设备固有的资源限制。基于MATLAB®的工作流有助于这些应用程序的设计,自动生成的C或CUDA®代码可以部署在像Jetson TX2和DRIVE PX这样的板上,并实现非常快速的推理。
该演示文稿说明了MATLAB如何支持此工作流的所有主要阶段。从算法设计开始,该算万博1manbetx法可以使用深度学习网络,并使用传统的计算机视觉技术进行增强,并且可以在MATLAB中进行测试和验证。接下来,使用GPU和MATLAB的并行计算支持对这些网络进行训练在桌面、集群或云上。最后,GPU编码器™ 从MATLAB算法生成可移植和优化的C/C++和/或CUDA®代码,然后交叉编译并部署到CPU和/或Tegra®板上。基准测试表明,自动生成的CUDA代码的性能比TensorFlow®快约5倍,比MXNet快约2倍。
观看本演讲,了解如何:
1.访问和管理大型图像集
2.可视化网络并深入了解培训过程
3.导入参考网络,如AlexNet和GoogLeNet
4.根据NVIDIA GPU的MATLAB算法自动生成可移植和优化的CUDA代码
5.用于Intel Xeon cpu和ARM Cortex-A处理器的MATLAB中实现的深度学习网络自动生成可移植和优化的代码
Bill Chou是GPU编码器的产品营销经理,在过去12年中一直与MathWorks代码生成技术合作。比尔拥有南加州大学电气工程硕士学位,英属哥伦比亚大学英属哥伦比亚大学电气工程学士学位。
记录时间:2018年6月20日
您还可以从以下列表中选择网站:
选择中国站点(中文或英文)以获得最佳站点性能。其他MathWorks国家/地区网站未针对您所在地的访问进行优化。