深度学习代码生成
生成C/ c++, CUDA®或HDL代码,并部署深度学习网络
为预训练的深度神经网络生成代码。您可以在MATLAB中加速算法的模拟®或仿真万博1manbetx软件®通过使用不同的执行环境。通过使用支持包,您万博1manbetx还可以在目标硬件上生成和部署C/ c++、CUDA和HDL代码。
使用深度学习工具箱™与深度学习工具箱模型量化库万博1manbetx支持包通过量化层的权重、偏差和激活来减少精确缩放的整数数据类型,从而减少深度神经网络的内存占用和计算需求。然后,您可以从这些量化网络生成C/ c++、CUDA或HDL代码。
使用MATLAB编码器™或万博1manbetx仿真软件编码器与深度学习工具箱一起生成在桌面或嵌入式目标上运行的MEX或独立CPU代码。您可以部署生成的使用Intel的独立代码®MKL-DNN库或ARM®计算库。或者,您也可以生成不调用第三方库函数的通用CPU代码。
使用GPU Coder™与深度学习工具箱一起生成运行在桌面或嵌入式目标上的CUDA MEX或独立CUDA代码。您可以部署生成的独立CUDA代码,使用CUDA深度神经网络库(cuDNN)、TensorRT™高性能推断库或用于Mali GPU的ARM计算库。
使用深度学习HDL工具箱™与深度学习工具箱一起为预训练的网络生成HDL代码。您可以在Intel和Xilinx上部署生成的HDL代码®FPGA和SoC器件。
代码生成基础知识
- 代码生成支持的网络和层万博1manbetx(MATLAB编码器)
- 万博1manbetx支持的网络、层和类(GPU编码器)
- 万博1manbetx支持的网络、层、板、工具(深度学习HDL工具箱)
- 用于深度学习网络的代码生成
- 生成用于序列到序列深度学习Simulink模型的通用C/ c++万博1manbetx(万博1manbetx仿真软件编码器)
- 从Intel Arria 10 SoC上的深度学习FPGA部署开始(深度学习HDL工具箱)
类别
- 量化、投影和剪枝
通过执行量化、投影或修剪来压缩深度神经网络 - 基于MATLAB的深度学习代码生成
生成用于部署在桌面或嵌入式目标上的C/ c++、GPU和HDL代码 - 基于Simulink应用程序的深度学习代码生成万博1manbetx
生成用于部署在桌面或嵌入式目标上的C/ c++和GPU代码
相关信息
- 深度学习与MATLAB编码器(MATLAB编码器)
- GPU编码器的深度学习(GPU编码器)
- 开始使用深度学习HDL工具箱(深度学习HDL工具箱)