使用cnn进行深度学习之所以流行,有三个重要因素:
cnn为揭示和学习图像和时间序列数据中的关键特征提供了一个优化的体系结构。cnn是一项关键的应用技术,如:
卷积神经网络可以有数十或数百层,每层都学习检测图像的不同特征。对每一幅不同分辨率的训练图像进行滤波,每一幅卷积图像的输出作为下一层的输入。万博 尤文图斯过滤器可以从非常简单的特征开始,如亮度和边缘,并增加复杂性,以唯一定义对象的特征。
像其他神经网络一样,CNN由一个输入层、一个输出层和许多隐藏层组成。
这些层执行改变数据的操作,目的是学习特定于数据的特性。最常见的三层是:卷积、激活(ReLU)和池化。
这些操作在数十层或数百层中重复,每一层学习识别不同的特征。
像一个传统神经网络在美国,CNN的神经元具有权重和偏差。模型在训练过程中学习这些值,并在每个新的训练示例中不断更新它们。而对于cnn,给定层中所有隐藏神经元的权值和偏差值是相同的。
这意味着所有隐藏的神经元都在检测图像不同区域的相同特征,比如边缘或斑点。这使得网络能够容忍图像中物体的平移。例如,一个经过训练的识别汽车的网络将能够识别图像中任何位置的汽车。
在多层学习特征后,CNN的架构转向分类。
倒数一层是一个完全连接的层,输出K维向量,其中K是网络能够预测的类的数量。这个向量包含任何图像被分类的每一类的概率。
CNN体系结构的最后一层使用诸如softmax之类的分类层来提供分类输出。
你也可以在应用程序中直接训练网络,并通过精确、损失和验证指标的图来监控训练。
对预先训练好的网络进行微调转移学习通常比从头开始训练更快更容易。它需要最少的数据量和计算资源。迁移学习用一种问题中的知识来解决类似的问题。你从一个预先训练过的网络开始,用它来学习一项新任务。迁移学习的一个优点是,预先训练的网络已经学习了一组丰富的特征。这些特性可以应用于其他类似的任务。例如,你可以在数百万张图像上训练一个网络,然后再使用数百张图像对它进行新的目标分类。
卷积神经网络是在成百上千甚至上百万的图像上训练的。当处理大量数据和复杂的网络架构时,gpu可以显著加快处理时间来训练模型。
目标检测是对图像和视频中的目标进行定位和分类的过程。计算机视觉工具箱™提供使用YOLO和Faster R-CNN创建基于深度学习的对象检测器的培训框架。
语音到文本的一个示例应用是关键字检测,它可以识别特定的关键字或短语,并将它们用作指令。常见的例子是唤醒设备和开灯。
利用cnn进行语义分割,通过分类标签识别图像中的每个像素。语义分割可用于自动驾驶、工业检测、地形分类和医学成像等应用。卷积神经网络是构建语义分割网络的基础。
MATLAB为所有东西的深度学习提供了一个工具和功能。使用cnn来增强信号处理、计算机视觉或通信和雷达方面的工作流程。