使用cnn进行深度学习是受欢迎的,原因有三个:
cnn为发现和学习图像和时间序列数据中的关键特征提供了最佳架构。cnn在以下应用中是一项关键技术:
卷积神经网络可以有数十或数百层,每一层都学习检测图像的不同特征。对每一张不同分辨率的训练图像进行滤波器处理,每一张卷积图像的输出作为下一层的输入。万博 尤文图斯滤镜可以从非常简单的特征开始,比如亮度和边缘,然后增加复杂性,变成唯一定义对象的特征。
像其他神经网络一样,CNN由输入层、输出层和中间的许多隐藏层组成。
这些层执行修改数据的操作,目的是学习特定于数据的特征。最常见的三个层是:卷积、激活(ReLU)和池化。
这些操作在数十或数百层中重复,每一层都在学习识别不同的特征。
就像传统的神经网络, CNN的神经元具有权重和偏差。该模型在训练过程中学习这些值,并随着每个新的训练示例不断更新这些值。然而,在cnn的情况下,对于给定层中的所有隐藏神经元,权值和偏置值是相同的。
这意味着所有隐藏的神经元都在图像的不同区域检测相同的特征,例如边缘或斑点。这使得网络能够容忍图像中物体的平移。例如,一个经过训练的识别汽车的网络将能够在图像中的任何地方识别汽车。
在学习了许多层的特征之后,CNN的架构转向分类。
倒数第二层是一个完全连接的层,它输出K维的向量,其中K是网络能够预测的类的数量。这个向量包含了任何被分类的图像的每一类的概率。
CNN体系结构的最后一层使用分类层(如softmax)提供分类输出。
您还可以直接在应用程序中训练网络,并使用准确性、损失和验证指标的图表监控训练。
微调预训练的网络转移学习通常比从头开始训练要快得多,容易得多。它需要最少的数据和计算资源。迁移学习是利用一类问题的知识来解决类似的问题。你从一个预先训练好的网络开始,用它来学习一项新任务。迁移学习的一个优点是预先训练的网络已经学习了丰富的特征集。这些特性可以应用于其他许多类似的任务。例如,你可以在数百万张图像上训练一个网络,然后只使用数百张图像重新训练它来进行新的对象分类。
卷积神经网络在数百、数千甚至数百万张图像上进行训练。在处理大量数据和复杂网络架构时,gpu可以显著加快训练模型的处理时间。
目标检测是对图像和视频中的目标进行定位和分类的过程。计算机视觉工具箱提供训练框架,使用YOLO和Faster R-CNN创建基于深度学习的对象检测器。
语音到文本的一个示例应用是关键字检测,它可以识别某些关键字或短语,并将它们用作指令。常见的例子是唤醒设备和打开灯。
cnn用于语义分割,用对应的类标签识别图像中的每个像素。语义分割可用于自动驾驶、工业检测、地形分类和医学成像等应用。卷积神经网络是构建语义分割网络的基础。
MATLAB为深度学习提供了工具和功能。使用cnn来增强信号处理、计算机视觉或通信和雷达方面的工作流程。