AdaBoost的是分类和回归预测算法。

的AdaBoost(自适应增强)是可用于分类或回归合奏的学习算法。虽然AdaBoost的是更耐比许多过度拟合机器学习算法,往往对噪声数据和异常值敏感。

因为它使用多次迭代来生成一个单一的复合强学习者的AdaBoost被称为自适应的。AdaBoost的创建强大的学习,通过逐步添加弱学习(即只略微相关的真实分类的分类)(即良好的相关性,以真正的分级分类)。在每一轮的训练,一个新的弱学习被添加到集合和一个加权矢量被调节至聚焦前几轮错误分类该例子。其结果是,具有比弱学习者的分类精度更高的分类。

自适应增强包括如下算法:

  • AdaBoost.M1和AdaBoost.M2 - 原算法二进制和多类分类
  • LogitBoost - 二元分类(不良可分离班)
  • 温和的AdaBoost或GentleBoost - 二元分类器(用于多级分类预测)
  • RobustBoost - 二元分类(具备应对标签噪声)
  • LSBoost - 最小二乘提高(回归合奏)
  • LPBoost - 利用线性规划提高多类分类
  • RUSBoost - 为歪斜或不平衡数据多类分类
  • TotalBoost - 多类分类比LPBoost更稳健

有关自适应增强的更多信息,请参阅统计和机器学习工具箱™

也可以看看:机器学习万博1manbetx支持向量机

面板导航

多少钱你知道机器学习?

掌握机器学习:有步骤,分步指南与MATLAB