Adaboost是一种用于分类和回归的预测算法。

Adaboost(自适应升级)是一个可以用于分类或回归的集合学习算法。虽然Adaboost比许多人更具抵抗力机器学习算法,它通常对嘈杂的数据和异常值敏感。

adaboost被称为自适应,因为它使用多个迭代来生成一个复合强的学习者。adaboost通过迭代地添加弱的学习者(仅与真实分类器略微关联的分类器)创建强的学习者(与真实分类器完全相关的分类器)。在每一轮训练期间,将一个新的弱学习者添加到集合中,并调整加权矢量,以专注于在前一轮中错误分类的例子。结果是一个比弱学习者的分类器更高的准确性分类器。

自适应增强包括以下算法:

  • adaboost.m1和adaboost.m2 - 二进制和多字符分类的原始算法
  • LogitBoost - 二进制分类(适用于可分离的班级)
  • 温和的Adaboost或柔佛 - 二进制分类(与多级分类预测器一起使用)
  • robustboost - 二进制分类(强大反对标签噪音)
  • lsboost - 最小二乘升压(对于回归合奏)
  • LPBoost - 使用线性编程升压多款分类
  • Rusboost - 偏斜或不平衡数据的多字符分类
  • 全腾料 - 多款分类比LPBoost更强大

有关自适应提升的更多信息,请参阅统计和机器学习工具箱™

也可以看看:机器学习万博1manbetx支持矢量机器

面板导航

你对机器学习了解多少?

掌握机器学习:使用MATLAB逐步指南