AdaBoost (adaptiveboosting)在算法für das ensemble - leren,在für die Klassifikation order order Regression verwendet werden kann。Obwohl AdaBoost beständiger gegenüber Überanpassung ist als viele Algorithmen des maschinellen lenens, ist er häufig empfindlich gegenüber verrauschten Daten and Ausreißern。
这是我们所能适应的,这是我们所能适应的,这是我们能适应的。我们可以使用下面的代码:Hinzufügen von schwachen Lernern(在代码:klassifiierer,在代码:geringfügig)。我们可以训练一个新的音乐团体hinzugefügt,我们可以训练一个新的音乐团体,如果我们可以训练一个新的音乐团体,我们可以训练一个新的音乐团体,我们可以训练一个新的音乐团体。Das Ergebnis is in klassifiierer, der über eine höhere Genauigkeit verfügt als klassifiierer der schwachen Lerner。
Zum adaptiven Boosting gehören die folgenden算法:
- 演算法。M1和演算法。M2 - ursprüngliche算法für binäre und mehrklassige Klassifikation
- LogitBoost - binäre Klassifikation (für schwer trennbare Klassen)
- Gentle AdaBoost oder Gentle boost - binäre Klassifikation (für die Verwendung mit mehrstufigen kategorischen Prädiktoren)
- RobustBoost - binäre Klassifikation (robust gegenüber verrauschter Kennzeichnung der Trainingsdaten)
- LSBoost -助推mit kleinsten方法学(für regression sionsgruppierungen)
- LPBoost - mehrklassige Klassifikation durch boost mit线性优化
- RUSBoost - mehrklassige Klassifikation für verzerrte order ungleichmäßige Daten
- TotalBoost - robust mehrklassige Klassifikation als LPBoost
我们的信息对您有帮助统计和机器学习工具箱.