决策树包
TreeBagger
袋合奏决策树的任一分类或回归。套袋代表引导聚集。在合奏每一棵树生长在输入数据的独立绘制自举复制品。不包括在此副本意见是“包了”这棵树。
TreeBagger
依靠ClassificationTree
和RegressionTree
功能用于种植树木个体。特别是,ClassificationTree
和RegressionTree
接受为每个决策拆分随机选择的特性数作为可选输入参数。也就是说,TreeBagger
实现随机森林算法[1]。
对于回归问题,TreeBagger
万博1manbetx支持均值和分位数回归(即分位数回归森林)[2])。
为了预测平均响应或估计给定数据的平均平方误差,传递aTreeBagger
模型和数据预测
要么错误
,分别。若要对包外观察执行类似的操作,请使用oobPredict
要么oobError
。
估计响应分布或给定的数据的位数误差的位数,通过一个TreeBagger
模型和数据quantilePredict
要么quantileError
,分别。若要对包外观察执行类似的操作,请使用oobQuantilePredict
要么oobError
。
TreeBagger | 创建决策树包 |
附加 | 添加新树到集合 |
紧凑的 | 决策树的紧凑型集合 |
错误 | 误差(错误分类概率或MSE) |
fillprox | 用于训练数据的接近矩阵 |
growTrees | 训练额外的树木,增加整体效果 |
余量 | 分类保证金 |
mdsprox | 接近矩阵的多维标度 |
meanMargin | 意思是分类保证金 |
oobError | Out-of-bag错误 |
oobMargin | 出球袋利润率 |
oobMeanMargin | Out-of-bag意味着利润 |
oobPredict | 对于超出球袋观察集合预报 |
oobQuantileError | 回归树的包外的包位数损失 |
oobQuantilePredict | 从回归树的袋外观察的分位数预测 |
预测 | 预测使用袋装决策树的整体响应 |
quantileError | 回归树的分位数的损失用袋 |
quantilePredict | 预测响应位数使用回归树袋 |
|
包含类名的响应变量A单元阵列 |
|
一个合乎逻辑的标志,指定是否超出袋预测的培训意见应计算。默认值是 如果该标志是
如果该标志是
|
|
一个逻辑标志,指定是否应该计算出具有可变重要性的out-of-bag估计值。默认值是 如果该标志是
|
|
方阵,其中, 这个属性是:
|
|
默认值由返回
|
|
大小为1×-的数字数组据nvar分裂准则的变化对每个变量的分裂进行求和,对所有已生长的树进行平均。 |
|
被随机地置换为每个自举复制品选择观测部分。每个副本的大小是NOBS× |
|
指定是否决定树叶与同一母公司的逻辑标志被合并为不降低总风险分裂。默认值是 |
|
方法使用的树木。可能的值是 |
|
每片树叶的最少观察次数。默认情况下, |
|
标量值等于集合中决策树的数目。 |
|
大小为1×-的数字数组据nvar,其中的每个单元提供了有关这一预测求和所有的树木分割数。 |
|
预测或特征变量的数量随机每个决策拆分选择。默认情况下, |
|
大小的逻辑阵列NOBS——- - - - - -NumTrees,其中NOBS在训练数据中观察到的次数和NumTrees是在合奏的树木数量。一个 |
|
大小数字数组NOBS×1包含用于计算外的包的响应对于每个观测树的数量。NOBS是用于创建集成的训练数据中的观察值。 |
|
大小为1×-的数字数组据nvar含有的可变重要性的度量为每个预测器变量(特征)。对于任何变量,该措施是凸起边缘的数目,并且如果该变量的值被跨越外的袋的观察置换降低边缘的数量之间的差。对每棵树都计算这个值,然后对整个集合求平均值,再除以整个集合的标准差。此属性是空的回归树。 |
|
大小为1×-的数字数组据nvar包含每个预测变量(特征)的重要性度量。对于任何变量,其度量是,如果变量的值在out-of-bag观察值之间进行排列,则预测误差的增加。对每棵树都计算这个值,然后对整个集合求平均值,再除以整个集合的标准差。 |
|
大小为1×-的数字数组据nvar包含每个预测变量(特征)的重要性度量。对于任何变量,该措施是,如果该变量的值被跨越外的袋的观察置换在分类余量的降低。对每棵树都计算这个值,然后对整个集合求平均值,再除以整个集合的标准差。此属性是空的回归树。 |
|
大小的数字数组NOBS-by-1,其中NOBS是在训练数据的观察,包含用于每个观测离群值措施的数量。 |
|
每个类的先验概率的数字向量。元素的顺序 这个属性是:
|
|
大小的数字矩阵NOBS——- - - - - -NOBS,其中NOBS是训练数据中的观测值,包含观测值之间的接近度度量。对于任何两个观测值,它们的接近度被定义为这些观测值落在同一片叶子上的树的比例。这是一个对称矩阵,对角线和非对角线上的元素都是1,范围从0到1。 |
|
的 |
|
一个逻辑标志,指定是否对每个具有替换的决策树进行数据采样。此属性 |
|
|
|
大小的单元格数组NumTrees-1乘1,包含整个集合中的树。 |
|
矩阵的大小据nvar——- - - - - -据nvar通过变量关联的预测方法,对所有已生长的树进行平均。如果增加整体的设置 |
|
包含预测变量(特征)的名称的单元阵列。 |
|
长度权值的数字向量NOBS,其中NOBS是观测(行)在训练数据的数量。 |
|
一种有大小的表格或数字矩阵NOBS——- - - - - -据nvar,其中NOBS是观测(行)的数目和据nvar是变量(列)在训练数据的数量。如果您使用的预测值表训练合奏然后, |
|
一个大小NOBS阵列响应数据。要点 |
值。要了解如何影响你的类的使用,见比较手柄和值类(MATLAB)在MATLAB®面向对象编程的文档。
为一个TreeBagger
模型对象B
,树
属性存储的单元格向量B.NumTrees
CompactClassificationTree
要么CompactRegressionTree
模型对象。对于树的文本或图形显示t
在cell vector中,输入
视图(B.Trees {t})
统计和机器学习工具箱™提供了三种对象装袋和随机森林:
RegressionBaggedEnsemble
由...制作fitrensemble
为回归
TreeBagger
由...制作TreeBagger
分类和回归
之间的差异TreeBagger
和袋装合奏(ClassificationBaggedEnsemble
和RegressionBaggedEnsemble
),看TreeBagger和Bagged集成包的比较。
[1]Breiman, L。随机森林。机器学习45,页5-32,2001。
[2] Meinshausen, N. "分位数回归森林。"机器学习研究杂志, 2006年第7卷,第983-999页。