决策树包
TreeBagger
袋子为分类或回归的决策树的集合。装袋代表引导聚合。合奏中的每棵树都在独立绘制的输入数据的自主绘制复制品上生长。此副本中未包含的观察是“从包中的”这棵树。
TreeBagger
依靠ClassificationTree.
和回归植物
种植个体树木的功能。特别是,ClassificationTree.
和回归植物
接受为每个决策分割随机选择的特性数量作为可选输入参数。也就是说,TreeBagger
实现随机森林算法[1].
对于回归问题,TreeBagger
万博1manbetx支持均值和大分回归(即定量回归森林[2])。
预测均值或估计给定数据的平均误差,通过aTreeBagger
模型和数据到预测
要么错误
,分别。要对袋外观察执行类似的操作,请使用Oobpredict.
要么ooberror.
.
估计响应分布的定量或给定数据的定量误差,通过aTreeBagger
模型和数据到quantilePredict
要么SmileileError.
,分别。要对袋外观察执行类似的操作,请使用OOBQUANTILEPREDICT
要么OOBQUANTILEERROR.
.
TreeBagger | 创建决策树包 |
附加 |
将新树附加到合奏 |
袖珍的 |
决策树的紧凑型集合 |
错误 |
错误(错误分类概率或MSE) |
Fillprox. |
接近矩阵训练数据 |
Growtees. |
训练额外的树,并添加到整体 |
利润 |
分类保证金 |
mdsprox |
近矩阵的多维缩放 |
意思 |
平均分类保证金 |
ooberror. |
袋袋错误 |
Oobmargin. |
袋袋边缘 |
oobMeanMargin |
Out-of-bag意味着利润 |
Oobpredict. |
与袋子外观测的集合预测 |
OOBQUANTILEERROR. |
袋子袋数丢失的袋子 |
OOBQUANTILEPREDICT |
从回归树的袋外观察的分位数预测 |
部分竞争 |
计算部分依赖 |
绘图竞争依赖性 |
创建部分依赖图(PDP)和个人条件期望图(ICE) |
预测 |
使用袋装决策树的集合来预测响应 |
SmileileError. |
使用袋子回归树的量化损失 |
quantilePredict |
使用袋子回归树预测响应量子 |
|
包含响应变量的类名的单元格数组 |
|
应计算指定是否应该计算用于训练观察的袋子预测的逻辑标志。默认值是 如果是这个标志
如果是这个标志
|
|
一个逻辑标志,指定是否应该计算变量重要性的包外估计。默认值是 如果是这个标志
|
|
方矩阵,在哪里 这个属性是:
|
|
返回的默认值
|
|
大小为1 × -的数字数组NVARS.将分割标准的变化通过每个变量的分割进行求和,并在整个已长成的树木集合中取平均值。 |
|
随机选择的观察分数,用于替换每个引导副本。每个副本的大小是谈判× |
|
一个逻辑标志,指定与同一父级的决策树是否留下的拆分是不降低总风险的拆分。默认值是 |
|
树木使用的方法。可能的值是 |
|
每棵树叶的最小观察数。默认情况下, |
|
集合中等于决策树数目的标量值。 |
|
大小为1 × -的数字数组NVARS.,每个元素都给所有树木汇总的预测值都有许多分裂。 |
|
预测器或特征变量的数量以随机选择每个决策拆分。默认情况下, |
|
逻辑阵列大小谈判-经过-numtrees., 在哪里谈判训练数据中的观察数和numtrees.是集合中的树木数量。一种 |
|
大小数字数组谈判-1包含用于计算每次观察的禁止袋响应的树木数量。谈判是用于创建集合的培训数据中的观测数量。 |
|
大小为1 × -的数字数组NVARS.包含对每个预测变量(特征)的可变重要性的度量。对于任何变量,如果在袋袋外观察中允许该变量的值允许该变量的值,则测量值是凸起边距的数量和降低的边距的数量之间的差异。对每棵树计算这个度量,然后在整个集合上取平均值,再除以整个集合上的标准差。此属性为回归树为空。 |
|
大小为1 × -的数字数组NVARS.包含每个预测变量(特征)的重要性度量。对于任何一个变量,如果该变量的值是在袋子外的观察值中排列的,则度量是预测误差的增加。对每棵树计算这个度量,然后在整个集合上取平均值,再除以整个集合上的标准差。 |
|
大小为1 × -的数字数组NVARS.包含每个预测变量(特征)的重要性度量。对于任何变量,如果在袋出袋出观察中允许该变量的值,则该度量是分类余量的减小。对每棵树计算这个度量,然后在整个集合上取平均值,再除以整个集合上的标准差。此属性为回归树为空。 |
|
有大小的数字数组谈判- 1,在哪里谈判是培训数据中的观测数量,包括每个观察的异常措施。 |
|
每个类的先验概率的数字向量。元素的顺序 这个属性是:
|
|
有大小的数字矩阵谈判-经过-谈判, 在哪里谈判为训练数据中的观测数,包含观测值之间的接近度度量值。对于任意两个观测值,它们的接近度定义为这些观测值落在同一片叶子上的树木的比例。这是一个对称矩阵,对角线和非对角线上的元素从0到1都有1s。 |
|
的 |
|
指定具有替换的每个决策树的数据是否针对数据的逻辑标志。这家酒店是 |
|
|
|
大小相同的单元格数组numtrees.-by-1包含集合中的树。 |
|
大小矩阵NVARS.-经过-NVARS.通过变量关联的预测措施,对整个成年树木进行平均。如果你增加了布景 |
|
包含预测器变量的名称(特征)的单元格数组。 |
|
数量的数量矢量长度谈判, 在哪里谈判是培训数据中的观测数量(行)。 |
|
桌子或数字矩阵的大小谈判-经过-NVARS., 在哪里谈判是观察数(行)和NVARS.是培训数据中的变量(列)的数量。如果您使用预测值的表培训集合,那么 |
|
一个大小谈判响应数据阵列。要点 |
价值。要了解这会如何影响您对类的使用,请参阅比较句柄和价值类在matlab.®面向对象编程的文档。
为一个TreeBagger
模型对象B
,树
属性存储一个细胞矢量B.numtrees.
CompactClassificationTree.
要么Compactregressiontree.
模型对象。用于树的文本或图形显示t
在细胞向量中,进入
查看(b.trees {t})
Statistics and Machine Learning Toolbox™提供了三种对象用于套袋和随机森林:
回归释迦缩短
由...制作fitrensemble.
为回归
TreeBagger
由...制作TreeBagger
用于分类和回归
详细了解两者的区别TreeBagger
和袋装合奏(ClassificationBaggedensemble.
和回归释迦缩短
), 看套袋式和套袋式的比较.
[1] Breiman,L。“随机森林。”机器学习45,pp。5-32,2001。
[2] Meinshausen,N。“斯蒂利回归森林。”机器学习研究杂志,第7卷,2006年,第983-999页。