使用袋装决策树的集合来预测响应
YFIT =预测(B,X)
Yfit =预测(B, X,名称,值)
[Yfit,方差]=预测(___)
[YFIT,得分] =预测(___)
[Yfit,分数,方差)=预测(___)
YFIT =预测(B,X)
返回表或矩阵中预测器数据的预测响应向量X
,基于袋装决策树的紧凑集成B
.Yfit
是用于分类的字符向量的单元格阵列和用于回归的数字数组。默认情况下,预测
从集合中的所有树中进行民主(非加权)平均投票。
B
是一个培训CompactTreeBagger
方法返回的模型袖珍的
.
X
是用于产生响应的预测数据的表格或矩阵。行表示观察值,列表示变量。
如果X
是一个数值矩阵:
组成列的变量X
必须具有与培训的预测变量相同的顺序B
.
如果你训练B
使用表(例如,TBL.
),然后X
可以是一个数字矩阵,如果TBL.
包含所有数值预测变量。处理数值预测TBL.
作为培训期间的分类,使用该识别分类预测器CategoricalPredictors
名称 - 值对参数TreeBagger
.如果TBL.
包含异构预测变量(例如,数字和分类数据类型)和X
是一个数值矩阵,那么预测
抛出一个错误。
如果X
是一个表:
预测
不支持字符向量的单万博1manbetx元格阵列以外的多色变量或单元格阵列。
如果你训练B
使用表(例如,TBL.
),然后所有预测变量X
必须具有相同的变量名称,并且与培训的数据类型相同B
(存储在B.predictornames.
).但是,列顺序X
不需要对应的列顺序TBL.
.TBL.
和X
可以包含其他变量(响应变量,观察权重等),但是预测
忽略了它们。
如果你训练B
使用一个数字矩阵,然后预测器命名B.predictornames.
和相应的预测变量名X
肯定是一样的。要在训练期间指定预测器名称,请参见预测的人
名称 - 值对参数TreeBagger
.所有预测因子变量X
必须是数字向量。X
可以包含其他变量(响应变量,观察权重等),但是预测
忽略了它们。
YFIT =预测(B,X,
使用一个或多个名称-值对参数指定其他选项:名称,值
)
'树木'
-用于计算响应的树索引数组。默认值是“所有”
.
“TreeWeights”
数组的NTrees
权重用于从指定的树中对投票进行加权,其中NTrees
为集合中树的数量。
'umermstancefortree'
- 逻辑矩阵大小谈判
-经过-NTrees
指示用哪棵树来预测每个观测结果,在哪里谈判
为观察次数。默认情况下,所有的树都用于所有的观察。
对于回归,[Yfit,方差]=预测(___)
还使用先前语法中的任何输入参数组合返回计算响应的标准偏差。
分类,[YFIT,得分] =预测(___)
也返回所有类的分数。得分
是一个矩阵,每个观察值有一行,每个类有一列。对于每个观察和每个类,每棵树生成的分数是该观察来自该类的概率,计算为该类观察在一片树叶中的比例。预测
平均分数在集合中的所有树木上。
[Yfit,分数,方差)=预测(___)
还返回用于分类的计算分数的标准偏差。方差
是一个矩阵,每个观察值有一行,每个类有一列,用标准偏差代替已生长树木的集合。
对于回归问题,观察的预测响应是仅使用所选树的预测的加权平均值。那是,
是树的预测吗t在合奏。
年代组成预测的一组选定树的指数(见'
树
'
和'
umermstancefortree.
'
).
是1,如果t在集合中年代,否则为0。
αt是树的重量t(见'
TreeWeights
'
).
对于分类问题,用于观察的预测类是产生仅使用所选树计算的类后验概率(即分类得分)的最大加权平均值的类。那是,