主要内容

预测

班级:treebagger

预测使用袋装决策树的整体响应

句法

Yfit =预测(B,X)
YFIT =预测(B,X,名称,值)
[YFIT,STDEVS] =预测(___
[Yfit,分数] =预测(___
[YFIT,Scores,STDEVS] =预测(___

描述

Yfit =预测(B,X)返回表或矩阵中的预测响应的向量的向量X基于袋装决策树的合奏B.YFIT.是字符向量进行分类的单元阵列和用于回归一个数值数组。默认情况下,预测从集合中的所有树木中汲取民主(非重量)平均投票。

B.是训练有素的treebagger模型对象,即返回的模型treebagger

X是用于生成响应的预测数据的表或矩阵。行表示观察和列代表变量。

  • 如果X是一个数字矩阵:

    • 构成列的变量X必须具有相同的顺序预测变量,经过训练,B.

    • 如果你训练有素B.使用表格(例如,TBL), 然后X可以是一个数字矩阵TBL包含所有数字预测变量。治疗数字预测器TBL培训期间分类,标识使用分类预测分类预测器名称 - 值对参数treebagger。如果TBL包含异构的预测变量(例如,数字和分类数据类型)和X是一个数字矩阵,然后预测抛出错误。

  • 如果X是一个表:

    • 预测不支持多变量或大于万博1manbetx字符向量的单元阵列的其他单元阵列。

    • 如果你训练有素B.使用表格(例如,TBL),然后所有预测器变量都在X必须有相同的变量名,并为那些训练有素的相同的数据类型B.(存储在B.PredictorNames)。然而,列顺序X不需要对应于列顺序TBLTBLX可以包含额外的变量(响应变量,观察权重等),但预测忽略它们。

    • 如果你训练有素B.使用数字矩阵,然后是预测器名称B.PredictorNames和相应的预测变量名称X必须是一样的。要在培训期间指定预测器名称,请参阅PredictorNames名称 - 值对参数treebagger。所有的预测变量中X必须为数字向量。X可以包含额外的变量(响应变量,观察权重等),但预测忽略它们。

Yfit =预测(B,X,名称,价值使用一个或多个名称 - 值对参数指定其他选项:

  • “大树”- 用于计算响应的树索引数组。默认为'全部'

  • 'treeweights'- 阵列ntree.从指定的树木加权投票的重量,在哪里ntree.是集合中的树木数量。

  • 'UseInstanceForTree'- 大小的逻辑矩阵NOBS-经过-ntree.指示用于对每个观察进行预测的树木,在哪里NOBS是观察人数。默认情况下,所有树都用于所有观察。

回归,[YFIT,STDEVS] =预测(___还返回在使用任何在前面的语法的输入参数的组合的生长树木的合奏所计算的响应的标准偏差。

对于分类,[Yfit,分数] =预测(___也返回所有类的分数。得分是每个观察一行的矩阵,每类一列。对于每个观察和每个类,每个树产生的分数是源自类的观察的概率,计算为树叶中的类的观察分数。预测平均这些分数超过在合奏的所有树木。

[YFIT,Scores,STDEVS] =预测(___还返回计算分数的标准偏差进行分类。STDEVS.是一个矩阵,每个观察一行和每级列一列,标准偏差在成长的树木的集合中取出。

算法

  • 对于回归问题,观测值的预测的响应是仅使用所选择的树预测的加权平均。那是,

    y ^ = 1 σ. T. = 1 T. α. T. 一世 T. S. σ. T. = 1 T. α. T. y ^ T. 一世 T. S.

    • y ^ T. 是树的预测T.在合奏中。

    • S.是包含预测的所选树的一组指数(见'树木''UseInstanceForTree')。 一世 T. S. 1如果是1T.在集合中S.和0否则。

    • α.T.是树的重量T.(看'we')。

  • 对于分类问题,观测值的预测类是产量类后验概率中最大的加权平均(即,分类分)仅使用所选择的树计算的类。那是,

    1. 对于每个类Cε.C和每棵树T.= 1,......,T.预测计算 P. ^ T. C | X ,这是估计的课程后部概率C鉴于观察X使用树T.C是培训数据中的所有不同类别的集合。有关分类树后部概率的更多详细信息,请参阅fitctree预测

    2. 预测在所选树上计算类后概率的加权平均值。

      P. ^ C | X = 1 σ. T. = 1 T. α. T. 一世 T. S. σ. T. = 1 T. α. T. P. ^ T. C | X 一世 T. S.

    3. 预测类是产生最大的加权平均的类。

    y ^ = arg 最大限度 C C { P. ^ C | X }