主要内容

预测

班级:CompactTreeBagger

使用袋装决策树的集合来预测响应

语法

YFIT =预测(B,X)
Yfit =预测(B, X,名称,值)
[Yfit,方差]=预测(___
[YFIT,得分] =预测(___
[Yfit,分数,方差)=预测(___

描述

YFIT =预测(B,X)返回表或矩阵中预测器数据的预测响应向量X,基于袋装决策树的紧凑集成BYfit是用于分类的字符向量的单元格阵列和用于回归的数字数组。默认情况下,预测从集合中的所有树中进行民主(非加权)平均投票。

B是一个培训CompactTreeBagger方法返回的模型袖珍的

X是用于产生响应的预测数据的表格或矩阵。行表示观察值,列表示变量。

  • 如果X是一个数值矩阵:

    • 组成列的变量X必须具有与培训的预测变量相同的顺序B

    • 如果你训练B使用表(例如,TBL.),然后X可以是一个数字矩阵,如果TBL.包含所有数值预测变量。处理数值预测TBL.作为培训期间的分类,使用该识别分类预测器CategoricalPredictors名称 - 值对参数TreeBagger.如果TBL.包含异构预测变量(例如,数字和分类数据类型)和X是一个数值矩阵,那么预测抛出一个错误。

  • 如果X是一个表:

    • 预测不支持字符向量的单万博1manbetx元格阵列以外的多色变量或单元格阵列。

    • 如果你训练B使用表(例如,TBL.),然后所有预测变量X必须具有相同的变量名称,并且与培训的数据类型相同B(存储在B.predictornames.).但是,列顺序X不需要对应的列顺序TBL.TBL.X可以包含其他变量(响应变量,观察权重等),但是预测忽略了它们。

    • 如果你训练B使用一个数字矩阵,然后预测器命名B.predictornames.和相应的预测变量名X肯定是一样的。要在训练期间指定预测器名称,请参见预测的人名称 - 值对参数TreeBagger.所有预测因子变量X必须是数字向量。X可以包含其他变量(响应变量,观察权重等),但是预测忽略了它们。

YFIT =预测(B,X,名称,值使用一个或多个名称-值对参数指定其他选项:

  • '树木'-用于计算响应的树索引数组。默认值是“所有”

  • “TreeWeights”数组的NTrees权重用于从指定的树中对投票进行加权,其中NTrees为集合中树的数量。

  • 'umermstancefortree'- 逻辑矩阵大小谈判-经过-NTrees指示用哪棵树来预测每个观测结果,在哪里谈判为观察次数。默认情况下,所有的树都用于所有的观察。

对于回归,[Yfit,方差]=预测(___还使用先前语法中的任何输入参数组合返回计算响应的标准偏差。

分类,[YFIT,得分] =预测(___也返回所有类的分数。得分是一个矩阵,每个观察值有一行,每个类有一列。对于每个观察和每个类,每棵树生成的分数是该观察来自该类的概率,计算为该类观察在一片树叶中的比例。预测平均分数在集合中的所有树木上。

[Yfit,分数,方差)=预测(___还返回用于分类的计算分数的标准偏差。方差是一个矩阵,每个观察值有一行,每个类有一列,用标准偏差代替已生长树木的集合。

算法

  • 对于回归问题,观察的预测响应是仅使用所选树的预测的加权平均值。那是,

    y 1 t 1 T α t t 年代 t 1 T α t y t t 年代

    • y t 是树的预测吗t在合奏。

    • 年代组成预测的一组选定树的指数(见umermstancefortree.). t 年代 是1,如果t在集合中年代,否则为0。

    • αt是树的重量t(见TreeWeights).

  • 对于分类问题,用于观察的预测类是产生仅使用所选树计算的类后验概率(即分类得分)的最大加权平均值的类。那是,

    1. 对于每个课程cC,每棵树t= 1,…,T预测计算 P t c | x ,即类的估计后验概率c鉴于观察x使用树tC为训练数据中所有不同类的集合。有关分类树后验概率的更多细节,请参见fitctree预测

    2. 预测计算所选树的类后验概率的加权平均值。

      P c | x 1 t 1 T α t t 年代 t 1 T α t P t c | x t 年代

    3. 预测的类是产生最大加权平均值的类。

    y 参数 马克斯 c C P c | x