主要内容

ClassificationEnsemble

包裹:classreg.learning.classif.
超类:CompactClassificationEnsemble

集成分类器

描述

ClassificationEnsemble结合一组训练过的弱学习者模型和这些学习者训练过的数据。它可以通过聚合弱学习者的预测来预测新数据的集成响应。它存储用于训练的数据,可以计算重新替换预测,如果需要,还可以恢复训练。

建造

使用创建分类集成对象fitcensemble.

特性

BinEdges

数值预测器的箱边,指定为P数字向量,在哪里P是预测值的数量。每个向量包括数值预测器的箱边。分类预测器单元格数组中的元素为空,因为软件不存储分类预测器。

仅当您指定'numbins'名称 - 值参数作为带有树学习者培训模型时的正整数标量。这个BinEdges房产是空的'numbins'值为空(默认值)。

您可以重现Binned Predictor数据Xbinned通过使用BinEdges训练模型的性质mdl

x = mdl.x;%predictor数据xbinned = zeros(size(x));边缘= mdl.bineges;%查找箱预测因子的指数。idxnumeric = find(〜cellfun(@ isempty,边));如果是iscumn(idxnumeric)idxnumeric = idxnumeric';j = idxnumeric x = x(:,j);如果x是表,%将x转换为数组。如果是Istable(x)x = table2array(x);结束%X通过使用X进入垃圾箱离散化作用xbinned =离散化(x,[ -  inf;边缘{j}; inf]);Xbinned(:,j)= xbinned;结尾
Xbinned包含用于数字预测器的容器索引,范围从1到容器数量。Xbinned分类预测值的值为0。如果X包含s,然后相应的Xbinned价值观是s。

CategoricalPredictors

分类预测索引指定为正整数的向量。CategoricalPredictors包含指示相应预测器是分类的索引值。索引值在1之间P, 在哪里P为用于训练模型的预测器数量。如果没有任何预测器是绝对的,则此属性为空([]).

类名

中的元素列表Y删除了重复项。类名可以是数字向量、类别向量、逻辑向量、字符数组或字符向量的单元格数组。类名是否与参数中的数据具有相同的数据类型Y(软件将字符串数组视为字符向量的单元数组。)

联合重量

描述如何的字符矢量恩斯结合弱学习权重,也可以结合“WeightedSum”或者“WeightedAverage”

成本

方矩阵,在哪里成本(i,j)是将一个点分类为课程的成本J如果它真正的阶级是(行对应于真实类,列对应于预测类)。的行和列的顺序成本对应于中类的顺序类名.行数和列的数量成本是响应中唯一类的数量。此属性是只读的。

ExpandedPredictorNames

扩展的预测器名称,存储为字符向量的单元格数组。

如果模型对分类变量使用编码,那么ExpandedPredictorNames包括描述扩展变量的名称。除此以外,ExpandedPredictorNamesPredictorNames

FitInfo

拟合信息的数字数组。这个FitInfoDescription属性描述此数组的内容。

FitInfoDescription

描述向量的意义FitInfo大堆

超参数优化结果

超参数的交叉验证优化的描述,存储为a贝叶斯偏见对象或超参数和关联值的表。当优化hyperParameters.名称-值对在创建时为非空。值取决于超参数优化选项创建时的名称-值对:

  • “bayesopt”(默认)-类的对象贝叶斯偏见

  • “网格搜索”或者'randomsearch'- 使用的超参数表,观察到的目标函数值(交叉验证丢失),以及从最低(最佳)到最高(最差)的观察等级

学习名

具有集合中弱学习者名称的字符向量单元数组。每个学习者的名字只出现一次。例如,如果有100棵树的集合,学习名{'Tree'}

方法

描述创造方法的字符矢量恩斯

模型参数

用于培训的参数恩斯

NumObservations

数字标量包含培训数据中的观察次数。

麻木

培训的弱学习者数量恩斯,一个标量。

PredictorNames

预测器变量的名称单元格数组,按它们出现的顺序排列X

事先的

每个类别的先验概率的数值向量。元素的顺序事先的对应于中类的顺序类名.元素的数量事先的是响应中唯一类的数量。此属性是只读的。

原理

描述原因的字符矢量fitcensemble.停止在合奏中加入弱者。

反应胺

带有响应变量名称的字符向量Y

ScoreTransform

用于转换分数的功能手柄,或表示内置变换函数的字符矢量。“没有”表示没有转换;等价地,“没有”意味着@(x) x.有关内置转换功能列表和自定义转换功能的语法,请参阅菲茨特里

添加或更改ScoreTransform函数使用点表示法:

ens.ScoreTransform = '作用'

或者

ens.ScoreTransform = @作用

训练有素

训练分类模型的细胞矢量。

  • 如果方法“LogitBoost”或者“绅士之声”然后ClassificationEnsemble商店训练有素的学习者J紧凑回归学习者存储在中的对象的属性训练有素的{J}.也就是说,访问训练有素的学习者J, 用ens.tromed {J.compactregresionLearner

  • 否则,细胞向量的细胞包含相应的紧凑分类模型。

训练重量

网络中弱学习者训练权重的数值向量恩斯训练重量T元素,在哪里T是弱者的数量学习者

UsePredForLearner

大小逻辑矩阵P——- - - - - -麻木, 在哪里P是训练数据中预测值(列)的数量XUsePredForLearner (i, j)符合事实的当学习者J使用预测指标,而且是错误的除此以外。对于每个学习者,预测器具有与培训数据中的列相同的顺序X

如果合奏不是类型子空间,在UsePredForLearner符合事实的

W

按比例缩小的砝码,一个有长度的向量N,行数X.元素的总和W1.

X

训练集合的预测值矩阵或表。每一列的X表示一个变量,每行表示一个观察值。

Y

数字向量、分类向量、逻辑向量、字符数组或字符向量的单元格数组。每行Y表示相应行的分类X

目标函数

紧凑的 紧凑分类集成
比较控股 使用新数据比较两个分类模型的准确性
克罗斯瓦尔 交叉验证合奏
分类边缘
聚集 收集属性统计和机器学习工具箱来自GPU的对象
石灰 局部可解释模型不可知解释(LIME)
损失 分类错误
利润 分类的利润率
部分依赖 计算部分依赖
plotPartialDependence 创建部分依赖图(PDP)和单个条件期望图(ICE)
预测 使用分类模型集成对观测值进行分类
预测重要性 决策树分类集成中预测器重要性的估计
再沉积 通过重新替换对边缘进行分类
恢复 重新替换导致的分类错误
resubMargin 通过重新替换的分类边距
再预测 分类在分类模型的集合中的观察
简历 恢复训练合奏
夏普利 福利价值观
testckfold. 通过重复的交叉验证比较两个分类模型的精度

复制语义

要了解值类如何影响复制操作,请参阅复制对象

例子

全部崩溃

加载电离层数据集。

负载电离层

使用所有的测量值和adaboostm1.方法。

Mdl = fitcensemble (X, Y,'方法',“AdaBoostM1”)
mdl = classificationsemble racatectename:'y'pationoricalpricictors:[] classnames:{'b'g'} scoreTransform:'none'numobservations:351 numtromed:100方法:'adaboostm1'学员:{'树'}原理:'正常终止完成所要求的培训周期后。fitinfo:[100x1 double] fitinfodescription:{2x1 cell}属性,方法

Mdl是A.ClassificationEnsemble模型对象。

Mdl.训练有素是存储经过训练的分类树的100×1单元向量的属性(CompactClassificationTree.组成集合的模型对象。

绘制第一个训练的分类树的图。

视图(Mdl.Trained{1},“模式”,'图形')

地物分类树查看器包含轴对象和uimenu、uicontrol类型的其他对象。Axis对象包含36个类型为line、text的对象。

默认情况下,fitcensemble.为树木的增强集合增长浅树。

预测均值的标签X

predmeanx =预测(mdl,均值(x))
predmeanx =1 x1单元阵列{' g '}

提示

对于分类树的集合训练有素性质恩斯存储一个ens.NumTrained-1 Compact分类模型的1个细胞矢量。用于树的文本或图形显示T在单元向量中,输入:

  • 查看(ens.tromed {T}.Compact(学习者)对于使用LogitBoost或GentleBoost聚合的集成。

  • 查看(ens.tromed {T})对于所有其他聚合方法。

扩展能力

在R2011a中引入