主要内容

このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。

CompactClassificationEnsemble

パッケージ:classreg.learning.classif

コンパクトなアンサンブル分類のクラス

説明

コンパクトなバージョンのアンサンブル分類(クラスはClassificationEnsemble)。コンパクトなバージョンには,アンサンブル分類の学習のためのデータが含まれません。そのため,コンパクトなアンサンブル分類では,交差検証などの一部のタスクを実行できません。コンパクトなアンサンブル分類は,新しいデータの予測(分類)を行うために使用してください。

構築

实体=紧凑(fullEnsは,完全な決定アンサンブルからコンパクトな決定アンサンブルを構築します。

入力引数

fullEns

fitcensembleによって作成されたアンサンブル分類。

プロパティ

CategoricalPredictors

カテゴリカル予測子のインデックス。正の整数のベクトルを指定します。CategoricalPredictorsには,カテゴリカル予測子が含まれている予測子データの列に対応するインデックス値を格納します。どの予測子もカテゴリカルではない場合,このプロパティは空([])になります。

一会

重複が削除されたYの要素のリスト。一会には,数値ベクトル,カテゴリカル変数のベクトル,逻辑ベクトル,文字配列,文字ベクトルの细胞配列のいずれかを指定できます。一会は,引数Yのデータと同じデータ型です。(字符串配列は文字ベクトルの细胞配列として扱われます)。

CombineWeights

实体による弱学習器の重みの結合法を説明する文字ベクトル。“WeightedSum”または“WeightedAverage”のどちらかになります。

成本

正方行列。成本(i, j)は真のクラスがである点をクラスjに分類するコストです(行は真のクラス,列は予測したクラスに対応します)。成本の行と列の順序は,一会のクラスの順序に対応します。成本の行および列の数は,応答に含まれている一意なクラスの数です。このプロパティは読み取り専用です。

ExpandedPredictorNames

展開された予測子名。文字ベクトルの细胞配列として格納されます。

モデルがカテゴリカル変数用のエンコーディングを使用している場合,ExpandedPredictorNamesには展開された変数を表す名前が格納されます。それ以外の場合,ExpandedPredictorNamesPredictorNamesと同じです。

NumTrained

实体の学習済みの弱学習器の数,スカラー。

PredictorNames

予測子変数の名前の细胞配列。並びはXに現れる順です。

之前

各クラスの事前確率の数値ベクトル。之前の要素の順序は,一会のクラスの順序に対応します。之前の要素数は,応答に含まれている一意なクラスの数です。このプロパティは読み取り専用です。

ResponseName

応答変数Yの名前をもつ文字ベクトル。

ScoreTransform

スコア変換用の関数ハンドル,または組み込みの変換関数を表す文字ベクトル。“没有”は変換なしを意味します。等価的には,“没有”@ x (x)です。組み込みの変換関数のリストとカスタム変換関数の構文は,fitctreeを参照してください。

ドット表記を使用して関数ScoreTransformを追加または変更します。

ens.ScoreTransform =“函数”

または

ens.ScoreTransform = @function

训练有素的

学習済み分類モデルの细胞ベクトル。

  • 方法“LogitBoost”または“GentleBoost”の場合,CompactClassificationEnsemble训练有素的{jに格納されているオブジェクトのCompactRegressionLearnerプロパティに学習済みの学習器jを格納します。つまり,学習済み学習器jにアクセスするには,ens.Trained {j}.CompactRegressionLearnerを使用します。

  • それ以外の場合,対応するコンパクトな分類モデルが细胞ベクトルのセルに格納されます。

TrainedWeights

实体の弱学習器のための学習済み重みを表す数値ベクトル。TrainedWeightsにはT個の要素があり,T学习者の弱学習器の数を表します。

UsePredForLearner

サイズPNumTrained列の逻辑行列であり,ここで,Pは学習データXの予測子(列)の数です。UsePredForLearner (i, j)は,学習器jが予測子を使用するときに真正的になり,それ以外の場合はになります。それぞれの学習器に対して,予測子は学習データXの列と同じ順序になります。

アンサンブルが子空间型ではない場合,UsePredForLearner内のすべてのエントリは真正的です。

オブジェクト関数

compareHoldout 新しいデータを使用して2つの分類モデルの精度を比較
边缘 分類エッジ
石灰 本地可解释模型不可知解释(LIME)
损失 分類誤差
保证金 分類マージン
partialDependence 部分従属の計算
plotPartialDependence 部分依存プロット(PDP)および個別条件付き期待値(ICE)プロットの作成
预测 分類モデルのアンサンブルを使用して観測値を分類
predictorImportance 決定木の分類アンサンブルに関する予測子の重要度の推定
removeLearners コンパクトアンサンブル分類のメンバーの削除
沙普利 シャープレイ値

コピーのセマンティクス

値。値のクラスがコピー操作に与える影響については,オブジェクトのコピーを参照してください。

すべて折りたたむ

新しいデータの予測を効率的にするため,コンパクトなアンサンブル分類を作成します。

电离层データセットを読み込みます。

负载电离层

すべての測定値とAdaBoostM1メソッドを使用して,100本の分類木があるブースティングアンサンブルに学習をさせます。

Mdl = fitcensemble (X, Y,“方法”“AdaBoostM1”
Mdl = ClassificationEnsemble ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'b' ' 'g'} ScoreTransform: 'none' NumObservations: 351 NumTrained: 100 Method: 'AdaBoostM1' LearnerNames: {'Tree'} ReasonForTermination: '在完成请求的训练周期数后正常终止。'FitInfo描述:{2x1 cell}属性,方法

Mdlは,学習データも含まれているClassificationEnsembleモデルオブジェクトです。

コンパクトなバージョンのMdlを作成します。

CMdl =紧凑(Mdl)
CMdl = CompactClassificationEnsemble ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'b' ' 'g'} ScoreTransform: 'none' NumTrained: 100属性,方法

CMdlCompactClassificationEnsembleモデルオブジェクトです。CMdlMdlとほとんど同じです。1つ違う点は,CMdlには学習データが格納されないということです。

MdlCMdlの領域消費量を比較します。

mdlInfo =谁(“Mdl”);cMdlInfo =谁(“CMdl”);[mdlInfo。字节cMdlInfo.bytes]
ans =1×2878146 631686

MdlCMdlより多くの領域を消費します。

CMdl。Trainedには,Mdlを構成する学習済み分類木(CompactClassificationTreeモデルオブジェクト)が格納されています。

コンパクトなアンサンブルの1番目の木のグラフを表示します。

视图(CMdl。训练有素的{1},“模式”“图”);

图分类树查看器包含一个轴和其他类型的uimenu, uicontrol对象。轴包含36个类型为line, text的对象。

既定の設定では,fitcensembleは木のブースティングアンサンブルに対して浅い木を成長させます。

コンパクトなアンサンブルを使用して,Xの平均のラベルを予測します。

predMeanX =预测(CMdl,意味着(X))
predMeanX =1 x1单元阵列{' g '}

ヒント

分類木のアンサンブルの場合,コンパクトな分類モデルから成るens.NumTrained行1列の细胞ベクトルが实体训练有素的プロパティに格納されます。细胞ベクトルの木tをテキストまたはグラフィックで表示するには,以下を入力します。

  • LogitBoostまたはGentleBoostを使用して集約したアンサンブルの場合は”视图(实体。训练有素的{t} .CompactRegressionLearner)」。

  • 他のすべての集約方法の場合は”视图(实体。训练有素的{t})」。

拡張機能

R2011aで導入