主要内容gydF4y2Ba

このペ,ジの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。gydF4y2Ba

fitcecocgydF4y2Ba

サポ,トベクタ,マシンまたはその他の分類器向けのマルチクラスモデルの近似gydF4y2Ba

説明gydF4y2Ba

MdlgydF4y2Ba= fitcecoc (gydF4y2Ba资源描述gydF4y2Ba,gydF4y2BaResponseVarNamegydF4y2Ba)gydF4y2Baは,テ,ブルgydF4y2Ba资源描述gydF4y2Ba内の予測子とgydF4y2Ba资源描述。ResponseVarNamegydF4y2Ba内のクラスラベルを使用して,学習済みの完全なマルチクラスgydF4y2Ba誤り訂正出力符号(ecoc)モデルgydF4y2Baを返します。gydF4y2BafitcecocgydF4y2Baは1対1のgydF4y2Ba符号化設計gydF4y2BaによりK (K - 1) / 2個のバイナリサポートベクターマシン(SVM)モデルを使用します。Kは一意なクラスラベル(レベル)の数です。gydF4y2BaMdlgydF4y2BaはgydF4y2BaClassificationECOCgydF4y2Baモデルです。gydF4y2Ba

MdlgydF4y2Ba= fitcecoc (gydF4y2Ba资源描述gydF4y2Ba,gydF4y2Ba公式gydF4y2Ba)gydF4y2Baは,テ,ブルgydF4y2Ba资源描述gydF4y2Ba内の予測子とクラスラベルを使用してecocモデルを返します。gydF4y2Ba公式gydF4y2Baは,学習に使用する応答およびgydF4y2Ba资源描述gydF4y2Ba内の予測子変数サブセットの説明モデルです。gydF4y2Ba

MdlgydF4y2Ba= fitcecoc (gydF4y2Ba资源描述gydF4y2Ba,gydF4y2BaYgydF4y2Ba)gydF4y2Baは,テ,ブルgydF4y2Ba资源描述gydF4y2Baの予測子とベクトルgydF4y2BaYgydF4y2Baのクラスラベルを使用してecocモデルを返します。gydF4y2Ba

例gydF4y2Ba

MdlgydF4y2Ba= fitcecoc (gydF4y2BaXgydF4y2Ba,gydF4y2BaYgydF4y2Ba)gydF4y2Baは,予測子gydF4y2BaXgydF4y2BaとクラスラベルgydF4y2BaYgydF4y2Baを使用して学習をさせたecocモデルを返します。gydF4y2Ba

例gydF4y2Ba

MdlgydF4y2Ba= fitcecoc (gydF4y2Ba___gydF4y2Ba,gydF4y2Ba名称,值gydF4y2Ba)gydF4y2Baは,前の構文のいずれかを使用し,1以上のgydF4y2Ba名称,值gydF4y2Baペア引数で指定されたオプションを追加してecocモデルを返します。gydF4y2Ba

たとえば,異なるバ▪▪▪▪ナリ学習器,異なる符号化設計,または交差検証の実行を指定します。gydF4y2Ba名称,值gydF4y2Baペア引数gydF4y2BaKfoldgydF4y2Baを使用して交差検証を実行することをお勧めします。交差検証の結果により、モデルがどの程度一般化を行うかを判断します。

[gydF4y2BaMdlgydF4y2Ba,gydF4y2BaHyperparameterOptimizationResultsgydF4y2Ba= fitcecocgydF4y2Ba___gydF4y2Ba,gydF4y2Ba名称,值gydF4y2Ba)gydF4y2Baは,名前と値のペアの引数gydF4y2BaOptimizeHyperparametersgydF4y2Baを指定して線形またはカーネルバイナリ学習器を使用する場合に,ハイパーパラメーター最適化の詳細も返します。他のgydF4y2Ba学习者gydF4y2Baの場合,gydF4y2BaMdlgydF4y2BaのgydF4y2BaHyperparameterOptimizationResultsgydF4y2Baプロパティには結果が格納されます。gydF4y2Ba

例gydF4y2Ba

すべて折りたたむgydF4y2Ba

サポートベクターマシン(SVM)バイナリ学習器を使用して,マルチクラス誤り訂正出力符号(ECOC)モデルに学習をさせます。gydF4y2Ba

フィッシャ,のアヤメのデ,タセットを読み込みます。予測子デ,タgydF4y2BaXgydF4y2Baと応答デ,タgydF4y2BaYgydF4y2Baを指定します。gydF4y2Ba

负载gydF4y2BafisheririsgydF4y2BaX = meas;Y =物种;gydF4y2Ba

既定のオプションを使用して,マルチクラスecocモデルに学習をさせます。gydF4y2Ba

Mdl = fitcecoc(X,Y)gydF4y2Ba
Mdl = ClassificationECOC ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'setosa' 'versicolor' 'virginica'} ScoreTransform: 'none' BinaryLearners: {3x1 cell} CodingName: 'onevsone'属性,方法gydF4y2Ba

MdlgydF4y2BaはgydF4y2BaClassificationECOCgydF4y2Baモデルです。既定では,gydF4y2BafitcecocgydF4y2BaはSVMバescナリ学習器および1対1符号化設計を使用します。ドット表記を使用してgydF4y2BaMdlgydF4y2Baプロパティにアクセスできます。gydF4y2Ba

クラス名および符号化設計行列を表示します。gydF4y2Ba

Mdl。Cl一个年代年代的名字年代gydF4y2Ba
ans =gydF4y2Ba3 x1细胞gydF4y2Ba{'setosa'} {'versicolor'} {'virginica'}gydF4y2Ba
编码垫= Mdl。CodingMatrixgydF4y2Ba
CodingMat =gydF4y2Ba3×3gydF4y2Ba1 1 0 -1 0 0 -1 -1gydF4y2Ba

3。gydF4y2BaCodingMatgydF4y2Baの列は学習器に,行はクラスに対応します。クラスの順序はgydF4y2BaMdl。Cl一个年代年代的名字年代gydF4y2Ba内の順序と同じです。たとえば,gydF4y2BaCodingMat (: 1)gydF4y2BaはgydF4y2Ba(1;1;0]gydF4y2Baであり,gydF4y2Ba“setosa”gydF4y2BaまたはgydF4y2Ba“多色的”gydF4y2Baとして分類されるすべての観測値を使用して最初のSVMバescナリ学習器が学習を行うことを示します。gydF4y2Ba“setosa”gydF4y2BaはgydF4y2Ba1gydF4y2Baに対応するので陽性クラスであり,gydF4y2Ba“多色的”gydF4y2BaはgydF4y2Ba1gydF4y2Baに対応するので陰性クラスです。gydF4y2Ba

各バ▪▪ナリ学習器にセルの▪▪ンデックス付けおよびドット表記を使用してアクセスすることができます。gydF4y2Ba

Mdl。BinaryLearners {1}gydF4y2Ba第一个二元学习者gydF4y2Ba
ans = CompactClassificationSVM ResponseName: 'Y' CategoricalPredictors: [] ClassNames: [-1 1] ScoreTransform: 'none' Beta: [4x1 double]偏差:1.4492 KernelParameters: [1x1 struct]属性,方法gydF4y2Ba

再代入分類誤差を計算します。gydF4y2Ba

error = resubLoss(Mdl)gydF4y2Ba
误差= 0.0067gydF4y2Ba

学習デ,タに対する分類誤差は小さくなっていますが,分類器が過適合モデルになる可能性があります。代わりに,gydF4y2BacrossvalgydF4y2Baを使用して分類器を交差検証し,交差検証分類誤差を計算することができます。gydF4y2Ba

複数のバesc escモデルに学習をさせます。gydF4y2Ba

NLPのデ,タセットを読み込みます。gydF4y2Ba

负载gydF4y2BanlpdatagydF4y2Ba

XgydF4y2Baは予測子デ,タのスパ,ス行列,gydF4y2BaYgydF4y2Baはクラスラベルの分类ベクトルです。デタには2を超えるクラスがあります。gydF4y2Ba

既定の線形分類モデルテンプレ,トを作成します。gydF4y2Ba

t = templatlinear ();gydF4y2Ba

既定値を調整する方法にいては,gydF4y2BatemplateLineargydF4y2Baのペ,ジのgydF4y2Ba名前と値のペアの引数gydF4y2Baを参照してください。gydF4y2Ba

複数のバesc escモデルに学習をさせます。これらの分類モデルは,ドキュメンテーションWebページにおける単語の度数分布から製品を特定できます。学習時間を短縮するため,予測子デ,タを転置し,観測値が列に対応することを指定します。gydF4y2Ba

X = X';rng (1);gydF4y2Ba%用于再现性gydF4y2BaMdl = fitcecoc(X,Y,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“ObservationsIn”gydF4y2Ba,gydF4y2Ba“列”gydF4y2Ba)gydF4y2Ba
Mdl = CompactClassificationECOC ResponseName: 'Y' ClassNames: [1x13 categorical] ScoreTransform: 'none' BinaryLearners: {78x1 cell} CodingMatrix: [13x78 double]属性,方法gydF4y2Ba

または,gydF4y2Ba“学习者”,“线性”gydF4y2Baを使用して,既定の線形分類モデルから構成されているecocモデルに学習をさせることができます。gydF4y2Ba

メモリを節約するため,gydF4y2BafitcecocgydF4y2Baは線形分類学習器から構成されている学習済みのecocモデルをgydF4y2BaCompactClassificationECOCgydF4y2Baモデルオブジェクトで返します。gydF4y2Ba

支持向量机バesc escナリ学習器によるecoc分類器を交差検証し,一般化分類誤差を推定します。gydF4y2Ba

フィッシャ,のアヤメのデ,タセットを読み込みます。予測子デ,タgydF4y2BaXgydF4y2Baと応答デ,タgydF4y2BaYgydF4y2Baを指定します。gydF4y2Ba

负载gydF4y2BafisheririsgydF4y2BaX = meas;Y =物种;rng (1);gydF4y2Ba%用于再现性gydF4y2Ba

SVMテンプレ,トを作成し,予測子を標準化します。gydF4y2Ba

t = templateSVM(gydF4y2Ba“标准化”gydF4y2Ba,真正的)gydF4y2Ba
t =拟合分类支持向量机模板。Alpha: [0x1 double] BoxConstraint: [] CacheSize: [] CachingMethod: " ClipAlphas: [] DeltaGradientTolerance: [] Epsilon: [] GapTolerance: [] kkttolance: [] IterationLimit: [] KernelFunction: " KernelScale: [] KernelOffset: [] kernelpoliialorder: [] NumPrint: [] Nu: [] OutlierFraction: [] removeduplicate: [] ShrinkagePeriod: [] Solver: " StandardizeData: 1 SaveSupportVe万博1manbetxctors: [] VerbosityLevel: [] Version: 2 Method: 'SVM' Type: 'classification'gydF4y2Ba

tgydF4y2BaはSVMテンプレ,トです。テンプレ,トオブジェクトのプロパティは、ほとんとが空です。ECOC 分類器に学習をさせると、該当するプロパティが既定値に設定されます。

Ecoc分類器に学習をさせ,クラスの順序を指定します。gydF4y2Ba

Mdl = fitcecoc(X,Y,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba...gydF4y2Ba“类名”gydF4y2Ba, {gydF4y2Ba“setosa”gydF4y2Ba,gydF4y2Ba“多色的”gydF4y2Ba,gydF4y2Ba“virginica”gydF4y2Ba});gydF4y2Ba

MdlgydF4y2BaはgydF4y2BaClassificationECOCgydF4y2Ba分類器です。ドット表記を使用してプロパティにアクセスできます。gydF4y2Ba

10分割交差検証を使用してgydF4y2BaMdlgydF4y2Baを交差検証します。gydF4y2Ba

CVMdl = crossval(Mdl);gydF4y2Ba

CVMdlgydF4y2BaはgydF4y2BaClassificationPartitionedECOCgydF4y2Ba交差検証ecoc分類器です。gydF4y2Ba

一般化分類誤差を推定します。gydF4y2Ba

genError = kfoldLoss(cvdl)gydF4y2Ba
genError = 0.0400gydF4y2Ba

一般化分類誤差が4%なので,ecoc分類器がかなり良好に一般化を行うことがわかります。gydF4y2Ba

支持向量机バesc escナリ学習器を使用してecoc分類器に学習をさせます。はじめに,学習標本のラベルとクラス事後確率を予測します。次に,グリッド内の各点における最大のクラス事後確率を予測します。結果を可視化します。gydF4y2Ba

フィッシャ,のアヤメのデ,タセットを読み込みます。予測子として花弁の寸法を,応答として種の名前を指定します。gydF4y2Ba

负载gydF4y2BafisheririsgydF4y2BaX = meas(:,3:4);Y =物种;rng (1);gydF4y2Ba%用于再现性gydF4y2Ba

支持向量机テンプレ,トを作成します。予測子を標準化し,ガウスカ,ネルを指定します。gydF4y2Ba

t = templateSVM(gydF4y2Ba“标准化”gydF4y2Ba,真的,gydF4y2Ba“KernelFunction”gydF4y2Ba,gydF4y2Ba“高斯”gydF4y2Ba);gydF4y2Ba

tgydF4y2BaはSVMテンプレ,トです。ほとんどのプロパティは空です。Ecoc分類器を学習させると,適用可能なプロパティが既定値に設定されます。gydF4y2Ba

SVMテンプレ,トを使用してecoc分類器を学習させます。gydF4y2Ba“FitPosterior”gydF4y2Ba名前と値のペアの引数を使用して分類スコアをクラス事後確率(gydF4y2Ba预测gydF4y2BaまたはgydF4y2BaresubPredictgydF4y2Baにより返されます)へ変換します。名前と値のペアの引数gydF4y2Ba“类名”gydF4y2Baを使用して,クラスの順序を指定します。名前と値のペアの引数gydF4y2Ba“详细”gydF4y2Baを使用して,学習中に診断メッセ,ジを表示します。gydF4y2Ba

Mdl = fitcecoc(X,Y,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“FitPosterior”gydF4y2Ba,真的,gydF4y2Ba...gydF4y2Ba“类名”gydF4y2Ba, {gydF4y2Ba“setosa”gydF4y2Ba,gydF4y2Ba“多色的”gydF4y2Ba,gydF4y2Ba“virginica”gydF4y2Ba},gydF4y2Ba...gydF4y2Ba“详细”gydF4y2Ba2);gydF4y2Ba
用50个消极和50个积极的观察来训练二元学习者1 (SVM)。负类指标:2正类指标:1拟合学习者1的后验概率(SVM)。用50个消极和50个积极的观察来训练二元学习者2 (SVM)。负类指标:3正类指标:1拟合学习者2的后验概率(SVM)。用50个消极和50个积极的观察来训练二元学习者3 (SVM)。负类指标:3正类指标:2拟合学习者3的后验概率(SVM)。gydF4y2Ba

MdlgydF4y2BaはgydF4y2BaClassificationECOCgydF4y2Baモデルです。同じSVMテンプレートが各バイナリ学習器に適用されますが,テンプレートの细胞ベクトルを渡すことで各バイナリ学習器のオプションを調整できます。gydF4y2Ba

学習標本のラベルとクラス事後確率を予測します。名前と値のペアの引数gydF4y2Ba“详细”gydF4y2Baを使用して,ラベルとクラス事後確率の計算中に診断メッセ,ジを表示します。gydF4y2Ba

[label,~,~,Posterior] = resubPredict(Mdl,gydF4y2Ba“详细”gydF4y2Ba1);gydF4y2Ba
所有学习者的预测都经过计算。已计算了所有观测值的损失。计算后验概率……gydF4y2Ba
Mdl。BinaryLossgydF4y2Ba
Ans = '二次元'gydF4y2Ba

バ@ @ナリ損失の平均が最小となるクラスに観測が割り当てられます。すべてのバイナリ学習器が事後確率を計算しているので、バイナリ損失関数は二次gydF4y2Baになります。gydF4y2Ba

無作為な結果の集合を表示します。gydF4y2Ba

idx = randsample(size(X,1),10,1);Mdl。Cl一个年代年代的名字年代gydF4y2Ba
ans =gydF4y2Ba3 x1细胞gydF4y2Ba{'setosa'} {'versicolor'} {'virginica'}gydF4y2Ba
表(Y (idx)、标签(idx)、后(idx:)gydF4y2Ba...gydF4y2Ba“VariableNames”gydF4y2Ba, {gydF4y2Ba“TrueLabel”gydF4y2Ba,gydF4y2Ba“PredLabel”gydF4y2Ba,gydF4y2Ba“后”gydF4y2Ba})gydF4y2Ba
ans =gydF4y2Ba10×3表gydF4y2BaTrueLabel PredLabel后路____________________________ ______________________________________ {'virginica'} {'virginica'} 0.0039322 0.003987 0.99208 {'virginica'} 0.017067 0.018263 0.96467 {'virginica'} 0.014948 0.015856 0.9692 {' vericolor '} {' vericolor '} 0.02197e -14 0.87318 0.12682 {' settosa '} {' settosa '} 0.999 0.00025092 0.00074638 {'versicolor'} 2.2195e-14 0.05943 0.94057 {'versicolor'} {'versicolor'} 2.2194e-14 0.97001 0.029985 {' settosa '}} {'setosa' } 0.999 0.00024991 0.0007474 {'versicolor'} {'versicolor'} 0.0085642 0.98259 0.0088487 {'setosa' } {'setosa' } 0.999 0.00025013 0.00074717

后gydF4y2Baの列はgydF4y2BaMdl。Cl一个年代年代的名字年代gydF4y2Baのクラスの順序に対応します。gydF4y2Ba

観測された予測子領域の値のグリッドを定義します。グリッド内の各@ @ンスタンスの事後確率を予測します。gydF4y2Ba

xMax = max(X);xMin = min(X);x1Pts = linspace(xMin(1),xMax(1));x2Pts = linspace(xMin(2),xMax(2));[x1Grid,x2Grid] = meshgrid(x1Pts,x2Pts);[~, ~, ~, PosteriorRegion] =预测(Mdl, [x1Grid (:), x2Grid (:)));gydF4y2Ba

各グリッドの座標では,クラス間の最大クラス事後確率をプロットします。gydF4y2Ba

contourf (x1Grid x2Grid,gydF4y2Ba...gydF4y2Ba重塑(max (PosteriorRegion[], 2),大小(x1Grid, 1),大小(x1Grid, 2)));H = colorbar;h.YLabel.String =gydF4y2Ba最大后验的gydF4y2Ba;h.YLabel.FontSize = 15;持有gydF4y2Ba在gydF4y2Bagh = gscatter(X(:,1),X(:,2),Y,gydF4y2Ba“krk”gydF4y2Ba,gydF4y2Ba‘* xd‘gydF4y2Ba8);gh(2)。l我neWidth = 2; gh(3).LineWidth = 2; title(“虹膜花瓣测量和最大后部”gydF4y2Ba)包含(gydF4y2Ba“花瓣长度(厘米)”gydF4y2Ba) ylabel (gydF4y2Ba“花瓣宽度(厘米)”gydF4y2Ba)轴gydF4y2Ba紧gydF4y2Ba传奇(gh,gydF4y2Ba“位置”gydF4y2Ba,gydF4y2Ba“西北”gydF4y2Ba)举行gydF4y2Ba从gydF4y2Ba

图中包含一个轴。标题为“虹膜花瓣测量”和“最大后验”的轴包含4个对象的类型轮廓线、线条。这些物品代表了setosa, versicolica, virgica。gydF4y2Ba

代理分岐をも決定木のgydF4y2BaGentleBoostgydF4y2Baアンサンブルを使用して,1対他のecoc分類器に学習をさせます。学習を高速化するため,数値予測子をビン化し,並列計算を使用します。ビン化は,gydF4y2BafitcecocgydF4y2Baが木学習器を使用する場合のみ有効です。学習後,10分割交差検証を使用して分類誤差を推定します。並列計算には并行计算工具箱™ が必要であることに注意してください。

標本デ,タの読み込みgydF4y2Ba

心律失常gydF4y2Baデ,タセットを読み込み検証します。gydF4y2Ba

负载gydF4y2Ba心律失常gydF4y2Ba[n,p] = size(X)gydF4y2Ba
N = 452gydF4y2Ba
P = 279gydF4y2Ba
isLabels =唯一的(Y);nLabels = number (isLabels)gydF4y2Ba
nLabels = 13gydF4y2Ba
汇总(分类(Y))gydF4y2Ba
数值计数百分比1 245 54.20% 2 44 9.73% 3 15 3.32% 4 15 3.32% 5 13 2.88% 6 25 5.53% 73 0.66% 8 2 0.44% 99 1.99% 10 50 11.06% 14 4 0.88% 15 5 1.11% 16 22 4.87%gydF4y2Ba

このデ,タセットにはgydF4y2Ba279gydF4y2Ba個の予測子が含まれ,gydF4y2Ba452gydF4y2Baという標本サ@ @ズは相対的に小さいものです。16個の異なるラベルのうち、13 個のみが応答 (YgydF4y2Ba)で表現されています。各ラベルは不整脈のさまざまな段階を表しており,観測値の54.20%がクラスgydF4y2Ba1gydF4y2Baに含まれています。gydF4y2Ba

1対他ecoc分類器の学習gydF4y2Ba

アンサンブルテンプレ,トを作成します。少なくとも3の引数を指定しなければなりません。手法,学習器の数,および学習器のタesc escプです。この例では,手法としてgydF4y2Ba“GentleBoost”gydF4y2Ba,学習器の個数としてgydF4y2BaOne hundred.gydF4y2Baを指定します。欠損観測値があるので,代理分岐を使用する決定木テンプレ,トを指定します。gydF4y2Ba

树= templateTree(gydF4y2Ba“代孕”gydF4y2Ba,gydF4y2Ba“上”gydF4y2Ba);tEnsemble =模板集成(gydF4y2Ba“GentleBoost”gydF4y2Ba, 100年,tTree);gydF4y2Ba

tEnsemblegydF4y2Baはテンプレ,トオブジェクトです。ほとんどのプロパティは空ですが,学習中に既定値が入力されます。gydF4y2Ba

決定木のアンサンブルをバesc escナリ学習器として使用して,1対他のesc分類器を学習させます。学習を高速化するため,ビン化と並列計算を使用します。gydF4y2Ba

  • ビン化(gydF4y2Ba“NumBins”,50岁gydF4y2Ba) -学習デ,タセットが大きい場合,名前と値のペアの引数gydF4y2Ba“NumBins”gydF4y2Baを使用することにより学習を高速化できます(精度が低下する可能性があります)。この引数は,gydF4y2BafitcecocgydF4y2Baが木学習器を使用する場合のみ有効です。gydF4y2Ba“NumBins”gydF4y2Baの値を指定した場合,指定した個数の同確率のビンにすべての数値予測子がビン化され,元のデータではなくビンのインデックスに対して木が成長します。はじめにgydF4y2Ba“NumBins”,50岁gydF4y2Baを試してから,精度と学習速度に応じてgydF4y2Ba“NumBins”gydF4y2Baの値を変更できます。gydF4y2Ba

  • 並列計算 (gydF4y2Ba“选项”,statset (UseParallel,真的)gydF4y2Ba)——并行计算工具箱のライセンスがある場合,プール内のワーカーに各バイナリ学習器を送る並列計算を使用して,計算を高速化できます。ワ,カ,の個数はシステム構成によって異なります。デュアルコア以上のシステムの場合,バ化学键ナリ学習器に化学键いて決定木を使用すると,gydF4y2BafitcecocgydF4y2Baは英特尔®スレッディングビルディングブロック(TBB)を使用して学習を並列化します。したがって,単一のコンピュ,タ,でgydF4y2Ba“UseParallel”gydF4y2Baオプションを指定しても役に立ません。このオプションは,クラスタ,に対して使用します。gydF4y2Ba

さらに,事前確率として1/gydF4y2BaKgydF4y2Baを指定します。gydF4y2BaKgydF4y2Ba= 13は異なるクラスの個数です。gydF4y2Ba

选项= statset(gydF4y2Ba“UseParallel”gydF4y2Ba,真正的);Mdl = fitcecoc(X,Y,gydF4y2Ba“编码”gydF4y2Ba,gydF4y2Ba“onevsall”gydF4y2Ba,gydF4y2Ba“学习者”gydF4y2BatEnsemble,gydF4y2Ba...gydF4y2Ba“之前”gydF4y2Ba,gydF4y2Ba“统一”gydF4y2Ba,gydF4y2Ba“NumBins”gydF4y2Ba, 50岁,gydF4y2Ba“选项”gydF4y2Ba、选择);gydF4y2Ba
使用“本地”配置文件启动并行池(parpool)…连接到并行池(工人数:6)。gydF4y2Ba

MdlgydF4y2BaはgydF4y2BaClassificationECOCgydF4y2Baモデルです。gydF4y2Ba

交差検証gydF4y2Ba

10分割交差検証を使用してecoc分類器の交差検証を実行します。gydF4y2Ba

CVMdl = crossval(Mdl,gydF4y2Ba“选项”gydF4y2Ba、选择);gydF4y2Ba
警告:一个或多个折叠不包含所有组中的点。gydF4y2Ba

CVMdlgydF4y2BaはgydF4y2BaClassificationPartitionedECOCgydF4y2Baモデルです。少なくとも1。したがって,これらの分割は欠損クラスに対するラベルを予測できません。细胞のインデックス指定とドット表記を使用して、分割の結果を調査できます。たとえば、1 番目の分割の結果にアクセスするにはCVMdl。训练有素的{1}gydF4y2Baと入力します。gydF4y2Ba

交差検証済みのecoc分類器を使用して,検証分割のラベルを予測します。混同行列は,gydF4y2BaconfusionchartgydF4y2Baを使用して計算できます。内側の位置のプロパティを変更してチャートを移動およびサイズ変更することにより,行要約の内部にパーセントが表示されるようにします。gydF4y2Ba

oolabel = kfoldPredict(cvdl,gydF4y2Ba“选项”gydF4y2Ba、选择);ConfMat =混淆表(Y, oolabel,gydF4y2Ba“RowSummary”gydF4y2Ba,gydF4y2Ba“total-normalized”gydF4y2Ba);ConfMat。InnerPosition = [0.10 0.12 0.85 0.85];gydF4y2Ba

ビン化されたデ,タの再現gydF4y2Ba

学習済みモデルのgydF4y2BaBinEdgesgydF4y2Baプロパティと関数gydF4y2Ba离散化gydF4y2Baを使用して,ビン化された予測子デ,タを再現します。gydF4y2Ba

X = Mdl.X;gydF4y2Ba预测数据gydF4y2BaXbinned = 0(大小(X));edges = mld . binedges;gydF4y2Ba查找已分类预测符的索引。gydF4y2BaidxNumeric = find(~cellfun(@isempty,edges));gydF4y2Ba如果gydF4y2Baiscolumn(idxNumeric) idxNumeric = idxNumeric';gydF4y2Ba结束gydF4y2Ba为gydF4y2Baj = idxNumeric x = x (:,j);gydF4y2Ba如果x是一个表,则将x转换为数组。gydF4y2Ba如果gydF4y2Bastable(x) x = table2array(x);gydF4y2Ba结束gydF4y2Ba使用离散化函数将x分组到箱子中。gydF4y2BaXbinned =离散化(x,[-inf;边缘{};正]);Xbinned(:,j) = Xbinned;gydF4y2Ba结束gydF4y2Ba

数値予測子の場合,1からビンの個数までの範囲にあるビンのンデックスがgydF4y2BaXbinnedgydF4y2Baに格納されます。カテゴリカル予測子の場合,gydF4y2BaXbinnedgydF4y2Baの値はgydF4y2Ba0gydF4y2Baになります。gydF4y2BaXgydF4y2BaにgydF4y2Ba南gydF4y2Baが含まれている場合,対応するgydF4y2BaXbinnedgydF4y2Baの値はgydF4y2Ba南gydF4y2Baになります。gydF4y2Ba

fitcecocgydF4y2Baを使用してハパパラメタを自動的に最適化します。gydF4y2Ba

fisheririsgydF4y2Baデ,タセットを読み込みます。gydF4y2Ba

负载gydF4y2BafisheririsgydF4y2BaX = meas;Y =物种;gydF4y2Ba

自動的なハイパーパラメーター最適化を使用して,5分割交差検証損失を最小化するハイパーパラメーターを求めます。再現性を得るために,乱数シ,ドを設定し,gydF4y2Ba“expected-improvement-plus”gydF4y2Baの獲得関数を使用します。gydF4y2Ba

rnggydF4y2Ba默认的gydF4y2BaMdl = fitcecoc(X,Y,gydF4y2Ba“OptimizeHyperparameters”gydF4y2Ba,gydF4y2Ba“汽车”gydF4y2Ba,gydF4y2Ba...gydF4y2Ba“HyperparameterOptimizationOptions”gydF4y2Ba结构(gydF4y2Ba“AcquisitionFunctionName”gydF4y2Ba,gydF4y2Ba...gydF4y2Ba“expected-improvement-plus”gydF4y2Ba))gydF4y2Ba
|====================================================================================================================| | Iter | Eval客观客观| | | BestSoFar | BestSoFar编码| | BoxConstraint | KernelScale | | |结果| |运行时| | (estim(观察) .) | | | | |====================================================================================================================| | 最好1 | | 0.10667 | 1.3163 | 0.10667 | 0.10667 | onevsone | 5.6939 | 200.36 | | 2 | | 0.066667 |最好3.9662 | 0.066667 | 0.068735 | onevsone | 94.849 | 0.0032549 | | 3 |接受| 0.08 | 0.50659 | 0.066667 | 0.066837 | onevsall | 0.01378 | 0.076021 | | 4 |接受| 0.08 | 0.30295 | 0.066667 | 0.066676 | onevsall | 889 | 38.798 | | 5 |的| 0.04 | 0.58191 | 0.04 | 0.040502 | onevsone | 0.021561 | 0.01569 | | 6 |接受| 0.04 | 0.4138 | 0.04 | 0.039999 | onevsone | 0.48338 | 0.02941 | | | 7日接受| 0.04 | 0.5356 | 0.04 | 0.039989 | onevsone | 305.45 | 0.18647 | | 8 | | 0.026667 | 0.31692最好| 0.026667 | 0.026674 | onevsone | 0.0010168 | 0.10757 | | | 9日接受| 0.086667 | 0.29572 | 0.026667 | 0.026669 | onevsone | 0.001007 | 0.3275 | | 10 |接受| 0.046667 | 1.4134 | 0.026667 | 0.026673 | onevsone | 736.18 | 0.071026 | | | 11日接受| 0.04 | 0.41881 | 0.026667 | 0.035679 | onevsone | 35.928 | 0.13079 | | | 12日接受| 0.033333 | 0.39881 | 0.026667 | 0.030065 | onevsone | 0.0017593 | 0.11245 | | | 13日接受| 0.026667 | 0.39924 | 0.026667 | 0.026544 | onevsone | 0.0011306 |0.062222 | | | 14日接受| 0.026667 | 0.43605 | 0.026667 | 0.026089 | onevsone | 0.0011124 | 0.079161 | | 15 |接受| 0.026667 | 0.39881 | 0.026667 | 0.026184 | onevsone | 0.0014395 | 0.073096 | | 16最好| | 0.02 | 0.29162 | 0.02 | 0.021144 | onevsone | 0.0010299 | 0.035054 | | | 17日接受| 0.02 | 0.42839 | 0.02 | 0.020431 | onevsone | 0.0010379 | 0.03138 | | | 18日接受| 0.033333 | 0.23036 | 0.02 | 0.024292 | onevsone | 0.0011889 | 0.02915 | | | 19日接受| 0.02 | 0.36524 | 0.02 | 0.022327|在evsone | 0.0011336 | 0.042445 | | 20 | Best | 0.013333 | 0.49901 | 0.013333 | 0.020178 | onevsone | 0.0010854 | 0.048345 | |====================================================================================================================| | Iter | Eval | Objective | Objective | BestSoFar | BestSoFar | Coding | BoxConstraint| KernelScale | | | result | | runtime | (observed) | (estim.) | | | | |====================================================================================================================| | 21 | Accept | 0.5 | 14.111 | 0.013333 | 0.020718 | onevsall | 689.42 | 0.001007 | | 22 | Accept | 0.33333 | 0.36073 | 0.013333 | 0.018299 | onevsall | 0.0011091 | 1.2155 | | 23 | Accept | 0.33333 | 0.44029 | 0.013333 | 0.017851 | onevsall | 529.11 | 372.18 | | 24 | Accept | 0.04 | 0.20552 | 0.013333 | 0.017879 | onevsone | 853.41 | 22.141 | | 25 | Accept | 0.046667 | 0.25857 | 0.013333 | 0.018114 | onevsone | 744.03 | 6.3339 | | 26 | Accept | 0.10667 | 0.31018 | 0.013333 | 0.018226 | onevsone | 0.0010775 | 999.54 | | 27 | Accept | 0.04 | 0.24562 | 0.013333 | 0.018557 | onevsone | 0.0020893 | 0.001005 | | 28 | Accept | 0.10667 | 0.30717 | 0.013333 | 0.019634 | onevsone | 0.0010666 | 12.404 | | 29 | Accept | 0.32 | 13.537 | 0.013333 | 0.018352 | onevsall | 951.6 | 0.027202 | | 30 | Accept | 0.04 | 0.34911 | 0.013333 | 0.018597 | onevsone | 936.87 | 1.7813 |

图中包含一个轴。标题为Min目标vs.函数计算数量的轴包含2个类型为line的对象。这些对象代表最小观测目标,估计最小目标。gydF4y2Ba

__________________________________________________________ 优化完成。最大目标达到30个。总函数评估:30总运行时间:71.2792秒总目标函数评估时间:43.6404最佳观测可行点:Coding BoxConstraint KernelScale ________ _____________ ___________ onevsone 0.0010854 0.048345观测目标函数值= 0.013333估计目标函数值= 0.018594函数评估时间= 0.49901最佳估计可行点(根据模型):编码BoxConstraint KernelScale ________ _____________ ___________ onevsone 0.0011336 0.042445估计目标函数值= 0.018597估计函数评估时间= 0.36279gydF4y2Ba
Mdl = ClassificationECOC ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'setosa' 'versicolor' 'virginica'} ScoreTransform: 'none' BinaryLearners: {3x1 cell} CodingName: 'onevsone' HyperparameterOptimizationResults: [1x1 BayesianOptimization]属性,方法gydF4y2Ba

tallデ,タに対して学習をさせた2のマルチクラスECOCモデルを作成します。一方のモデルに対して線形バ▪▪ナリ学習器を,もう一方に対してカ▪▪ネルバ▪▪ナリ学習器を使用します。2のモデルの再代入分類誤差を比較します。gydF4y2Ba

一般に,高デ,タのマルチクラス分類は,gydF4y2BafitcecocgydF4y2Baと線形バ▪▪ナリ学習器またはカ▪▪ネルバ▪▪ナリ学習器を使用して実行できます。gydF4y2BafitcecocgydF4y2Baを使用して高配列に対してモデルに学習をさせる場合,SVMバイナリ学習器を直接使用することはできません。しかし,支持向量机を使用する線形バナリ分類モデルは使用できます。gydF4y2Ba

高配列に対する計算を実行する場合,MATLAB®は並列プール(并行计算工具箱™がある場合は既定)またはローカルのMATLABセッションを使用します。并行计算工具箱がある場合でもローカルのMATLABセッションを使用して例を実行するには,関数gydF4y2BamapreducegydF4y2Baを使用してグロ,バルな実行環境を変更できます。gydF4y2Ba

フィッシャ,のアヤメのデ,タセットが含まれているフォルダ,を参照するデ,タストアを作成します。gydF4y2Ba数据存储gydF4y2BaによってgydF4y2Ba南gydF4y2Ba値に置き換えられるようにするため,gydF4y2Ba“NA”gydF4y2Ba値を欠損デ,タとして指定します。t一个llバージョンの予測子および応答データを作成します。

数据存储(gydF4y2Ba“fisheriris.csv”gydF4y2Ba,gydF4y2Ba“TreatAsMissing”gydF4y2Ba,gydF4y2Ba“NA”gydF4y2Ba);T =高(ds);gydF4y2Ba
使用“本地”配置文件启动并行池(parpool)…连接到并行池(工人数:6)。gydF4y2Ba
X = [t]。年代epalLength t.SepalWidth t.PetalLength t.PetalWidth]; Y = t.Species;

予測子デ,タを標準化します。gydF4y2Ba

Z = zscore(X);gydF4y2Ba

tallデタと線形バナリ学習器を使用するマルチクラスECOCモデルに学習をさせます。既定では,高配列をgydF4y2BafitcecocgydF4y2Baに渡すと,支持向量机を使用する線形バescナリ学習器の学習が行われます。応答データに含まれている一意なクラスは3つだけなので,符号化方式を1対他(高データを使用する場合の既定)から対1(インメモリデータを使用する場合の既定)に変更します。gydF4y2Ba

再現性を得るため,gydF4y2BarnggydF4y2BaとgydF4y2BatallrnggydF4y2Baを使用して乱数発生器のシ,ドを設定します。高配列の場合,ワーカーの個数と実行環境によって結果が異なる可能性があります。詳細については、コ,ドの実行場所の制御gydF4y2Baを参照してください。gydF4y2Ba

rng (gydF4y2Ba“默认”gydF4y2Ba) tallrng (gydF4y2Ba“默认”gydF4y2Ba) mdlLinear = fitcecoc(Z,Y,gydF4y2Ba“编码”gydF4y2Ba,gydF4y2Ba“onevsone”gydF4y2Ba)gydF4y2Ba
训练二进制学习者1(线性)从3。训练二进制学习者2(线性)从3。训练二进制学习者3(线性)中的3。gydF4y2Ba
mdlLinear = CompactClassificationECOC ResponseName: 'Y' ClassNames: {'setosa' 'versicolor' 'virginica'} ScoreTransform: 'none' BinaryLearners: {3×1 cell} CodingMatrix: [3×3 double]属性,方法gydF4y2Ba

mdlLineargydF4y2Baは,3のバナリ学習器から構成されるgydF4y2BaCompactClassificationECOCgydF4y2Baモデルです。gydF4y2Ba

高データとカーネルバイナリ学習器を使用するマルチクラスECOCモデルに学習をさせます。はじめに,gydF4y2BatemplateKernelgydF4y2Baオブジェクトを作成して,カ,ネルバ,ナリ学習器のプロパティを指定します。具体的には,拡張次元数をgydF4y2Ba 2gydF4y2Ba 1gydF4y2Ba 6gydF4y2Ba に増やします。gydF4y2Ba

tKernel = templateKernel(gydF4y2Ba“NumExpansionDimensions”gydF4y2Ba2 ^ 16)gydF4y2Ba
tKernel =适合分类内核的模板。BetaTolerance: [] BlockSize: [] BoxConstraint: [] Epsilon: [] NumExpansionDimensions: 65536 GradientTolerance: [] HessianHistorySize: [] IterationLimit: [] KernelScale: [] Lambda: [] Learner: 'svm' LossFunction: [] Stream: [] VerbosityLevel: [] Version: 1 Method: 'Kernel' Type: 'classification'gydF4y2Ba

既定では,カ,ネルバナリ学習器は支持向量机を使用します。gydF4y2Ba

templateKernelgydF4y2BaオブジェクトをgydF4y2BafitcecocgydF4y2Baに渡し,符号化方式を1対1に変更します。gydF4y2Ba

mdlKernel = fitcecoc(Z,Y,gydF4y2Ba“学习者”gydF4y2BatKernel,gydF4y2Ba“编码”gydF4y2Ba,gydF4y2Ba“onevsone”gydF4y2Ba)gydF4y2Ba
训练二进制学习者1(内核)从3。训练二进制学习者2(内核)从3。训练二进制学习器3(内核)从3。gydF4y2Ba
mdlKernel = CompactClassificationECOC ResponseName: 'Y' ClassNames: {'setosa' 'versicolor' 'virginica'} ScoreTransform: 'none' BinaryLearners: {3×1 cell} CodingMatrix: [3×3 double]属性,方法gydF4y2Ba

mdlKernelgydF4y2Baも,3のバナリ学習器から構成されるgydF4y2BaCompactClassificationECOCgydF4y2Baモデルです。gydF4y2Ba

2のモデルの再代入分類誤差を比較します。gydF4y2Ba

errorLinear =收集(丢失(mdlLinear,Z,Y))gydF4y2Ba
使用并行池“本地”评估tall表达式:-通过1 / 1:在1.4秒内完成评估,在1.6秒内完成gydF4y2Ba
errorLinear = 0.0333gydF4y2Ba
errorKernel =收集(mdlKernel,Z,Y))gydF4y2Ba
使用并行池“本地”评估tall表达式:-通过1 / 1:在15秒内完成评估,在16秒内完成gydF4y2Ba
errorKernel = 0.0067gydF4y2Ba

mdlKernelgydF4y2Baが誤分類した学習デ,タの比率は,gydF4y2BamdlLineargydF4y2Baより少なくなっています。gydF4y2Ba

入力引数gydF4y2Ba

すべて折りたたむgydF4y2Ba

標本デ,タ。テブルとして指定します。资源描述gydF4y2Baの各行は1の観測値に,各列は1。オプションとして,gydF4y2Ba资源描述gydF4y2Baに応答変数用の列を1追加できます。文字ベクトルのcell配列ではない cell 配列と複数列の変数は使用できません。

资源描述gydF4y2Baに応答変数が含まれている場合にgydF4y2Ba资源描述gydF4y2Ba内の他の変数をすべて予測子として使用するには,gydF4y2BaResponseVarNamegydF4y2Baを使用して応答変数を指定します。gydF4y2Ba

资源描述gydF4y2Baに応答変数が含まれている場合にgydF4y2Ba资源描述gydF4y2Ba内の他の変数の一部のみを予測子として使用するには,gydF4y2Ba公式gydF4y2Baを使用して式を指定します。gydF4y2Ba

资源描述gydF4y2Baに応答変数が含まれていない場合は,gydF4y2BaYgydF4y2Baを使用して応答変数を指定します。応答変数の長さとgydF4y2Ba资源描述gydF4y2Baの行数は同じでなければなりません。gydF4y2Ba

デ,タ型:gydF4y2Ba表格gydF4y2Ba

応答変数の名前。gydF4y2Ba资源描述gydF4y2Ba内の変数の名前で指定します。gydF4y2Ba

ResponseVarNamegydF4y2Baには文字ベクトルまたは字符串スカラ,を指定しなければなりません。たとえば,応答変数gydF4y2BaYgydF4y2BaがgydF4y2Ba资源描述。YgydF4y2Baとして格納されている場合,gydF4y2Ba“Y”gydF4y2Baとして指定します。それ以外の場合,モデルを学習させるときに,gydF4y2Ba资源描述gydF4y2Baの列はgydF4y2BaYgydF4y2Baを含めてすべて予測子として扱われます。gydF4y2Ba

応答変数は,绝对配列,文字配列,字符串配列,逻辑ベクトル,数値ベクトル,または文字ベクトルの细胞配列でなければなりません。gydF4y2BaYgydF4y2Baが文字配列である場合,応答変数の各要素は配列の1の行に対応しなければなりません。gydF4y2Ba

名前と値の引数gydF4y2Ba一会gydF4y2Baを使用してクラスの順序を指定することをお勧めします。gydF4y2Ba

デ,タ型:gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba

応答変数および予測子変数サブセットの説明モデル。gydF4y2Ba“Y ~ x1 + x2 + x3”gydF4y2Baという形式の文字ベクトルまたは字符串スカラ,を指定します。この形式では,gydF4y2BaYgydF4y2Baは応答変数を,gydF4y2Bax1gydF4y2Ba、gydF4y2Bax2gydF4y2BaおよびgydF4y2Bax3gydF4y2Baは予測子変数を表します。gydF4y2Ba

モデルに学習をさせるための予測子としてgydF4y2Ba资源描述gydF4y2Ba内の変数のサブセットを指定するには,式を使用します。式を指定した場合,gydF4y2Ba公式gydF4y2Baに現れないgydF4y2Ba资源描述gydF4y2Ba内の変数は使用されません。gydF4y2Ba

式の変数名はgydF4y2Ba资源描述gydF4y2Baの変数名(gydF4y2BaTbl.Properties.VariableNamesgydF4y2Ba)であり,有効なmatlabgydF4y2Ba®gydF4y2Ba識別子でなければなりません。関数gydF4y2BaisvarnamegydF4y2Baを使用してgydF4y2Ba资源描述gydF4y2Baの変数名を検証できます。変数名が有効でない場合、関数matlab.lang.makeValidNamegydF4y2Baを使用してそれらを変換できます。gydF4y2Ba

デ,タ型:gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba

Ecocモデルに学習させるクラスラベル。分类配列、文字配列、年代tring 配列、logical ベクトル、数値ベクトル、または文字ベクトルの cell 配列を指定します。

YgydF4y2Baが文字配列の場合,各要素は配列の1の行に対応しなければなりません。gydF4y2Ba

YgydF4y2Baの長さとgydF4y2Ba资源描述gydF4y2BaまたはgydF4y2BaXgydF4y2Baの行数は,同じでなければなりません。gydF4y2Ba

一会gydF4y2Ba名前と値のペアの引数を使用したクラスの順序を指定することをお勧めします。gydF4y2Ba

デ,タ型:gydF4y2Ba分类gydF4y2Ba|gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba|gydF4y2Ba逻辑gydF4y2Ba|gydF4y2Ba单gydF4y2Ba|gydF4y2Ba双gydF4y2Ba|gydF4y2Ba细胞gydF4y2Ba

予測子デ,タ。非スパ,ス行列またはスパ,ス行列を指定します。

YgydF4y2Baの長さとgydF4y2BaXgydF4y2Baの観測値数は同じでなければなりません。gydF4y2Ba

予測子の名前をgydF4y2BaXgydF4y2Baに表示される順序で指定するには,gydF4y2BaPredictorNamesgydF4y2Ba名前と値のペアの引数を使用します。gydF4y2Ba

メモgydF4y2Ba

  • 線形分類学習器の場合,観測値が列に対応するようにgydF4y2BaXgydF4y2Baを配置してgydF4y2Ba“ObservationsIn”、“列”gydF4y2Baを指定すると,最適化実行時間が大幅に短縮される可能性があります。gydF4y2Ba

  • 他のすべての学習器では,観測値が行に対応するようにgydF4y2BaXgydF4y2Baを配置します。gydF4y2Ba

  • fitcecocgydF4y2Baは,線形分類モデルの学習のみにいてスパス行列をサポトします。gydF4y2Ba

デ,タ型:gydF4y2Ba双gydF4y2Ba|gydF4y2Ba单gydF4y2Ba

メモgydF4y2Ba

南gydF4y2Ba,空の文字ベクトル(gydF4y2Ba”gydF4y2Ba),空のstring (gydF4y2Ba""gydF4y2Ba)、gydF4y2Ba< >失踪gydF4y2BaおよびgydF4y2Ba<定义>gydF4y2Ba要素は欠損デ,タとして扱われます。gydF4y2BaYgydF4y2Baの欠損値に対応する行gydF4y2BaXgydF4y2Baは削除されます。ただし,gydF4y2BaXgydF4y2Baの欠損値の処理はバ@ @ナリ学習器によって異なります。詳細にいては,バナリ学習器の学習関数gydF4y2BafitcdiscrgydF4y2Ba、gydF4y2BafitckernelgydF4y2Ba、gydF4y2BafitcknngydF4y2Ba、gydF4y2BafitclineargydF4y2Ba、gydF4y2BafitcnbgydF4y2Ba、gydF4y2BafitcsvmgydF4y2Ba、gydF4y2BafitctreegydF4y2BaまたはgydF4y2BafitcensemblegydF4y2Baを参照してください。観測の削除により,有効な学習や交差検証の標本サ。gydF4y2Ba

名前と値のペアの引数gydF4y2Ba

オプションのgydF4y2Ba名称,值gydF4y2Ba引数のコンマ区切りペアを指定します。gydF4y2Ba的名字gydF4y2Baは引数名で,gydF4y2Ba价值gydF4y2Baは対応する値です。gydF4y2Ba的名字gydF4y2Baは引用符で囲まなければなりません。gydF4y2BaName1, Value1,…,的家gydF4y2Baのように,複数の名前と値のペアの引数を,任意の順番で指定できます。gydF4y2Ba

例:gydF4y2Ba“学习者”,“树”、“编码”,“onevsone”、“CrossVal”,“上”gydF4y2Baは,すべてのバイナリ学習器について決定木を使用し,対1の符号化設計を使用し,10分割の交差検証を実装することを指定します。gydF4y2Ba

メモgydF4y2Ba

交差検証の名前と値のペアの引数を名前と値のペアの引数gydF4y2Ba“OptimizeHyperparameters”gydF4y2Baと同時に使用することはできません。gydF4y2Ba“OptimizeHyperparameters”gydF4y2Baの場合の交差検証は,名前と値のペアの引数gydF4y2Ba“HyperparameterOptimizationOptions”gydF4y2Baを使用することのみによって変更できます。gydF4y2Ba

Ecoc分類器オプションgydF4y2Ba

すべて折りたたむgydF4y2Ba

符号化設計名。gydF4y2Ba“编码”gydF4y2Baと数値行列または次の表の値から構成されるコンマ区切りのペアとして指定します。gydF4y2Ba

値gydF4y2Ba バ@ @ナリ学習器の数gydF4y2Ba 説明gydF4y2Ba
“allpairs”gydF4y2BaおよびgydF4y2Ba“onevsone”gydF4y2Ba K(K - 1)/2gydF4y2Ba 各バ▪▪ナリ学習器では,1▪▪のクラスが正であり,もう1▪▪のクラスは負です。残りは無視されます。この計画はすべてのクラスペアの割り当ての組み合わせを使用します。gydF4y2Ba
“binarycomplete”gydF4y2Ba 2gydF4y2Ba (gydF4y2Ba KgydF4y2Ba −gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba この計画はクラスをすべて2の組み合わせに分割します。いずれのクラスも無視されません。各バesc escナリ学習器で,すべてのクラス割り当てがgydF4y2Ba-1gydF4y2BaとgydF4y2Ba1gydF4y2Baになります。陽性クラスと陰性クラスが少なくとも1ず。gydF4y2Ba
“denserandom”gydF4y2Ba ランダム。ただし,約 10 log2gydF4y2BaKgydF4y2Ba 各バ▪▪ナリ学習器には,陽性または陰性クラス(少なくとも各1▪▪)が無作為に割り当てられます。詳細は,gydF4y2Baランダム符号化設計行列gydF4y2Baを参照してください。gydF4y2Ba
“onevsall”gydF4y2Ba KgydF4y2Ba 各バ▪▪ナリ学習器では,1▪▪のクラスは正で残りは負です。この計画は陽性クラス割り当てのすべての組み合わせを使用します。gydF4y2Ba
“顺序”gydF4y2Ba K - 1gydF4y2Ba 最初のバ▪▪▪▪ナリ学習器では,最初のクラスは負であり,残りは正です。2番目のバイナリ学習器では、初めの 2 つのクラスが負になり、残りが正になります。3 番目以降も同様です。
“sparserandom”gydF4y2Ba ランダム。ただし,約 15 log2gydF4y2BaKgydF4y2Ba 各バイナリ学習器では,各クラスに確率0.25で正または負が無作為に割り当てられ,確率0.5がの場合にクラスが無視されます。詳細は,gydF4y2Baランダム符号化設計行列gydF4y2Baを参照してください。gydF4y2Ba
“ternarycomplete”gydF4y2Ba (gydF4y2Ba 3.gydF4y2Ba KgydF4y2Ba −gydF4y2Ba 2gydF4y2Ba (gydF4y2Ba KgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba /gydF4y2Ba 2gydF4y2Ba この計画はクラスをすべて3の組み合わせに分割します。すべてのクラス割り当てがgydF4y2Ba0gydF4y2Ba、gydF4y2Ba-1gydF4y2BaおよびgydF4y2Ba1gydF4y2Baになります。陽性クラスと陰性クラスが少なくとも1ず。gydF4y2Ba

符号化設計をカスタムコ,ディング行列を使用して指定できます。カスタム符号化行列はk行l列の行列です。各行はクラスに対応し,各列はバ。クラス順(行)はgydF4y2Ba一会gydF4y2Baでの順序に対応します。以下のガ▪▪ドラ▪▪ンに従って行列を作成します。gydF4y2Ba

  • カスタムコ,ディング行列は,すべての要素がgydF4y2Ba-1gydF4y2Ba、gydF4y2Ba0gydF4y2BaまたはgydF4y2Ba1gydF4y2Baでなければなりません。また,値は二分法によるクラス割り当てに対応しなければなりません。この表は编码(i, j)gydF4y2Baの意味を説明します。まり,学習器gydF4y2BajgydF4y2BaがクラスgydF4y2Ba我gydF4y2Baの観測値に割り当てるクラスです。gydF4y2Ba

    値gydF4y2Ba 二分法によるクラス割り当てgydF4y2Ba
    1gydF4y2Ba 学習器gydF4y2BajgydF4y2Baは,クラスgydF4y2Ba我gydF4y2Baの観測値を陰性クラスに割り当てます。gydF4y2Ba
    0gydF4y2Ba 学習の前に,学習器gydF4y2BajgydF4y2BaはクラスgydF4y2Ba我gydF4y2Baの観測値をデ,タセットから削除します。gydF4y2Ba
    1gydF4y2Ba 学習器gydF4y2BajgydF4y2Baは,クラスgydF4y2Ba我gydF4y2Baの観測値を陽性クラスに割り当てます。gydF4y2Ba

  • すべての列には少なくとも1のgydF4y2Ba-1gydF4y2BaまたはgydF4y2Ba1gydF4y2Baがなければなりません。gydF4y2Ba

  • 我gydF4y2Ba≠gydF4y2BajgydF4y2Baとなるすべての列@ @ンデックスgydF4y2Ba我gydF4y2BaおよびgydF4y2BajgydF4y2Baに対して,gydF4y2Ba编码(:,我)gydF4y2BaはgydF4y2Ba编码(:,j)gydF4y2Baに等しくなることができず,gydF4y2Ba编码(:,我)gydF4y2BaはgydF4y2Ba编码(:,j)gydF4y2Baに等しくなることができません。gydF4y2Ba

  • カスタムコ,ディング行列のすべての行は異なっていなければなりません。gydF4y2Ba

カスタム符号化設計行列の形式の詳細にいては,gydF4y2Baカスタム符号化設計行列gydF4y2Baを参照してください。gydF4y2Ba

例:gydF4y2Ba“编码”、“ternarycomplete”gydF4y2Ba

デ,タ型:gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba|gydF4y2Ba双gydF4y2Ba|gydF4y2Ba单gydF4y2Ba|gydF4y2Baint16gydF4y2Ba|gydF4y2Baint32gydF4y2Ba|gydF4y2Baint64gydF4y2Ba|gydF4y2Baint8gydF4y2Ba

スコアを変換して事後確率にするかどうかを示すフラグ。gydF4y2Ba“FitPosterior”gydF4y2BaおよびgydF4y2Ba真正的gydF4y2Ba(gydF4y2Ba1gydF4y2Ba)またはgydF4y2Ba假gydF4y2Ba(gydF4y2Ba0gydF4y2Ba)で構成されるコンマ区切りのペアで指定します。gydF4y2Ba

FitPosteriorgydF4y2BaがgydF4y2Ba真正的gydF4y2Baの場合,バ。事後確率は,gydF4y2BakfoldPredictgydF4y2Ba、gydF4y2Ba预测gydF4y2BaまたはgydF4y2BaresubPredictgydF4y2Baを使用して取得できます。gydF4y2Ba

以下の場合,gydF4y2BafitcecocgydF4y2Baは事後確率のあてはめをサポ,トしません。gydF4y2Ba

  • アンサンブル法がgydF4y2BaAdaBoostM2gydF4y2Ba、gydF4y2BaLPBoostgydF4y2Ba、gydF4y2BaRUSBoostgydF4y2Ba、gydF4y2BaRobustBoostgydF4y2BaまたはgydF4y2BaTotalBoostgydF4y2Baである。gydF4y2Ba

  • バescナリ学習器(gydF4y2Ba学习者gydF4y2Ba)が,支持向量机を実装する線形分類モデルまたはカ,ネル分類モデルである。線形分類モデルまたはカーネル分類モデルの事後確率を得るには、代わりにロジスティック回帰を実装してください。

例:gydF4y2Ba“FitPosterior”,真的gydF4y2Ba

デ,タ型:gydF4y2Ba逻辑gydF4y2Ba

バ▪▪ナリ学習器テンプレ▪▪ト。gydF4y2Ba“学习者”gydF4y2Baと文字ベクトル,弦スカラー,テンプレートオブジェクト,またはテンプレートオブジェクトの细胞ベクトルから構成されるコンマ区切りのペアとして指定します。特に,svmなどのバ,支持向量机ナリ学習器と,gydF4y2BaGentleBoostgydF4y2Ba、gydF4y2BaLogitBoostgydF4y2BaおよびgydF4y2BaRobustBoostgydF4y2Baを使用するアンサンブルを指定すると,マルチクラス問題の解を求めることができます。ただし,gydF4y2BafitcecocgydF4y2Baもバ▪▪ナリ分類器としてマルチクラスモデルをサポ▪▪トしています。gydF4y2Ba

  • 学习者gydF4y2Baが文字ベクトルまたは字符串スカラーである場合,指定されたアルゴリズムの既定値を使用して各バイナリ学習器の学習が行なわれます。次の表は,使用可能なアルゴリズムをまとめたものです。gydF4y2Ba

    値gydF4y2Ba 説明gydF4y2Ba
    “判别”gydF4y2Ba 判別分析。既定のオプションにいては,gydF4y2BatemplateDiscriminantgydF4y2Baを参照してください。gydF4y2Ba
    “内核”gydF4y2Ba カ,ネル分類モデル。既定のオプションにいては,gydF4y2BatemplateKernelgydF4y2Baを参照してください。gydF4y2Ba
    “资讯”gydF4y2Ba K最近傍。既定のオプションにいては,gydF4y2BatemplateKNNgydF4y2Baを参照してください。gydF4y2Ba
    “线性”gydF4y2Ba 線形分類モデル。既定のオプションにいては,gydF4y2BatemplateLineargydF4y2Baを参照してください。gydF4y2Ba
    “naivebayes”gydF4y2Ba 単純ベ@ @ズ。既定のオプションにいては,gydF4y2BatemplateNaiveBayesgydF4y2Baを参照してください。gydF4y2Ba
    “支持向量机”gydF4y2Ba 支持向量机。既定のオプションにいては,gydF4y2BatemplateSVMgydF4y2Baを参照してください。gydF4y2Ba
    “树”gydF4y2Ba 分類木。既定のオプションにいては,gydF4y2BatemplateTreegydF4y2Baを参照してください。gydF4y2Ba

  • 学习者gydF4y2Baがテンプレトオブジェクトの場合,各バナリ学習器は格納されているオプションに従って学習します。テンプレ,トオブジェクトは以下を使用して作成できます。gydF4y2Ba

  • 学习者gydF4y2Baがテンプレ,トオブジェクトの单元格ベクトルである場合,以下のようになります。gydF4y2Ba

    • セルjは,バjナリ学習器j(符号化設計行列のj列目)に対応します。细胞ベクトルの長さはLでなければなりません。Lは,符号化設計行列の列数です。詳細にいては,gydF4y2Ba编码gydF4y2Baを参照してください。gydF4y2Ba

    • 予測に組み込み損失関数のいずれかを使用するには,すべてのバイナリ学習器は同じ範囲のスコアを返さなくてはなりません。たとえば,既定の支持向量机バ。前者は(-∞,∞)の範囲にあるスコアを,後者はスコアとして事後確率を返します。それ以外の場合は,カスタム損失を関数ハンドルとして関数gydF4y2Ba预测gydF4y2BaやgydF4y2Ba损失gydF4y2Baなどに指定しなくてはなりません。gydF4y2Ba

    • 線形分類モデル学習器のテンプレ,トを他のテンプレ,トとともに指定することはできません。gydF4y2Ba

    • 同様に,カ,ネル分類モデル学習器のテンプレ,トを他のテンプレ,トとともに指定することはできません。gydF4y2Ba

既定では,既定の支持向量机テンプレ,トが学習器の学習に使用されます。gydF4y2Ba

例:gydF4y2Ba“学习者”,“树”gydF4y2Ba

数値予測子のビンの個数。gydF4y2Ba“NumBins”gydF4y2Baと正の整数スカラ,から構成されるコンマ区切りのペアとして指定します。この引数は,gydF4y2BafitcecocgydF4y2Baが木学習器を使用する場合,化学式まり,gydF4y2Ba“学习者”gydF4y2BaがgydF4y2Ba“树”gydF4y2Ba、gydF4y2BatemplateTreegydF4y2Baを使用して作成したテンプレ,トオブジェクト,またはgydF4y2BatemplateEnsemblegydF4y2Baと木弱学習器を使用して作成したテンプレ,トオブジェクトである場合のみ有効です。gydF4y2Ba

  • “NumBins”gydF4y2Baの値が空(既定)である場合,gydF4y2BafitcecocgydF4y2Baはどの予測子もビン化しません。gydF4y2Ba

  • “NumBins”gydF4y2Baの値として正の整数スカラ(gydF4y2BanumBinsgydF4y2Ba)を指定した場合,gydF4y2BafitcecocgydF4y2Baは最大gydF4y2BanumBinsgydF4y2Ba個の同確率のビンにすべての数値予測子をビン化し,元のデータではなくビンのインデックスに対して木が成長します。gydF4y2Ba

    • 予測子に含まれる一意の値がgydF4y2BanumBinsgydF4y2Baより少なければ,ビンの数をgydF4y2BanumBinsgydF4y2Baより少なくすることができます。gydF4y2Ba

    • fitcecocgydF4y2Baは,カテゴリカル予測子をビン化しません。gydF4y2Ba

大規模な学習データセットを使用する場合,このビン化オプションを使用すると学習を高速化できますが,精度が低下する可能性があります。はじめにgydF4y2Ba“NumBins”,50岁gydF4y2Baを試してから,精度と学習速度に応じて値を変更できます。gydF4y2Ba

学習済みのモデルでは,ビンのエッジはgydF4y2BaBinEdgesgydF4y2Baプロパティに格納されます。gydF4y2Ba

例:gydF4y2Ba“NumBins”,50岁gydF4y2Ba

デ,タ型:gydF4y2Ba单gydF4y2Ba|gydF4y2Ba双gydF4y2Ba

同時に学習をさせるバ@ @ナリ学習器の個数。gydF4y2Ba“NumConcurrent”gydF4y2Baと正の整数スカラ,から構成されるコンマ区切りのペアとして指定します。既定値は,gydF4y2BafitcecocgydF4y2Baが逐次的にバ@ @ナリ学習器に学習をさせることを意味するgydF4y2Ba1gydF4y2Baです。gydF4y2Ba

メモgydF4y2Ba

このオプションは,高配列に対してgydF4y2BafitcecocgydF4y2Baを使用する場合のみ適用されます。詳細は,gydF4y2Ba高配列gydF4y2Baを参照してください。gydF4y2Ba

デ,タ型:gydF4y2Ba单gydF4y2Ba|gydF4y2Ba双gydF4y2Ba

予測子デ,タにおける観測値の次元。gydF4y2Ba“ObservationsIn”gydF4y2BaとgydF4y2Ba“列”gydF4y2BaまたはgydF4y2Ba“行”gydF4y2Baから構成されるコンマ区切りのペアとして指定します。gydF4y2Ba

メモgydF4y2Ba

  • 線形分類学習器の場合,観測値が列に対応するようにgydF4y2BaXgydF4y2Baを配置してgydF4y2Ba“ObservationsIn”、“列”gydF4y2Baを指定すると,最適化実行時間が大幅に短縮される可能性があります。gydF4y2Ba

  • 他のすべての学習器では,観測値が行に対応するようにgydF4y2BaXgydF4y2Baを配置します。gydF4y2Ba

例:gydF4y2Ba“ObservationsIn”、“列”gydF4y2Ba

詳細レベル。gydF4y2Ba“详细”gydF4y2BaおよびgydF4y2Ba0gydF4y2Ba、gydF4y2Ba1gydF4y2BaまたはgydF4y2Ba2gydF4y2Baのいずれかで構成されるコンマ区切りのペアとして指定します。gydF4y2Ba详细的gydF4y2Baにより,コマンドウィンドウに表示されるバ。gydF4y2Ba

次の表は,使用できる詳細レベルオプションの一覧です。gydF4y2Ba

値gydF4y2Ba 説明gydF4y2Ba
0gydF4y2Ba 診断情報は表示されません。gydF4y2Ba
1gydF4y2Ba 新しいバ▪▪ナリ学習器を学習させるたびに診断メッセ▪▪ジが表示されます。gydF4y2Ba
2gydF4y2Ba 新しいバ▪▪ナリ学習器を学習させるたびに追加の診断メッセ▪▪ジが表示されます。gydF4y2Ba

各バesc escナリ学習器には,この名前と値のペアの引数とは無関係な独自の詳細レベルがあります。バナリ学習器の詳細レベルを変更するには,テンプレトオブジェクトを作成し,名前と値のペアの引数gydF4y2Ba“详细”gydF4y2Baを指定します。その後,名前と値のペアの引数gydF4y2Ba“学习者”gydF4y2Baを使用してテンプレ,トオブジェクトをgydF4y2BafitcecocgydF4y2Baに渡します。gydF4y2Ba

例:gydF4y2Ba“详细”,1gydF4y2Ba

デ,タ型:gydF4y2Ba双gydF4y2Ba|gydF4y2Ba单gydF4y2Ba

交差検証オプションgydF4y2Ba

すべて折りたたむgydF4y2Ba

交差検証分類器を学習させるためのフラグ。gydF4y2Ba“Crossval”gydF4y2BaとgydF4y2Ba“上”gydF4y2BaまたはgydF4y2Ba“关闭”gydF4y2Baで構成されるコンマ区切りのペアとして指定します。gydF4y2Ba

“上”gydF4y2Baを指定すると,10の分割を使用して交差検証分類器の学習が実行されます。gydF4y2Ba

CVPartitiongydF4y2Ba、gydF4y2Ba坚持gydF4y2Ba、gydF4y2BaKFoldgydF4y2BaまたはgydF4y2BaLeaveoutgydF4y2Ba名前と値のペアの引数のいずれかを使用してこの交差検証の設定をオバラドできます。交差検証済みモデルを作成するときに使用できる交差検証の名前と値のペアの引数は、一度に 1 つだけです。

または,後でgydF4y2BaMdlgydF4y2BaをgydF4y2BacrossvalgydF4y2Baに渡して交差検証を実行します。gydF4y2Ba

例:gydF4y2Ba“Crossval”,“上”gydF4y2Ba

交差検証分割。gydF4y2BacvpartitiongydF4y2Baで作成したgydF4y2BacvpartitiongydF4y2Ba分割オブジェクトとして指定します。分割オブジェクトは,交差検証のタイプと、学習セットおよび検証セットのインデックス付けを指定します。

交差検証済みモデルの作成で指定できる名前と値の引数は,gydF4y2BaCVPartitiongydF4y2Ba、gydF4y2Ba坚持gydF4y2Ba、gydF4y2BaKFoldgydF4y2Ba、gydF4y2BaLeaveoutgydF4y2Baの4。gydF4y2Ba

例:gydF4y2Bacvp = cvpartition(500,'KFold',5)gydF4y2Baを使用して,500個の観測値に対する5分割交差検証にいて無作為な分割を作成するとします。この場合,gydF4y2Ba“CVPartition”,本量利gydF4y2Baを使用して交差検証済みモデルを指定できます。gydF4y2Ba

ホ,ルドアウト検証に使用されるデ,タの比率.(0,1)の範囲のスカラ,値として指定します. (0,1)gydF4y2Ba‘坚持’,pgydF4y2Baを指定した場合,以下の手順が実行されます。gydF4y2Ba

  1. p * 100gydF4y2Ba%のデ,タを無作為に選択して検証デ,タとして確保し,残りのデ,タを使用してモデルに学習をさせる。gydF4y2Ba

  2. コンパクトな学習済みモデルを交差検証済みモデルのgydF4y2Ba训练有素的gydF4y2Baプロパティに格納する。gydF4y2Ba

交差検証済みモデルの作成で指定できる名前と値の引数は,gydF4y2BaCVPartitiongydF4y2Ba、gydF4y2Ba坚持gydF4y2Ba、gydF4y2BaKFoldgydF4y2Ba、gydF4y2BaLeaveoutgydF4y2Baの4。gydF4y2Ba

例:gydF4y2Ba“坚持”,0.1gydF4y2Ba

デ,タ型:gydF4y2Ba双gydF4y2Ba|gydF4y2Ba单gydF4y2Ba

交差検証済みモデルで使用する分割の数。1より大きい正の整数値として指定します。gydF4y2BaKFold, kgydF4y2Baを指定した場合,以下の手順が実行されます。gydF4y2Ba

  1. デ,タを無作為にgydF4y2BakgydF4y2Ba個のセットに分割する。gydF4y2Ba

  2. 各セットにいて,そのセットを検定デタとして確保し,他のgydF4y2BakgydF4y2Ba- 1gydF4y2Ba個のセットを使用してモデルに学習をさせる。gydF4y2Ba

  3. kgydF4y2Ba個のコンパクトな学習済みモデルを,交差検証済みモデルのgydF4y2Ba训练有素的gydF4y2Baプロパティに含まれているgydF4y2BakgydF4y2Ba行1列のcellベクトルに格納する。gydF4y2Ba

交差検証済みモデルの作成で指定できる名前と値の引数は,gydF4y2BaCVPartitiongydF4y2Ba、gydF4y2Ba坚持gydF4y2Ba、gydF4y2BaKFoldgydF4y2Ba、gydF4y2BaLeaveoutgydF4y2Baの4。gydF4y2Ba

例:gydF4y2Ba“KFold”,5gydF4y2Ba

デ,タ型:gydF4y2Ba单gydF4y2Ba|gydF4y2Ba双gydF4y2Ba

放过一个法の交差検証のフラグ。gydF4y2Ba“Leaveout”gydF4y2BaとgydF4y2Ba“上”gydF4y2BaまたはgydF4y2Ba“关闭”gydF4y2Baで構成されるコンマ区切りのペアとして指定します。gydF4y2Ba“Leaveout”,“上”gydF4y2Baを指定する場合,n個の各観察に対して,次が実行されます。ここで,nはgydF4y2Ba尺寸(Mdl.X, 1)gydF4y2Baです。gydF4y2Ba

  1. 観測は検証デ,タとして予約され,モデルは他のn - 1個の観測を使用して学習させるgydF4y2Ba

  2. N個のコンパクトな学習済みモデルを,交差検証済みモデルのgydF4y2Ba训练有素的gydF4y2Baプロパティに含まれているn行1列のcellベクトルのセルに格納する。gydF4y2Ba

交差検証済みモデルを作成するために使用できるオプションは,gydF4y2BaCVPartitiongydF4y2Ba、gydF4y2Ba坚持gydF4y2Ba、gydF4y2BaKFoldgydF4y2Ba、gydF4y2BaLeaveoutgydF4y2Baのいずれかのみです。gydF4y2Ba

メモgydF4y2Ba

線形分類モデル学習器またはカーネル分類モデル学習器から構成されるECOCモデルの交差検証では,分析は推奨されません。gydF4y2Ba

例:gydF4y2Ba“Leaveout”,“上”gydF4y2Ba

その他の分類オプションgydF4y2Ba

すべて折りたたむgydF4y2Ba

カテゴリカル予測子のリスト。次の表のいずれかの値として指定します。gydF4y2Ba

値gydF4y2Ba 説明gydF4y2Ba
正の整数のベクトルgydF4y2Ba

ベクトルの各エントリは,カテゴリカル変数が含まれている予測子データの列に対応するインデックス値です。ンデックス値の範囲は1 ~gydF4y2BapgydF4y2Baです。gydF4y2BapgydF4y2Baはモデルの学習に使用した予測子の数です。gydF4y2Ba

fitcecocgydF4y2Baが入力変数のサブセットを予測子として使用する場合,関数はサブセットのみを使用して予測子にインデックスを作成します。応答変数,観測値の重み変数,および関数で使用されないその他の変数は,gydF4y2Ba“CategoricalPredictors”gydF4y2Ba値でカウントされません。gydF4y2Ba

逻辑ベクトルgydF4y2Ba

真正的gydF4y2Baというエントリは,予測子デ,タの対応する列がカテゴリカル変数であることを意味します。ベクトルの長さはgydF4y2BapgydF4y2Baです。gydF4y2Ba

文字行列gydF4y2Ba 行列の各行は予測子変数の名前です。名前はgydF4y2BaPredictorNamesgydF4y2Baのエントリに一致しなくてはなりません。文字行列の各行が同じ長さになるように、名前を余分な空白で埋めてください。
文字ベクトルのcell配列または字符串配列gydF4y2Ba 配列の各要素は予測子変数の名前です。名前はgydF4y2BaPredictorNamesgydF4y2Baのエントリに一致しなくてはなりません。gydF4y2Ba
“所有”gydF4y2Ba すべての予測子がカテゴリカルです。gydF4y2Ba

“CategoricalPredictors”gydF4y2Baの仕様は以下の場合適切です。gydF4y2Ba

  • 少なくとも1つの予測子がカテゴリカルであり,すべてのバイナリ学習器が分類木,単純ベイズ学習器,支持向量机,線形学習器,カーネル学習器,または分類木のアンサンブルである場合。gydF4y2Ba

  • すべての予測子がカテゴリカルで少なくとも1のバナリ学習器がkNNである場合。gydF4y2Ba

他の学習器の場合にgydF4y2Ba“CategoricalPredictors”gydF4y2Baを指定すると,そのバ。たとえば,ソフトウェアは、カテゴリカル予測子を使用して判別分析分類器に学習させることはできません。

各学習器は,学習器に対応する近似関数と同じ方法でカテゴリカル予測子を特定して処理します。カネル学習器にいてはgydF4y2BafitckernelgydF4y2BaのgydF4y2Ba“CategoricalPredictors”gydF4y2Baを,k最近傍学習器にいてはgydF4y2BafitcknngydF4y2BaのgydF4y2Ba“CategoricalPredictors”gydF4y2Baを,線形学習器にいてはgydF4y2BafitclineargydF4y2BaのgydF4y2Ba“CategoricalPredictors”gydF4y2Baを,単純ベ▪▪▪ズ学習器に▪▪▪いてはgydF4y2BafitcnbgydF4y2BaのgydF4y2Ba“CategoricalPredictors”gydF4y2Baを,支持向量机学習器にいてはgydF4y2BafitcsvmgydF4y2BaのgydF4y2Ba“CategoricalPredictors”gydF4y2Baを,木学習器にいてはgydF4y2BafitctreegydF4y2BaのgydF4y2Ba“CategoricalPredictors”gydF4y2Baを参照してください。gydF4y2Ba

例:gydF4y2Ba“CategoricalPredictors”、“所有”gydF4y2Ba

デ,タ型:gydF4y2Ba单gydF4y2Ba|gydF4y2Ba双gydF4y2Ba|gydF4y2Ba逻辑gydF4y2Ba|gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba|gydF4y2Ba细胞gydF4y2Ba

学習に使用するクラスの名前。分类配列、文字配列、string 配列、logical ベクトル、数値ベクトル、または文字ベクトルの cell 配列として指定します。一会gydF4y2Baのデ,タ型はgydF4y2Ba资源描述gydF4y2Ba内の応答変数またはgydF4y2BaYgydF4y2Baと同じでなければなりません。gydF4y2Ba

一会gydF4y2Baが文字配列の場合,各要素は配列の1の行に対応しなければなりません。gydF4y2Ba

一会gydF4y2Baの使用目的は次のとおりです。gydF4y2Ba

  • 学習時のクラスの順序を指定する。gydF4y2Ba

  • クラスの順序に対応する入力または出力引数の次元の順序を指定する。たとえば,gydF4y2Ba成本gydF4y2Baの次元の順序やgydF4y2Ba预测gydF4y2Baによって返される分類スコアの列の順序を指定するためにgydF4y2Ba一会gydF4y2Baを使用します。gydF4y2Ba

  • 学習用にクラスのサブセットを選択する。たとえば,gydF4y2BaYgydF4y2Baに含まれているすべての異なるクラス名の集合がgydF4y2Ba{' a ', ' b ', ' c '}gydF4y2Baであるとします。クラスgydF4y2Ba“一个”gydF4y2BaおよびgydF4y2Ba“c”gydF4y2Baのみの観測値を使用してモデルに学習をさせるには,gydF4y2Ba“类名”,{' a ', ' c '}gydF4y2Baを指定します。gydF4y2Ba

一会gydF4y2Baの既定値は,gydF4y2Ba资源描述gydF4y2Ba内の応答変数またはgydF4y2BaYgydF4y2Baに含まれているすべての異なるクラス名の集合です。gydF4y2Ba

例:gydF4y2Ba“类名”,{' b ', ' g '}gydF4y2Ba

デ,タ型:gydF4y2Ba分类gydF4y2Ba|gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba|gydF4y2Ba逻辑gydF4y2Ba|gydF4y2Ba单gydF4y2Ba|gydF4y2Ba双gydF4y2Ba|gydF4y2Ba细胞gydF4y2Ba

誤分類のコスト。gydF4y2Ba“成本”gydF4y2Baと正方行列または構造体から構成されるコンマ区切りペアとして指定します。指定する項目によって,内容は次のように変わります。gydF4y2Ba

  • 正方行列gydF4y2Ba成本gydF4y2Baの場合,gydF4y2Ba成本(i, j)gydF4y2Baは真のクラスがgydF4y2Ba我gydF4y2Baである点をクラスgydF4y2BajgydF4y2Baに分類するコストです。まり,行は真のクラスに、列は予測するクラスに対応します。成本gydF4y2Baの対応する行および列にいてクラスの順序を指定するには,名前と値のペアの引数gydF4y2Ba一会gydF4y2Baをさらに指定します。gydF4y2Ba

  • 構造体gydF4y2Ba年代gydF4y2Baの場合,次の2のフィルドが必要となります。gydF4y2Ba

    • S.ClassNamesgydF4y2Ba:gydF4y2BaYgydF4y2Baと同じデ,タ型のクラス名を表す変数を含む。gydF4y2Ba

    • S.ClassificationCostsgydF4y2Ba。行と列の順序がgydF4y2BaS.ClassNamesgydF4y2Baと同じコスト行列。gydF4y2Ba

既定値はgydF4y2Ba(gydF4y2BaKgydF4y2Ba) -眼睛(gydF4y2BaKgydF4y2Ba)gydF4y2Baです。gydF4y2BaKgydF4y2Baは異なるクラスの数です。gydF4y2Ba

例:gydF4y2Ba'Cost',[0 12 2;1 0 2;2 2 0]gydF4y2Ba

デ,タ型:gydF4y2Ba双gydF4y2Ba|gydF4y2Ba单gydF4y2Ba|gydF4y2Ba结构体gydF4y2Ba

並列計算。gydF4y2Ba“选项”gydF4y2BaとgydF4y2BastatsetgydF4y2Baにより返される構造体配列で構成されるコンマ区切りのペアとして指定します。これらのオプションには并行计算工具箱™が必要です。gydF4y2BafitcecocgydF4y2Baはフィ,ルドgydF4y2Ba“流”gydF4y2Ba、gydF4y2Ba“UseParallel”gydF4y2BaおよびgydF4y2Ba“UseSubtreams”gydF4y2Baを使用します。gydF4y2Ba

次の表は,使用できるオプションの一覧です。gydF4y2Ba

オプションgydF4y2Ba 説明gydF4y2Ba
“流”gydF4y2Ba

RandStreamgydF4y2Baオブジェクトまたはそのようなオブジェクトのcell配列。gydF4y2Ba流gydF4y2Baを指定しない場合,既定のストリ,ムが使用されます。gydF4y2Ba流gydF4y2Baを指定する場合,以下が真である場合を除き,単一オブジェクトを使用します。gydF4y2Ba

  • 開いている並列プ,ルがある。gydF4y2Ba

  • UseParallelgydF4y2BaがgydF4y2Ba真正的gydF4y2Ba。gydF4y2Ba

  • UseSubstreamsgydF4y2BaがgydF4y2Ba假gydF4y2Ba。gydF4y2Ba

これらが真の場合は,並列プ,ルと同じサズのcell配列を使用します。並列プルが開いていない場合,1(基本設定に依存)。gydF4y2Ba流gydF4y2Baは単一の乱数ストリ,ムを提供しなければなりません。gydF4y2Ba

“UseParallel”gydF4y2Ba

并行计算工具箱を保有している場合,gydF4y2Ba“UseParallel”,真的gydF4y2Baを設定してワ,カ,のプ,ルを呼び出すことができます。関数gydF4y2BafitcecocgydF4y2Ba。gydF4y2Ba

デュアルコア以上のシステムの場合,バ化学键ナリ学習器に化学键いて決定木を使用すると,gydF4y2BafitcecocgydF4y2Baは英特尔gydF4y2Ba®gydF4y2Baスレッディングビルディングブロック(tbb)を使用して学習を並列化します。したがって,単一のコンピュ,タ,でgydF4y2Ba“UseParallel”gydF4y2Baオプションを指定しても役に立ません。このオプションは,クラスタ,に対して使用します。英特尔TBBに化学键いての詳細は,gydF4y2Bahttps://software.intel.com/en-us/intel-tbbgydF4y2Baを参照してください。gydF4y2Ba

“UseSubstreams”gydF4y2Ba 並列計算する場合はgydF4y2Ba真正的gydF4y2Baに設定してgydF4y2Ba“流”gydF4y2Baで指定されたストリ,ムを使用します。既定値はgydF4y2Ba假gydF4y2Baです。たとえば,gydF4y2Ba流gydF4y2BaをgydF4y2Ba“mlfg6331_64”gydF4y2BaまたはgydF4y2Ba“mrg32k3a”gydF4y2Baといったサブストリムを許可するタプに設定します。gydF4y2Ba

確実に結果を予測しやすくなるベストプラクティスは,gydF4y2BaparpoolgydF4y2Ba(并行计算工具箱)gydF4y2Baを使用し,gydF4y2BafitcecocgydF4y2Baによって並列計算を呼び出す前に並列プ,ルを明示的に生成します。gydF4y2Ba

例:gydF4y2Ba“选项”,statset (UseParallel,真的)gydF4y2Ba

デ,タ型:gydF4y2Ba结构体gydF4y2Ba

予測子変数名。一意な名前の字符串配列または一意な文字ベクトルの单元格配列として指定します。gydF4y2BaPredictorNamesgydF4y2Baの機能は,学習デ,タの提供方法によって決まります。gydF4y2Ba

  • XgydF4y2BaとgydF4y2BaYgydF4y2Baを指定した場合,gydF4y2BaPredictorNamesgydF4y2Baを使用してgydF4y2BaXgydF4y2Ba内の予測子変数に名前を割り当てることができます。gydF4y2Ba

    • PredictorNamesgydF4y2Ba内の名前の順序は,gydF4y2BaXgydF4y2Baの列の順序に一致しなければなりません。まり,gydF4y2BaPredictorNames {1}gydF4y2BaはgydF4y2BaX (: 1)gydF4y2Baの名前,gydF4y2BaPredictorNames {2}gydF4y2BaはgydF4y2BaX (:, 2)gydF4y2Baの名前であり,他も同様です。また,gydF4y2Ba大小(X, 2)gydF4y2BaとgydF4y2Ba元素个数(PredictorNames)gydF4y2Baは等しくなければなりません。gydF4y2Ba

    • 既定ではgydF4y2BaPredictorNamesgydF4y2BaはgydF4y2Ba{x1, x2,…}gydF4y2Baです。gydF4y2Ba

  • 资源描述gydF4y2Baを指定する場合,gydF4y2BaPredictorNamesgydF4y2Baを使用して学習に使用する予測子変数を選択できます。まり,gydF4y2BafitcecocgydF4y2Baは,学習中にgydF4y2BaPredictorNamesgydF4y2Baの予測子変数と応答変数のみを使用します。gydF4y2Ba

    • PredictorNamesgydF4y2BaはgydF4y2BaTbl.Properties.VariableNamesgydF4y2Baのサブセットでなければならず,応答変数の名前を含めることはできません。gydF4y2Ba

    • 既定では,すべての予測子変数の名前がgydF4y2BaPredictorNamesgydF4y2Baに格納されます。gydF4y2Ba

    • “PredictorNames”gydF4y2BaとgydF4y2Ba公式gydF4y2Baの両方ではなく,いずれか一方を使用して学習用の予測子を指定することをお勧めします。gydF4y2Ba

例:gydF4y2BaPredictorNames,{‘SepalLength’,‘SepalWidth’,‘PetalLength’,‘PetalWidth}gydF4y2Ba

デ,タ型:gydF4y2Ba字符串gydF4y2Ba|gydF4y2Ba细胞gydF4y2Ba

各クラスの事前確率。gydF4y2Ba“之前”gydF4y2Baと次の表の値から構成されるコンマ区切りのペアとして指定します。gydF4y2Ba

値gydF4y2Ba 説明gydF4y2Ba
“经验”gydF4y2Ba クラスの事前確率は,gydF4y2BaYgydF4y2Baのクラスの相対的頻度です。gydF4y2Ba
“统一”gydF4y2Ba クラスの事前確率はいずれも1/ k (kはクラス数)となります。gydF4y2Ba
数値ベクトルgydF4y2Ba 各要素はクラスの事前確率です。gydF4y2BaMdlgydF4y2Ba.ClassNamesgydF4y2Baに従って要素を並べ替えるか,gydF4y2Ba一会gydF4y2Ba名前と値のペアの引数を使用して順序を指定します。要素は合計がgydF4y2Ba1gydF4y2Baになるように正規化されます。gydF4y2Ba
構造体gydF4y2Ba

構造体gydF4y2Ba年代gydF4y2Baには2のフィルドがあります。gydF4y2Ba

  • S.ClassNamesgydF4y2Ba:gydF4y2BaYgydF4y2Baと同じ型の変数のクラス名が格納されます。gydF4y2Ba

  • S.ClassProbsgydF4y2Ba:対応する事前確率のベクトルが格納されます。要素は合計がgydF4y2Ba1gydF4y2Baになるように正規化されます。gydF4y2Ba

クラスの事前確率を組み込む方法にいては,gydF4y2Ba事前確率とコストgydF4y2Baを参照してください。gydF4y2Ba

例:gydF4y2Ba结构(“类名”,{{setosa,杂色的,‘virginica}}, ClassProbs, 1:3)gydF4y2Ba

デ,タ型:gydF4y2Ba单gydF4y2Ba|gydF4y2Ba双gydF4y2Ba|gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba|gydF4y2Ba结构体gydF4y2Ba

応答変数名。文字ベクトルまたは字符串スカラ,として指定します。gydF4y2Ba

  • YgydF4y2Baを指定した場合,gydF4y2Ba“ResponseName”gydF4y2Baを使用して応答変数の名前を指定できます。gydF4y2Ba

  • ResponseVarNamegydF4y2BaまたはgydF4y2Ba公式gydF4y2Baを指定した場合,gydF4y2Ba“ResponseName”gydF4y2Baを使用することはできません。gydF4y2Ba

例:gydF4y2Ba“ResponseName”、“响应”gydF4y2Ba

デ,タ型:gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba

スコア変換。文字ベクトル,字符串スカラ,または関数ハンドルとして指定します。gydF4y2Ba

次の表は,使用可能な文字ベクトルおよび字符串スカラ,をまとめています。gydF4y2Ba

値gydF4y2Ba 説明gydF4y2Ba
“doublelogit”gydF4y2Ba 1/(1 + egydF4y2Ba2 xgydF4y2Ba)gydF4y2Ba
“invlogit”gydF4y2Ba Log (x / (1 - x))gydF4y2Ba
“ismax”gydF4y2Ba 最大のスコアをも1 0gydF4y2Ba
分对数的gydF4y2Ba 1/(1 + egydF4y2Ba- xgydF4y2Ba)gydF4y2Ba
“没有”gydF4y2BaまたはgydF4y2Ba“身份”gydF4y2Ba X(変換なし)gydF4y2Ba
“标志”gydF4y2Ba X < 0のとき-1gydF4y2Ba
X = 0のとき0gydF4y2Ba
X > 0のときgydF4y2Ba
“对称”gydF4y2Ba 2x - 1gydF4y2Ba
“symmetricismax”gydF4y2Ba 最大のスコアをも1に設定し,他のすべてのクラスのスコアを-1に設定するgydF4y2Ba
“symmetriclogit”gydF4y2Ba 2/(1 + egydF4y2Ba- xgydF4y2Ba) - 1gydF4y2Ba

Matlab関数またはユ,ザ,定義関数の場合は,スコア変換用の関数ハンドルを使用します。関数ハンドルは,行列 (元のスコア) を受け入れて同じサイズの行列 (変換したスコア) を返さなければなりません。

例:gydF4y2Ba“ScoreTransform”、“分对数的gydF4y2Ba

デ,タ型:gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba|gydF4y2Bafunction_handlegydF4y2Ba

観測値の重み。gydF4y2Ba“重量”gydF4y2Baと,正の値の数値ベクトルまたはgydF4y2Ba资源描述gydF4y2Ba内の変数の名前から構成されるコンマ区切りのペアとして指定します。gydF4y2BaXgydF4y2BaまたはgydF4y2Ba资源描述gydF4y2Baの各行に含まれている観測値は,gydF4y2Ba权重gydF4y2Baの対応する値で重み付けされます。gydF4y2Ba权重gydF4y2Baのサ电子邮箱ズは,gydF4y2BaXgydF4y2BaまたはgydF4y2Ba资源描述gydF4y2Baの行数と等しくなければなりません。gydF4y2Ba

入力デ,タをテ,ブルgydF4y2Ba资源描述gydF4y2Baとして指定した場合,gydF4y2Ba权重gydF4y2Baは数値ベクトルが含まれているgydF4y2Ba资源描述gydF4y2Ba内の変数の名前にすることができます。この場合,gydF4y2Ba权重gydF4y2Baには文字ベクトルまたは字符串スカラ,を指定しなければなりません。たとえば,重みベクトルgydF4y2BaWgydF4y2BaがgydF4y2Ba资源描述。WgydF4y2Baとして格納されている場合,gydF4y2Ba' W 'gydF4y2Baとして指定します。それ以外の場合,モデルに学習をさせるときに,gydF4y2Ba资源描述gydF4y2Baの列はgydF4y2BaWgydF4y2Baを含めてすべて予測子または応答として扱われます。gydF4y2Ba

合計が各クラスの事前確率の値と等しくなるようにgydF4y2Ba权重gydF4y2Baが正規化されます。gydF4y2Ba

既定の設定では,gydF4y2Ba权重gydF4y2BaはgydF4y2Ba(gydF4y2BangydF4y2Ba,1)gydF4y2Baです。gydF4y2BangydF4y2BaはgydF4y2BaXgydF4y2BaまたはgydF4y2Ba资源描述gydF4y2Baの観測値数です。gydF4y2Ba

デ,タ型:gydF4y2Ba双gydF4y2Ba|gydF4y2Ba单gydF4y2Ba|gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba

ハパパラメタの最適化gydF4y2Ba

すべて折りたたむgydF4y2Ba

最適化するパラメタ。gydF4y2Ba“OptimizeHyperparameters”gydF4y2Baと次のいずれかから構成されるコンマ区切りのペアとして指定します。gydF4y2Ba

  • “没有”gydF4y2Ba-最適化を行いません。gydF4y2Ba

  • “汽车”gydF4y2Ba-指定されたgydF4y2Ba学习者gydF4y2Baの既定パラメ,タ,と共にgydF4y2Ba{“编码”}gydF4y2Baを使用します。gydF4y2Ba

    • 学习者gydF4y2Ba=gydF4y2Ba“支持向量机”gydF4y2Ba(既定)-gydF4y2Ba{“BoxConstraint”、“KernelScale”}gydF4y2Ba

    • 学习者gydF4y2Ba=gydF4y2Ba“判别”gydF4y2Ba- - - - - -gydF4y2Ba{“三角洲”,“伽马”}gydF4y2Ba

    • 学习者gydF4y2Ba=gydF4y2Ba“内核”gydF4y2Ba- - - - - -gydF4y2Ba{“KernelScale”、“λ”}gydF4y2Ba

    • 学习者gydF4y2Ba=gydF4y2Ba“资讯”gydF4y2Ba- - - - - -gydF4y2Ba{‘距离’,‘NumNeighbors}gydF4y2Ba

    • 学习者gydF4y2Ba=gydF4y2Ba“线性”gydF4y2Ba- - - - - -gydF4y2Ba{“λ”、“学习者”}gydF4y2Ba

    • 学习者gydF4y2Ba=gydF4y2Ba“naivebayes”gydF4y2Ba- - - - - -gydF4y2Ba{“DistributionNames”、“宽度”}gydF4y2Ba

    • 学习者gydF4y2Ba=gydF4y2Ba“树”gydF4y2Ba- - - - - -gydF4y2Ba{' MinLeafSize '}gydF4y2Ba

  • “所有”gydF4y2Ba—すべての使用可能パラメタを最適化します。gydF4y2Ba

  • 使用可能パラメ,タ,名のstring配列またはcell配列gydF4y2Ba

  • optimizableVariablegydF4y2Baオブジェクトのベクトル。通常はgydF4y2BahyperparametersgydF4y2Baの出力です。gydF4y2Ba

最適化では,パラメ,タ,を変化させることにより,gydF4y2BafitcecocgydF4y2Baの交差検証損失(誤差)を最小化しようとします。別の状況における交差検証損失の詳細にいては,gydF4y2Ba分類損失gydF4y2Baを参照してください。交差検証のタイプおよびその他の最適化の側面を制御するには、名前と値のペアHyperparameterOptimizationOptionsgydF4y2Baを使用します。gydF4y2Ba

メモgydF4y2Ba

“OptimizeHyperparameters”gydF4y2Baの値は,他の名前と値のペアの引数を使用して設定した値より優先されます。たとえば,gydF4y2Ba“OptimizeHyperparameters”gydF4y2BaをgydF4y2Ba“汽车”gydF4y2Baに設定すると,gydF4y2Ba“汽车”gydF4y2Baの値が適用されます。gydF4y2Ba

fitcecocgydF4y2Baでは,以下のパラメ,タ,を使用できます。gydF4y2Ba

  • 编码gydF4y2Ba- - - - - -gydF4y2BafitcecocgydF4y2BaはgydF4y2Ba“onevsall”gydF4y2BaとgydF4y2Ba“onevsone”gydF4y2Baで探索します。gydF4y2Ba

  • 次の表で指定されている,選択したgydF4y2Ba学习者gydF4y2Baに対する使用可能ハパパラメタ。gydF4y2Ba

    学習器gydF4y2Ba 使用可能ハパパラメタgydF4y2Ba
    (太字は既定の設定)gydF4y2Ba
    既定の範囲gydF4y2Ba
    “判别”gydF4y2Ba δgydF4y2Ba 範囲gydF4y2Ba(1 e-6, 1 e3)gydF4y2Baの対数スケ,ルgydF4y2Ba
    DiscrimTypegydF4y2Ba “线性”gydF4y2Ba、gydF4y2Ba“二次”gydF4y2Ba、gydF4y2Ba“diagLinear”gydF4y2Ba、gydF4y2Ba“diagQuadratic”gydF4y2Ba、gydF4y2Ba“pseudoLinear”gydF4y2BaおよびgydF4y2Ba“pseudoQuadratic”gydF4y2Ba
    γgydF4y2Ba [0, 1]gydF4y2Baの実数値gydF4y2Ba
    “内核”gydF4y2Ba λgydF4y2Ba 範囲gydF4y2Ba(1 e - 3 / NumObservations, e3 / NumObservations]gydF4y2Baの対数スケ,ルの正の値gydF4y2Ba
    KernelScalegydF4y2Ba 範囲gydF4y2Ba(1 e - 3, 1 e3)gydF4y2Baの対数スケ,ルの正の値gydF4y2Ba
    学习者gydF4y2Ba “支持向量机”gydF4y2BaおよびgydF4y2Ba“物流”gydF4y2Ba
    NumExpansionDimensionsgydF4y2Ba 範囲gydF4y2Ba(100、10000)gydF4y2Baの対数スケ,ルの整数gydF4y2Ba
    “资讯”gydF4y2Ba 距离gydF4y2Ba “cityblock”gydF4y2Ba、gydF4y2Ba“chebychev”gydF4y2Ba、gydF4y2Ba“相关”gydF4y2Ba、gydF4y2Ba的余弦gydF4y2Ba、gydF4y2Ba“欧几里得”gydF4y2Ba、gydF4y2Ba“汉明”gydF4y2Ba、gydF4y2Ba“jaccard”gydF4y2Ba、gydF4y2Ba“mahalanobis”gydF4y2Ba、gydF4y2Ba闵可夫斯基的gydF4y2Ba、gydF4y2Ba“seuclidean”gydF4y2BaおよびgydF4y2Ba“枪兵”gydF4y2Ba
    DistanceWeightgydF4y2Ba “平等”gydF4y2Ba、gydF4y2Ba“逆”gydF4y2BaおよびgydF4y2Ba“squaredinverse”gydF4y2Ba
    指数gydF4y2Ba (0.5, 3)gydF4y2Baの正の値gydF4y2Ba
    NumNeighborsgydF4y2Ba 範囲gydF4y2Ba[1,马克斯(2轮(NumObservations / 2)))gydF4y2Baの対数スケ,ルの正の整数値gydF4y2Ba
    标准化gydF4y2Ba “真正的”gydF4y2BaおよびgydF4y2Ba“假”gydF4y2Ba
    “线性”gydF4y2Ba λgydF4y2Ba 範囲gydF4y2Ba[1 e-5 / NumObservations 1 e5 / NumObservations]gydF4y2Baの対数スケ,ルの正の値gydF4y2Ba
    学习者gydF4y2Ba “支持向量机”gydF4y2BaおよびgydF4y2Ba“物流”gydF4y2Ba
    正则化gydF4y2Ba “岭”gydF4y2BaおよびgydF4y2Ba“套索”gydF4y2Ba
    “naivebayes”gydF4y2Ba DistributionNamesgydF4y2Ba “正常”gydF4y2BaおよびgydF4y2Ba“内核”gydF4y2Ba
    宽度gydF4y2Ba 範囲gydF4y2Ba[MinPredictorDiff / 4,马克斯(MaxPredictorRange MinPredictorDiff)]gydF4y2Baの対数スケ,ルの正の値gydF4y2Ba
    内核gydF4y2Ba “正常”gydF4y2Ba、gydF4y2Ba“盒子”gydF4y2Ba、gydF4y2Ba“epanechnikov”gydF4y2Ba,およびgydF4y2Ba“三角形”gydF4y2Ba
    “支持向量机”gydF4y2Ba BoxConstraintgydF4y2Ba 範囲gydF4y2Ba(1 e - 3, 1 e3)gydF4y2Baの対数スケ,ルの正の値gydF4y2Ba
    KernelScalegydF4y2Ba 範囲gydF4y2Ba(1 e - 3, 1 e3)gydF4y2Baの対数スケ,ルの正の値gydF4y2Ba
    KernelFunctiongydF4y2Ba “高斯”gydF4y2Ba、gydF4y2Ba“线性”gydF4y2BaおよびgydF4y2Ba多项式的gydF4y2Ba
    PolynomialOrdergydF4y2Ba 範囲gydF4y2Ba(2、4)gydF4y2Baの整数gydF4y2Ba
    标准化gydF4y2Ba “真正的”gydF4y2BaおよびgydF4y2Ba“假”gydF4y2Ba
    “树”gydF4y2Ba MaxNumSplitsgydF4y2Ba 範囲gydF4y2BaNumObservations-1[1,马克斯(2))gydF4y2Baの対数スケ,ルの整数gydF4y2Ba
    MinLeafSizegydF4y2Ba 範囲gydF4y2Ba[1,马克斯(2楼(NumObservations / 2)))gydF4y2Baの対数スケ,ルの整数gydF4y2Ba
    NumVariablesToSamplegydF4y2Ba 範囲gydF4y2BaNumPredictors[1,马克斯(2))gydF4y2Baの整数gydF4y2Ba
    SplitCriteriongydF4y2Ba gdi的gydF4y2Ba、gydF4y2Ba“异常”gydF4y2BaおよびgydF4y2Ba“两个”gydF4y2Ba

    または,選択したgydF4y2Ba学习者gydF4y2Baと共にgydF4y2BahyperparametersgydF4y2Baを次のように使用します。gydF4y2Ba

    负载gydF4y2BafisheririsgydF4y2Ba超参数需要数据和学习器gydF4y2BaParams =超参数(gydF4y2Ba“fitcecoc”gydF4y2Ba量,物种,gydF4y2Ba“支持向量机”gydF4y2Ba);gydF4y2Ba

    使用可能な,または既定のハイパーパラメーターを調べるには,gydF4y2Ba参数个数gydF4y2Baを確認します。gydF4y2Ba

既定以外のパラメ,タ,を設定するには,既定以外の値が含まれているgydF4y2BaoptimizableVariablegydF4y2Baオブジェクトのベクトルを渡します。たとえば,以下のようにします。gydF4y2Ba

负载gydF4y2BafisheririsgydF4y2BaParams =超参数(gydF4y2Ba“fitcecoc”gydF4y2Ba量,物种,gydF4y2Ba“支持向量机”gydF4y2Ba);参数(2)。Range = [1e-4,1e6];gydF4y2Ba

OptimizeHyperparametersgydF4y2Baの値としてgydF4y2Ba参数个数gydF4y2Baを渡します。gydF4y2Ba

既定では,コマンドラインに反復表示が表示され,最適化のハイパーパラメーターの個数に従ってプロットが表示されます。最適化とプロットにおける目的関数は,回帰の場合はgydF4y2BaLog(1 +交叉验证损失)gydF4y2Ba,分類の場合は誤分類率です。反復表示を制御するには,名前と値のペアの引数gydF4y2Ba“HyperparameterOptimizationOptions”gydF4y2BaのgydF4y2Ba详细的gydF4y2Baフィ,ルドを設定します。プロットを制御するには,名前と値のペアの引数gydF4y2Ba“HyperparameterOptimizationOptions”gydF4y2BaのgydF4y2BaShowPlotsgydF4y2Baフィ,ルドを設定します。gydF4y2Ba

たとえば,gydF4y2BaEcoc分類器の最適化gydF4y2Baを参照してください。gydF4y2Ba

例:gydF4y2Ba“汽车”gydF4y2Ba

最適化のオプション。gydF4y2Ba“HyperparameterOptimizationOptions”gydF4y2Baと構造体から構成されるコンマ区切りのペアとして指定します。この引数を指定すると,名前と値のペアの引数gydF4y2BaOptimizeHyperparametersgydF4y2Baの効果が変化します。この構造体のフィ,ルドは,すべてオプションです。gydF4y2Ba

フィ,ルド名gydF4y2Ba 値gydF4y2Ba 既定の設定gydF4y2Ba
优化器gydF4y2Ba
  • “bayesopt”gydF4y2Ba-ベie浏览器ズ最適化を使用。内部的にはgydF4y2BabayesoptgydF4y2Baが呼び出されます。gydF4y2Ba

  • “gridsearch”gydF4y2Ba-次元ごとにgydF4y2BaNumGridDivisionsgydF4y2Baの値があるグリッド探索を使用。gydF4y2Ba

  • “randomsearch”gydF4y2Ba- - - - - -gydF4y2BaMaxObjectiveEvaluationsgydF4y2Ba個の点で無作為に探索。gydF4y2Ba

“gridsearch”gydF4y2Baでは,グリッドからの一様な非復元抽出により,無作為な順序で探索します。最適化後、gydF4y2Basortrows (Mdl.HyperparameterOptimizationResults)gydF4y2Baコマンドを使用してグリッド順のテ,ブルを取得できます。gydF4y2Ba

“bayesopt”gydF4y2Ba
AcquisitionFunctionNamegydF4y2Ba

  • “expected-improvement-per-second-plus”gydF4y2Ba

  • “expected-improvement”gydF4y2Ba

  • “expected-improvement-plus”gydF4y2Ba

  • “expected-improvement-per-second”gydF4y2Ba

  • “lower-confidence-bound”gydF4y2Ba

  • “probability-of-improvement”gydF4y2Ba

オブジェクト関数のランタesc escムによって最適化が異なるので,名前にgydF4y2Ba每秒gydF4y2Baが含まれている獲得関数は,再現性がある結果を生成しません。名前にgydF4y2Ba+gydF4y2Baが含まれている獲得関数は,領域を過剰利用している場合に動作を変更します。詳細は,gydF4y2Ba獲得関数のタ@ @プgydF4y2Baを参照してください。gydF4y2Ba

“expected-improvement-per-second-plus”gydF4y2Ba
MaxObjectiveEvaluationsgydF4y2Ba 目的関数評価の最大数。gydF4y2Ba “bayesopt”gydF4y2BaまたはgydF4y2Ba“randomsearch”gydF4y2Baの場合はgydF4y2Ba30.gydF4y2Ba、gydF4y2Ba“gridsearch”gydF4y2Baの場合はグリッド全体gydF4y2Ba
MaxTimegydF4y2Ba

制限時間。正の実数を指定します。制限時間の単位は,gydF4y2Ba抽搐gydF4y2BaとgydF4y2BatocgydF4y2Baによって測定される秒です。gydF4y2BaMaxTimegydF4y2Baは関数評価を中断させないため,実行時間がgydF4y2BaMaxTimegydF4y2Baを超える可能性があります。gydF4y2Ba

正gydF4y2Ba
NumGridDivisionsgydF4y2Ba “gridsearch”gydF4y2Baにおける各次元の値の個数。値は、各次元の値の個数を表す正の整数のベクトル、またはすべての次元に適用されるスカラーが可能です。カテゴリカル変数の場合、このフィールドは無視されます。 10gydF4y2Ba
ShowPlotsgydF4y2Ba プロットを表示するかどうかを示す論理値。gydF4y2Ba真正的gydF4y2Baの場合,最良の目的関数の値が反復回数に対してプロットされます。1,gydF4y2Ba优化器gydF4y2BaがgydF4y2Ba“bayesopt”gydF4y2Baである場合,gydF4y2BaShowPlotsgydF4y2Baはパラメ,タ,に対する目的関数のモデルのプロットも行います。gydF4y2Ba 真正的gydF4y2Ba
SaveIntermediateResultsgydF4y2Ba 优化器gydF4y2BaがgydF4y2Ba“bayesopt”gydF4y2Baである場合に結果を保存するかどうかを示す論理値。gydF4y2Ba真正的gydF4y2Baの場合,gydF4y2Ba“BayesoptResults”gydF4y2Baという名前のワ,クスペ,ス変数が反復ごとに上書きされます。この変数はgydF4y2BaBayesianOptimizationgydF4y2Baオブジェクトです。gydF4y2Ba 假gydF4y2Ba
详细的gydF4y2Ba

コマンドラ@ @ンへの表示。gydF4y2Ba

  • 0gydF4y2Ba-反復表示なしgydF4y2Ba

  • 1gydF4y2Ba-反復表示ありgydF4y2Ba

  • 2gydF4y2Ba-追加情報付きで反復表示ありgydF4y2Ba

詳細にいては,gydF4y2BabayesoptgydF4y2Baの名前と値のペアの引数gydF4y2Ba详细的gydF4y2Baを参照してください。gydF4y2Ba

1gydF4y2Ba
UseParallelgydF4y2Ba ベ@ @ズ最適化を並列実行するかどうかを示す論理値。並列実行には并行计算工具箱が必要です。並列でのタイミングに再現性がないため,並列ベイズ最適化で再現性のある結果が生成されるとは限りません。詳細にいては,gydF4y2Ba並列ベ@ @ズ最適化gydF4y2Baを参照してください。gydF4y2Ba 假gydF4y2Ba
重新分区gydF4y2Ba

反復ごとに交差検証を再分割するかどうかを示す論理値。gydF4y2Ba假gydF4y2Baの場合,オプティマ。gydF4y2Ba

分割ノesc escズが考慮されるので,通常はgydF4y2Ba真正的gydF4y2Baにすると最も確実な結果が得られます。ただし,gydF4y2Ba真正的gydF4y2Baで良好な結果を得るには,2倍以上の関数評価が必要になります。gydF4y2Ba

假gydF4y2Ba
以下の3のフィルド名は1だけ使用できます。gydF4y2Ba
CVPartitiongydF4y2Ba cvpartitiongydF4y2Baによって作成されるgydF4y2BacvpartitiongydF4y2Baオブジェクト。gydF4y2Ba 交差検証フィ,ルドが指定されていない場合gydF4y2Ba“Kfold”,5gydF4y2Ba
坚持gydF4y2Ba ホ,ルドアウトの比率を表す範囲gydF4y2Ba(0,1)gydF4y2Baのスカラ。gydF4y2Ba
KfoldgydF4y2Ba 1より大きい整数。gydF4y2Ba

例:gydF4y2Ba“HyperparameterOptimizationOptions”、结构(MaxObjectiveEvaluations, 60)gydF4y2Ba

デ,タ型:gydF4y2Ba结构体gydF4y2Ba

出力引数gydF4y2Ba

すべて折りたたむgydF4y2Ba

学習済みのecoc分類器。gydF4y2BaClassificationECOCgydF4y2Baモデルオブジェクト,gydF4y2BaCompactClassificationECOCgydF4y2Baモデルオブジェクト,gydF4y2BaClassificationPartitionedECOCgydF4y2Ba交差検証済みモデルオブジェクト,gydF4y2BaClassificationPartitionedLinearECOCgydF4y2Ba交差検証済みモデルオブジェクト,またはgydF4y2BaClassificationPartitionedKernelECOCgydF4y2Ba交差検証済みモデルオブジェクトとして返されます。gydF4y2Ba

次の表は,指定されたバ超市超市ナリ学習器のタ超市超市プ,および交差検証を実行するかどうかに応じて,gydF4y2BafitcecocgydF4y2Baがどのタ@ @プのモデルオブジェクトを返すかを示しています。gydF4y2Ba

線形分類モデル学習器gydF4y2Ba カ,ネル分類モデル学習器gydF4y2Ba 交差検証gydF4y2Ba 返されるモデルオブジェクトgydF4y2Ba
なしgydF4y2Ba なしgydF4y2Ba なしgydF4y2Ba ClassificationECOCgydF4y2Ba
なしgydF4y2Ba なしgydF4y2Ba ありgydF4y2Ba ClassificationPartitionedECOCgydF4y2Ba
ありgydF4y2Ba なしgydF4y2Ba なしgydF4y2Ba CompactClassificationECOCgydF4y2Ba
ありgydF4y2Ba なしgydF4y2Ba ありgydF4y2Ba ClassificationPartitionedLinearECOCgydF4y2Ba
なしgydF4y2Ba ありgydF4y2Ba なしgydF4y2Ba CompactClassificationECOCgydF4y2Ba
なしgydF4y2Ba ありgydF4y2Ba ありgydF4y2Ba ClassificationPartitionedKernelECOCgydF4y2Ba

ハパパラメタの交差検証最適化の説明。gydF4y2BaBayesianOptimizationgydF4y2Baオブジェクト,またはハパパラメタや関連する値が含まれている表として返されます。名前と値のペアの引数gydF4y2BaOptimizeHyperparametersgydF4y2Baが空以外であり,名前と値のペアの引数gydF4y2Ba学习者gydF4y2Baで線形またはカネルバナリ学習器を指定した場合,gydF4y2BaHyperparameterOptimizationResultsgydF4y2Baは空以外になります。値は、名前と値のペアの引数gydF4y2BaHyperparameterOptimizationOptionsgydF4y2Baの設定によって決まります。gydF4y2Ba

  • “bayesopt”gydF4y2Ba(既定)-gydF4y2BaBayesianOptimizationgydF4y2BaクラスのオブジェクトgydF4y2Ba

  • “gridsearch”gydF4y2BaまたはgydF4y2Ba“randomsearch”gydF4y2Ba——使用したハイパーパラメーター,観測された目的関数の値(交差検証損失),および最小(最良)から最大(最悪)までの観測値の順位が格納されている表gydF4y2Ba

デ,タ型:gydF4y2Ba表格gydF4y2Ba

制限gydF4y2Ba

  • fitcecocgydF4y2Baは,線形分類モデルの学習のみにいてスパス行列をサポトします。他のすべてのモデルの場合、代わりに予測子データの非スパース行列を指定します。

詳細gydF4y2Ba

すべて折りたたむgydF4y2Ba

バ@ @ナリ損失gydF4y2Ba

“バ电子邮箱ナリ損失”gydF4y2Baは,バイナリ学習器がどの程度の精度で観測値をクラスに分類するかを判断する,クラスと分類スコアの関数です。gydF4y2Ba

以下のように仮定します。gydF4y2Ba

  • 米gydF4y2BakjgydF4y2Baは符号化設計行列Mの要素(k, j),つまりバイナリ学習器jのクラスkに対応するコード。gydF4y2Ba

  • 年代gydF4y2BajgydF4y2Baは観測値に対するバesc escナリ学習器jのスコア。gydF4y2Ba

  • Gはバeconrナリ損失関数。gydF4y2Ba

  • kgydF4y2Ba ^gydF4y2Ba は観測値の予測クラス。gydF4y2Ba

“損失に基づく復号化”gydF4y2Ba[Escalera他]gydF4y2Baでは,バイナリ学習器全体のバイナリ損失の和が最小になるクラスにより,観測値の予測クラスが決まります。まり,次のようになります。gydF4y2Ba

kgydF4y2Ba ^gydF4y2Ba =gydF4y2Ba argmingydF4y2Ba kgydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba |gydF4y2Ba ggydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba ,gydF4y2Ba 年代gydF4y2Ba jgydF4y2Ba )gydF4y2Ba .gydF4y2Ba

“損失に重みを付けた復号化”gydF4y2Ba[Escalera他]gydF4y2Baでは,バイナリ学習器全体のバイナリ損失の平均が最小になるクラスにより,観測値の予測クラスが決まります。まり,次のようになります。gydF4y2Ba

kgydF4y2Ba ^gydF4y2Ba =gydF4y2Ba argmingydF4y2Ba kgydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba |gydF4y2Ba ggydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba ,gydF4y2Ba 年代gydF4y2Ba jgydF4y2Ba )gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba |gydF4y2Ba .gydF4y2Ba

Allwein他gydF4y2Baによると,すべてのクラスで損失値が同じ動的範囲に収まるので,損失に重みを付けた復号化では分類精度が向上します。gydF4y2Ba

次の表は,サポ,トされる損失関数をまとめています。ここで,ygydF4y2BajgydF4y2Baは特定のバesc esc esc esc esc esc esc esc esc esc esc esc esc escgydF4y2BajgydF4y2Baは観測値jのスコアであり,g(ygydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)です。gydF4y2Ba

値gydF4y2Ba 説明gydF4y2Ba スコア領域gydF4y2Ba g (y)gydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)gydF4y2Ba
“binodeviance”gydF4y2Ba 二項分布からの逸脱度gydF4y2Ba (-∞∞)gydF4y2Ba Log [1 + exp(-2ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba
“指数”gydF4y2Ba 指数gydF4y2Ba (-∞∞)gydF4y2Ba exp(可能是gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
“汉明”gydF4y2Ba ハミングgydF4y2Ba [0,1]または(-∞,∞)gydF4y2Ba [1 -符号(ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
“枢纽”gydF4y2Ba ヒンジgydF4y2Ba (-∞∞)gydF4y2Ba Max (0,1 - ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
“线性”gydF4y2Ba 線形gydF4y2Ba (-∞∞)gydF4y2Ba (1 - y)gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
分对数的gydF4y2Ba ロジスティックgydF4y2Ba (-∞∞)gydF4y2Ba Log [1 + exp(-ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba
“二次”gydF4y2Ba 2 次gydF4y2Ba [0, 1]gydF4y2Ba [1 - y]gydF4y2BajgydF4y2Ba(2 sgydF4y2BajgydF4y2Ba- 1))gydF4y2Ba2gydF4y2Ba/ 2gydF4y2Ba

バ▪▪▪ナリ損失は,ygydF4y2BajgydF4y2Ba= 0のときに損失が0.5になるように正規化され,バescナリ学習器の平均を使用して集計されますgydF4y2Ba[Allwein他]gydF4y2Ba。gydF4y2Ba

Ecoc分類器の全体的な性能の尺度である全体の分類損失(オブジェクト関数gydF4y2Ba损失gydF4y2BaおよびgydF4y2Ba预测gydF4y2Baの名前と値のペアの引数gydF4y2Ba“LossFun”gydF4y2Baにより指定)とバ选区ナリ損失を混同しないでください。gydF4y2Ba

符号化設計gydF4y2Ba

"符号化設計"gydF4y2Baは,各バ。まり,マルチクラス問題がどのように一連のバイナリ問題にされたのかを示します。

符号化設計の各行は各クラスに対応し,各列はバ。三項符号化設計では,特定の列(バaapl .ナリ学習器)に対して以下が実行されます。gydF4y2Ba

  • 1が含まれている行の場合,対応するクラスの観測値をすべて陽性クラスにグループ化するようバイナリ学習器に指示します。gydF4y2Ba

  • 1が含まれている行の場合,対応するクラスの観測値をすべて陰性クラスにグループ化するようバイナリ学習器に指示します。gydF4y2Ba

  • 0が含まれている行の場合,対応するクラスの観測値をすべて無視するようバescナリ学習器に指示します。gydF4y2Ba

ハミング尺度に基づく行の最小ペアワ@ @ズ距離が大きい符号化設計行列が最適です。行のペアワ化学键ズ距離の詳細に化学键いては,gydF4y2Baランダム符号化設計行列gydF4y2BaおよびgydF4y2Ba[4]gydF4y2Baを参照してください。gydF4y2Ba

次の表は一般的な符号化設計にいて説明しています。gydF4y2Ba

符号化設計gydF4y2Ba 説明gydF4y2Ba 学習器の数gydF4y2Ba 行の最小ペアワ@ @ズ距離gydF4y2Ba
Ova(1対他)gydF4y2Ba 各バ▪▪ナリ学習器では,1▪▪のクラスは正で残りは負です。この計画は陽性クラス割り当てのすべての組み合わせを使用します。gydF4y2Ba KgydF4y2Ba 2gydF4y2Ba
Ovo(1対1)gydF4y2Ba 各バ▪▪ナリ学習器では,1▪▪のクラスが正であり,もう1▪▪のクラスは負です。残りは無視されます。この計画はすべてのクラスペアの割り当ての組み合わせを使用します。gydF4y2Ba

K(K - 1)/2gydF4y2Ba

1gydF4y2Ba
完全二項gydF4y2Ba

この計画はクラスをすべて2の組み合わせに分割します。いずれのクラスも無視されません。まり,すべてのクラス割り当てがgydF4y2Ba1gydF4y2BaおよびgydF4y2Ba1gydF4y2Baになり,各バイナリ学習器について1つ以上の陽性クラスおよび1つ以上の陰性クラスが割り当てに含まれます。gydF4y2Ba

2gydF4y2BaK - 1gydF4y2Ba- 1gydF4y2Ba 2gydF4y2BaK - 2gydF4y2Ba
完全三項gydF4y2Ba

この計画はクラスをすべて3の組み合わせに分割します。まり,すべてのクラス割り当てがgydF4y2Ba0gydF4y2Ba、gydF4y2Ba1gydF4y2BaおよびgydF4y2Ba1gydF4y2Baになり,各バイナリ学習器について1つ以上の陽性クラスおよび1つ以上の陰性クラスが割り当てに含まれます。gydF4y2Ba

(3gydF4y2BaKgydF4y2Ba- 2gydF4y2BaK + 1gydF4y2Ba+ 1) / 2gydF4y2Ba

3.gydF4y2BaK - 2gydF4y2Ba
順序gydF4y2Ba 1个番目のバ,1个番目のクラスが負であり,残りは正です。2番目のバイナリ学習器では、最初の 2 つのクラスが負であり、残りは正です。他についても同様です。 K - 1gydF4y2Ba 1gydF4y2Ba
密なランダムgydF4y2Ba 各バ▪▪ナリ学習器には,陽性または陰性クラス(少なくとも各1▪▪)が無作為に割り当てられます。詳細は,gydF4y2Baランダム符号化設計行列gydF4y2Baを参照してください。gydF4y2Ba

ランダム。ただし,約 10 log2gydF4y2BaKgydF4y2Ba

変数gydF4y2Ba
スパ,スランダムgydF4y2Ba 各バイナリ学習器では,各クラスに確率0.25で正または負が無作為に割り当てられ,確率0.5がの場合にクラスが無視されます。詳細は,gydF4y2Baランダム符号化設計行列gydF4y2Baを参照してください。gydF4y2Ba

ランダム。ただし,約 15 log2gydF4y2BaKgydF4y2Ba

変数gydF4y2Ba

このプロットは符号化設計のバesc escナリ学習器の数を増加するkと比較します。gydF4y2Ba

誤り訂正出力符号モデルgydF4y2Ba

“誤り訂正出力符号(ecoc)モデル”gydF4y2Baは,3以上のクラスがある分類の問題を一連のバナリ分類問題に縮小します。gydF4y2Ba

ECOC分類は,バイナリ学習器が学習するクラスを決定する符号化設計と,バイナリ学習器の結果(予測)が集計される方法を決定する復号化スキームを必要とします。gydF4y2Ba

以下のように仮定します。gydF4y2Ba

  • 分類問題には3のクラスがある。gydF4y2Ba

  • 符号化設計が1対1である。3.クラスの場合、この符号化設計は次のようになります。

    学习者1gydF4y2Ba 学习者2gydF4y2Ba 学习者3gydF4y2Ba 类1gydF4y2Ba 1gydF4y2Ba 1gydF4y2Ba 0gydF4y2Ba 二班gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba 0gydF4y2Ba 1gydF4y2Ba 3班gydF4y2Ba 0gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba

  • 復号化方式で損失gを使用する。gydF4y2Ba

  • 学習器が支持向量机である。gydF4y2Ba

Ecocアルゴリズムでは,次のステップに従ってこの分類モデルを構築します。gydF4y2Ba

  1. 学習器1はクラス1またはクラス2の観測値について学習を行い,クラス1を陽性クラス,クラス2を陰性クラスとして扱います。他の学習器の学習も同様に実行します。gydF4y2Ba

  2. 次のように仮定します。Mは要素MgydF4y2Ba吉隆坡gydF4y2Baをも符号化設計行列です。年代gydF4y2BalgydF4y2Baは学習器lの陽性クラスの予測された分類スコアです。新しい観測値は,l個のバナリ学習器にいて損失の合計が最小になるクラス(gydF4y2Ba kgydF4y2Ba ^gydF4y2Ba )に割り当てられます。gydF4y2Ba

    kgydF4y2Ba ^gydF4y2Ba =gydF4y2Ba argmingydF4y2Ba kgydF4y2Ba ∑gydF4y2Ba lgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba lgydF4y2Ba |gydF4y2Ba ggydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba lgydF4y2Ba ,gydF4y2Ba 年代gydF4y2Ba lgydF4y2Ba )gydF4y2Ba ∑gydF4y2Ba lgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba lgydF4y2Ba |gydF4y2Ba .gydF4y2Ba

Ecocモデルは他のマルチクラスモデルと比較して分類精度を向上させることができますgydF4y2Ba[2]gydF4y2Ba。gydF4y2Ba

ヒントgydF4y2Ba

  • バ@ @ナリ学習器の数はクラス数とともに増加します。多数のクラスがある問題では,符号化設計gydF4y2BabinarycompletegydF4y2BaおよびgydF4y2BaternarycompletegydF4y2Baは効率的ではありません。ただし,gydF4y2Ba

    • K≤4の場合,gydF4y2BasparserandomgydF4y2BaではなくgydF4y2BaternarycompletegydF4y2Ba符号化設計を使用します。gydF4y2Ba

    • K≤5の場合,gydF4y2BadenserandomgydF4y2BaではなくgydF4y2BabinarycompletegydF4y2Ba符号化設計を使用します。gydF4y2Ba

    コマンドウィンドウにgydF4y2BaMdl。CodingMatrixを入力して学習させたecoc分類器の符号化設計行列を表示できます。gydF4y2Ba

  • アプリケーションへの詳細な知識を用い,計算上の制約を考慮してコーディング行列を作成しなければなりません。十分な計算能力と時間がある場合,いくつかのコーディング行列を試し,最大のパフォーマンスが得られるものを選択してください(たとえば,gydF4y2BaconfusionchartgydF4y2Baを使用して各モデルの混同行列を確認します)。gydF4y2Ba

  • 観測値が多いデ,タセットの場合,留一份交差検証(gydF4y2BaLeaveoutgydF4y2Ba)では不十分です。代わりに,k分割交差検証 (KFoldgydF4y2Ba)を使用してください。gydF4y2Ba

  • モデルに学習をさせた後で,新しいデタにいてラベルを予測するc / c++コドを生成できます。C/ c++コ,ドの生成にはgydF4y2BaMATLAB编码器™gydF4y2Baが必要です。詳細については、コ,ド生成の紹介gydF4y2Baを参照してください。gydF4y2Ba

アルゴリズムgydF4y2Ba

すべて折りたたむgydF4y2Ba

カスタム符号化設計行列gydF4y2Ba

カスタムコ,ディング行列は特定の形式でなければなりません。カスタムコ,ディング行列は以下を確認して検証されます。gydF4y2Ba

  • すべての要素は-1,0または1です。gydF4y2Ba

  • すべての列は少なくとも-1を1および1を1含みます。gydF4y2Ba

  • すべての異なる列ベクトルuおよびvでは,u≠vおよびu≠-v。gydF4y2Ba

  • すべての行ベクトルは一意です。gydF4y2Ba

  • 行列は任意の2のクラスを分離できます。まり,任意の行から他の任意の行へ、次のルールに従って移動できます。

    • 1から-1または-1から1へ垂直方向に移動できます。gydF4y2Ba

    • 非ゼロ要素から別の非ゼロ要素へ水平方向に移動できます。gydF4y2Ba

    • 垂直方向の移動に行列の列を一度だけ使用できます。gydF4y2Ba

    上記のルールを使用して,行我から行jに移動できない場合,クラス我およびjは計画により分離できません。たとえば、次の符号化設計ではクラス1および2をクラス3および4から分離できませんgydF4y2Ba

    [gydF4y2Ba 1gydF4y2Ba 0gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba 0gydF4y2Ba 0gydF4y2Ba 1gydF4y2Ba 0gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba ]gydF4y2Ba

    2行目の2列目には0があるので,2行目の1を2列目に水平に移動することはできません。したがって,この符号化設計は拒否されます。gydF4y2Ba

並列計算gydF4y2Ba

並列計算を使用する場合(gydF4y2Ba选项gydF4y2Baを参照),gydF4y2BafitcecocgydF4y2Baはバ@ @ナリ学習器を並列して学習させます。gydF4y2Ba

事前確率とコストgydF4y2Ba

  • 事前確率-各バ电子邮箱ナリ学習器に指定されたクラス事前確率(gydF4y2Ba之前gydF4y2Ba)は正規化されます。Mは符号化設計行列であり,I(A,c)は指標行列であると仮定します。指標行列の次元数はaと同じです。指標行列の要素は,対応するAの要素がcの場合は1,それ以外の場合は0になります。米gydF4y2Ba+1gydF4y2BaおよびmgydF4y2Ba-1gydF4y2Baは,次の条件を満たすk行l列の行列と仮定します。gydF4y2Ba

    • 米gydF4y2Ba+1gydF4y2Ba= m〇i (m,1),ここで〇は要素単位の乗算です(まり,gydF4y2BaM + = M *(M = 1)gydF4y2Ba)。また,mgydF4y2Ba+1gydF4y2Baの列ベクトルlをgydF4y2Ba 米gydF4y2Ba lgydF4y2Ba (gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba と表します。gydF4y2Ba

    • 米gydF4y2Ba-1gydF4y2Ba= -m〇i (m,-1)(まり,gydF4y2Bam减= -M。*(m == -1)gydF4y2Ba)。また,mgydF4y2Ba-1gydF4y2Baの列ベクトルlをgydF4y2Ba 米gydF4y2Ba lgydF4y2Ba (gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba と表します。gydF4y2Ba

    πgydF4y2Ba lgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba =gydF4y2Ba 米gydF4y2Ba lgydF4y2Ba (gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba °gydF4y2Ba πgydF4y2Ba およびgydF4y2Ba πgydF4y2Ba lgydF4y2Ba −gydF4y2Ba 1gydF4y2Ba =gydF4y2Ba 米gydF4y2Ba lgydF4y2Ba (gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba °gydF4y2Ba πgydF4y2Ba と表します。ここで、πはクラスについて指定した事前確率のベクトル (之前gydF4y2Ba)です。gydF4y2Ba

    すると,バナリ学習器lに。gydF4y2Ba

    πgydF4y2Ba ^gydF4y2Ba lgydF4y2Ba (gydF4y2Ba jgydF4y2Ba )gydF4y2Ba =gydF4y2Ba 为gydF4y2Ba πgydF4y2Ba lgydF4y2Ba (gydF4y2Ba jgydF4y2Ba )gydF4y2Ba 为gydF4y2Ba 1gydF4y2Ba 为gydF4y2Ba πgydF4y2Ba lgydF4y2Ba (gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba 为gydF4y2Ba 1gydF4y2Ba +gydF4y2Ba 为gydF4y2Ba πgydF4y2Ba lgydF4y2Ba (gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba 为gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba

    ここで,j ={-1,1}です。gydF4y2Ba 为gydF4y2Ba 一个gydF4y2Ba 为gydF4y2Ba 1gydF4y2Ba はaの1ノルムです。gydF4y2Ba

  • コスト-各バemcナリ学習器のk行k列のコスト行列c (gydF4y2Ba成本gydF4y2Ba)は正規化されます。バesc escナリ学習器lで陰性クラスの観測値を陽性クラスに分類するコストは次のようになります。gydF4y2Ba

    cgydF4y2Ba lgydF4y2Ba −gydF4y2Ba +gydF4y2Ba =gydF4y2Ba (gydF4y2Ba πgydF4y2Ba lgydF4y2Ba (gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba )gydF4y2Ba ⊤gydF4y2Ba CgydF4y2Ba πgydF4y2Ba lgydF4y2Ba (gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba .gydF4y2Ba

    同様に,陽性クラスの観測値を陰性クラスに分類するコストは次のようになります。gydF4y2Ba

    cgydF4y2Ba lgydF4y2Ba +gydF4y2Ba −gydF4y2Ba =gydF4y2Ba (gydF4y2Ba πgydF4y2Ba lgydF4y2Ba (gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba )gydF4y2Ba ⊤gydF4y2Ba CgydF4y2Ba πgydF4y2Ba lgydF4y2Ba (gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba .gydF4y2Ba

    バesc escナリ学習器lのコスト行列は次のようになります。gydF4y2Ba

    CgydF4y2Ba lgydF4y2Ba =gydF4y2Ba [gydF4y2Ba 0gydF4y2Ba cgydF4y2Ba lgydF4y2Ba −gydF4y2Ba +gydF4y2Ba cgydF4y2Ba lgydF4y2Ba +gydF4y2Ba −gydF4y2Ba 0gydF4y2Ba ]gydF4y2Ba .gydF4y2Ba

    Ecocモデルは誤分類のコストをクラス事前確率に組み込むことで対応します。gydF4y2Ba之前gydF4y2BaとgydF4y2Ba成本gydF4y2Baを指定した場合,クラスの事前確率は次のように調整されます。gydF4y2Ba

    πgydF4y2Ba ¯gydF4y2Ba lgydF4y2Ba −gydF4y2Ba 1gydF4y2Ba =gydF4y2Ba cgydF4y2Ba lgydF4y2Ba −gydF4y2Ba +gydF4y2Ba πgydF4y2Ba ^gydF4y2Ba lgydF4y2Ba −gydF4y2Ba 1gydF4y2Ba cgydF4y2Ba lgydF4y2Ba −gydF4y2Ba +gydF4y2Ba πgydF4y2Ba ^gydF4y2Ba lgydF4y2Ba −gydF4y2Ba 1gydF4y2Ba +gydF4y2Ba cgydF4y2Ba +gydF4y2Ba −gydF4y2Ba πgydF4y2Ba ^gydF4y2Ba lgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba πgydF4y2Ba ¯gydF4y2Ba lgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba =gydF4y2Ba cgydF4y2Ba lgydF4y2Ba +gydF4y2Ba −gydF4y2Ba πgydF4y2Ba ^gydF4y2Ba lgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba cgydF4y2Ba lgydF4y2Ba −gydF4y2Ba +gydF4y2Ba πgydF4y2Ba ^gydF4y2Ba lgydF4y2Ba −gydF4y2Ba 1gydF4y2Ba +gydF4y2Ba cgydF4y2Ba +gydF4y2Ba −gydF4y2Ba πgydF4y2Ba ^gydF4y2Ba lgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba .gydF4y2Ba

ランダム符号化設計行列gydF4y2Ba

K個のクラスに対して,ランダム符号化設計行列が以下のように生成されます。gydF4y2Ba

  1. 次のいずれかの行列が生成されます。gydF4y2Ba

    1. 密なランダム- k行gydF4y2BadgydF4y2Ba列の符号化設計行列の各要素に同じ確率で1または-1が割り当てられます。ここでgydF4y2Ba lgydF4y2Ba dgydF4y2Ba ≈gydF4y2Ba ⌈gydF4y2Ba 10gydF4y2Ba 日志gydF4y2Ba 2gydF4y2Ba KgydF4y2Ba ⌉gydF4y2Ba です。gydF4y2Ba

    2. スパスランダム- k行l .输出说明gydF4y2Ba年代gydF4y2Ba列の符号化設計行列の各要素に0.25の確率で1,0.25の確率で1,0.5の確率で0が割り当てられます。ここでgydF4y2Ba lgydF4y2Ba 年代gydF4y2Ba ≈gydF4y2Ba ⌈gydF4y2Ba 15gydF4y2Ba 日志gydF4y2Ba 2gydF4y2Ba KgydF4y2Ba ⌉gydF4y2Ba です。gydF4y2Ba

  2. 1。gydF4y2Ba

  3. 異なる列uおよびvについてu = vまたはu = vである場合,vが符号化設計行列から削除されます。gydF4y2Ba

既定では10000個の行列が無作為に生成されます。次によって与えられるハミング尺度(gydF4y2Ba[4]gydF4y2Ba)に基づき,行の最小ペアワ。gydF4y2Ba

ΔgydF4y2Ba (gydF4y2Ba kgydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba kgydF4y2Ba 2gydF4y2Ba )gydF4y2Ba =gydF4y2Ba 0.5gydF4y2Ba ∑gydF4y2Ba lgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba 1gydF4y2Ba lgydF4y2Ba |gydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba 2gydF4y2Ba lgydF4y2Ba |gydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba 1gydF4y2Ba lgydF4y2Ba −gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba 2gydF4y2Ba lgydF4y2Ba |gydF4y2Ba ,gydF4y2Ba

ここで,mgydF4y2BakgydF4y2BajgydF4y2BalgydF4y2Baは符号化設計行列jの要素です。gydF4y2Ba

サポ,トベクタ,の保存gydF4y2Ba

既定では,効率を向上させるため,gydF4y2BafitcecocgydF4y2Baはすべての線形SVMバescナリ学習器のgydF4y2BaαgydF4y2Ba、gydF4y2Ba万博1manbetxSupportVectorLabelsgydF4y2BaおよびgydF4y2Ba万博1manbetxSupportVectorsgydF4y2Baプロパティを空にします。gydF4y2BafitcecocgydF4y2Baは,gydF4y2BaαgydF4y2BaではなくgydF4y2BaβgydF4y2Baをモデル表示で出力します。gydF4y2Ba

αgydF4y2Ba、gydF4y2Ba万博1manbetxSupportVectorLabelsgydF4y2BaおよびgydF4y2Ba万博1manbetxSupportVectorsgydF4y2Baを保存するには,サポ,トベクタ,をgydF4y2BafitcecocgydF4y2Baに保存するよう指定する線形SVMテンプレ,トを渡します。たとえば,次のように入力します。gydF4y2Ba

t = templateSVM(gydF4y2Ba“Save万博1manbetxSupportVectors”gydF4y2Ba,true) Mdl = fitcecoc(X,Y,gydF4y2Ba“学习者”gydF4y2Bat);gydF4y2Ba

サポ,トベクタ,および関連する値は,生成されたgydF4y2BaClassificationECOCgydF4y2BaモデルをgydF4y2Badiscard万博1manbetxSupportVectorsgydF4y2Baに渡すことにより削除できます。gydF4y2Ba

参照gydF4y2Ba

[1]奥尔温,E., R. Schapire, Y. Singer。将多类简化为二进制:边距分类器的统一方法。机器学习研究杂志。Vol. 1, 2000, pp. 113-141。gydF4y2Ba

[2] Fürnkranz, Johannes,“循环式分类”。j·马赫。学习。Res, Vol. 2, 2002, pp. 721-747。gydF4y2Ba

[3] Escalera, S., O. Pujol, P. Radeva。三进制纠错输出码的解码过程。模式分析与机器智能汇刊。Vol. 32, Issue 7, 2010, pp. 120-134。gydF4y2Ba

[4] Escalera, S., O. Pujol, P. Radeva。纠错输出码的稀疏设计的三进制码的可分性。Recog模式。列托人。,Vol. 30, Issue 3, 2009, pp. 285–297.

拡張機能gydF4y2Ba

R2014bで導入gydF4y2Ba