主要内容gydF4y2Ba

このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。gydF4y2Ba

预测gydF4y2Ba

マルチクラス誤り訂正出力符号(ECOC)モデルを使用して観測値を分類gydF4y2Ba

説明gydF4y2Ba

例gydF4y2Ba

标签gydF4y2Ba=预测(gydF4y2BaMdlgydF4y2Ba,gydF4y2BaXgydF4y2Ba)gydF4y2Baは,学習済みのマルチクラス誤り訂正出力符号(ECOC)モデルgydF4y2BaMdlgydF4y2Baに基づいて、表または行列gydF4y2BaXgydF4y2Ba内の予測子データに対する予測クラスラベルのベクトル(gydF4y2Ba标签gydF4y2Ba)を返します。学習済みのECOCモデルは,完全でもコンパクトでもかまいません。gydF4y2Ba

例gydF4y2Ba

标签gydF4y2Ba=预测(gydF4y2BaMdlgydF4y2Ba,gydF4y2BaXgydF4y2Ba,gydF4y2Ba名称,值gydF4y2Ba)gydF4y2Baは1つ以上の名前と値のペアの引数によって指定された追加オプションを使用します。たとえば,事後確率の推定法,復号化方式,詳細レベルなどを指定できます。gydF4y2Ba

例gydF4y2Ba

[gydF4y2Ba标签gydF4y2Ba,gydF4y2BaNegLossgydF4y2Ba,gydF4y2BaPBScoregydF4y2Ba) =预测(gydF4y2Ba___gydF4y2Ba)gydF4y2Baは,前の構文におけるいずれかの入力引数の組み合わせを使用して,さらに以下を返します。gydF4y2Ba

  • 符号を反転した平均gydF4y2Baバイナリ損失gydF4y2Baの配列(gydF4y2BaNegLossgydF4y2Ba)。gydF4y2Ba预测gydF4y2Baは,符号を反転した平均バイナリ損失が最大(結果的に,平均バイナリ損失が最小)になるクラスのラベルをgydF4y2BaXgydF4y2Ba内の各観測値に割り当てます。gydF4y2Ba

  • 各バイナリ学習器によって分類された観測値の陽性クラススコアの配列(gydF4y2BaPBScoregydF4y2Ba)。gydF4y2Ba

例gydF4y2Ba

[gydF4y2Ba标签gydF4y2Ba,gydF4y2BaNegLossgydF4y2Ba,gydF4y2BaPBScoregydF4y2Ba,gydF4y2Ba后gydF4y2Ba) =预测(gydF4y2Ba___gydF4y2Ba)gydF4y2Baはさらに,観測値(gydF4y2Ba后gydF4y2Ba)の事後クラス確率の推定値を返します。gydF4y2Ba

事後クラス確率を得るには,gydF4y2BafitcecocgydF4y2Baを使用してECOCモデルを学習させる際にgydF4y2Ba“FitPosterior”,真的gydF4y2Baを設定しなければなりません。それ以外の場合,gydF4y2Ba预测gydF4y2Baはエラーがスローされます。gydF4y2Ba

例gydF4y2Ba

すべて折りたたむgydF4y2Ba

フィッシャーのアヤメのデータセットを読み込みます。予測子データgydF4y2BaXgydF4y2Ba,応答データgydF4y2BaYgydF4y2Ba,およびgydF4y2BaYgydF4y2Ba内のクラスの順序を指定します。gydF4y2Ba

负载gydF4y2BafisheririsgydF4y2BaX =量;Y =分类(物种);classOrder =独特(Y);rng (1);gydF4y2Ba%的再现性gydF4y2Ba

SVMバイナリ分類器を使用してECOCモデルを学習させます。30%のホールドアウト標本を指定し,SVMテンプレートを使用して予測子を標準化し,クラスの順序を指定します。gydF4y2Ba

t = templateSVM (gydF4y2Ba“标准化”gydF4y2Ba,真正的);PMdl = fitcecoc (X, Y,gydF4y2Ba“坚持”gydF4y2Ba, 0.30,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“类名”gydF4y2Ba, classOrder);Mdl = PMdl.Trained {1};gydF4y2Ba%提取训练过的紧凑分类器gydF4y2Ba

PMdlgydF4y2BaはgydF4y2BaClassificationPartitionedECOCgydF4y2Baモデルです。これにはgydF4y2Ba训练有素的gydF4y2Baプロパティが含まれています。これは,学習セットを使用して学習をさせたgydF4y2BaCompactClassificationECOCgydF4y2Baモデルが格納されている,1行1列の细胞配列です。gydF4y2Ba

検定標本ラベルを予測します。真のラベルと予測されたラベルのランダムなサブセットを印刷します。gydF4y2Ba

testInds =测试(PMdl.Partition);gydF4y2Ba%提取测试指标gydF4y2BaXTest = X (testInds:);欧美= Y (testInds:);标签=预测(Mdl XTest);idx = randsample (sum (testInds), 10);表(欧美(idx),标签(idx),gydF4y2Ba...gydF4y2Ba“VariableNames”gydF4y2Ba, {gydF4y2Ba“TrueLabels”gydF4y2Ba,gydF4y2Ba“PredictedLabels”gydF4y2Ba})gydF4y2Ba
ans =gydF4y2Ba10×2表gydF4y2Ba真实标签预测标签__________ _______________ setosa setosa versicolor vericolor vericolor setosa setosa setosa setosa setosagydF4y2Ba

MdlgydF4y2Baは,インデックスgydF4y2BaidxgydF4y2Baをもつ検定標本観測値の1つを除くすべてに対して正しいラベルを付けました。gydF4y2Ba

フィッシャーのアヤメのデータセットを読み込みます。予測子データgydF4y2BaXgydF4y2Ba,応答データgydF4y2BaYgydF4y2Ba,およびgydF4y2BaYgydF4y2Ba内のクラスの順序を指定します。gydF4y2Ba

负载gydF4y2BafisheririsgydF4y2BaX =量;Y =分类(物种);classOrder =独特(Y);gydF4y2Ba%课堂秩序gydF4y2Barng (1);gydF4y2Ba%的再现性gydF4y2Ba

SVMバイナリ分類器を使用してECOCモデルを学習させます。30%のホールドアウト標本を指定します。年代VM テンプレートを使用して予測子を標準化し、クラスの順序を指定します。

t = templateSVM (gydF4y2Ba“标准化”gydF4y2Ba,真正的);PMdl = fitcecoc (X, Y,gydF4y2Ba“坚持”gydF4y2Ba, 0.30,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“类名”gydF4y2Ba, classOrder);Mdl = PMdl.Trained {1};gydF4y2Ba%提取训练过的紧凑分类器gydF4y2Ba

PMdlgydF4y2BaはgydF4y2BaClassificationPartitionedECOCgydF4y2Baモデルです。これにはgydF4y2Ba训练有素的gydF4y2Baプロパティが含まれています。これは,学習セットを使用して学習をさせたgydF4y2BaCompactClassificationECOCgydF4y2Baモデルが格納されている,1行1列の细胞配列です。gydF4y2Ba

SVMスコアは観測から判定境界までの符号付き距離です。したがって,gydF4y2Ba (gydF4y2Ba -gydF4y2Ba ∞gydF4y2Ba ,gydF4y2Ba ∞gydF4y2Ba )gydF4y2Ba が定義域です。以下を行うカスタムバイナリ損失関数を作成します。gydF4y2Ba

  • 各学習器の符号化設計行列(gydF4y2Ba米gydF4y2Ba)と陽性クラスの分類スコア(gydF4y2Ba年代gydF4y2Ba)を各観測値のバイナリ損失にマッピングする。gydF4y2Ba

  • 線形損失を使用する。gydF4y2Ba

  • 中央値を使用してバイナリ学習器の損失を集計する。gydF4y2Ba

バイナリ損失関数用に独立した関数を作成し,MATLAB®パスに保存できます。あるいは,無名バイナリ損失関数を指定できます。この場合,無名バイナリ損失関数に対する関数ハンドル(gydF4y2BacustomBLgydF4y2Ba)を作成します。gydF4y2Ba

customBL = @(M,s) median(1 - bsxfun(@times,M,s),2,gydF4y2Ba“omitnan”gydF4y2Ba) / 2;gydF4y2Ba

検定標本ラベルを予測し,クラスごとの中央値のバイナリ損失を推定します。10件の検定標本観測の無作為なセットでは、クラスごとに中央値の負のバイナリ損失を出力します。

testInds =测试(PMdl.Partition);gydF4y2Ba%提取测试指标gydF4y2BaXTest = X (testInds:);欧美= Y (testInds:);[标签,NegLoss] =预测(Mdl XTest,gydF4y2Ba“BinaryLoss”gydF4y2Ba, customBL);idx = randsample (sum (testInds), 10);classOrdergydF4y2Ba
classOrder =gydF4y2Ba3 x1分类gydF4y2Basetosa杂色的virginicagydF4y2Ba
表(欧美(idx),标签(idx) NegLoss (idx:)gydF4y2Ba“VariableNames”gydF4y2Ba,gydF4y2Ba...gydF4y2Ba{gydF4y2Ba“TrueLabel”gydF4y2Ba,gydF4y2Ba“PredictedLabel”gydF4y2Ba,gydF4y2Ba“NegLoss”gydF4y2Ba})gydF4y2Ba
ans =gydF4y2Ba10×3表gydF4y2BaTrueLabel PredictedLabel NegLoss ________________________ __________________________________ setosa versicolor 0.18569 1.989 -3.6747 versicolor virginica -1.3316 -0.12346 -0.044933 setosa versicolor 0.13897 1.9274 -3.5664 virginica -1.5133 -0.38288 0.39616 versicolor versicolor 0.87209 - 0.74813 -1.376 setosa versicolor 0.4838 1.9987维珍-1.5789 -0.8337 0.91265 setosa versicolor 0.50999 2.1223 -4.1323 setosa versicolor 0.36117 2.0608 -3.922gydF4y2Ba

列の順序はgydF4y2BaclassOrdergydF4y2Baの要素に対応します。符号が反転した最大損失に基づき,ラベルが予測されます。この結果は,線形損失の中央値が他の損失ほどは効果的に機能しないことを示しています。gydF4y2Ba

SVMバイナリ学習器を使用してECOC分類器に学習をさせます。はじめに,学習標本のラベルとクラス事後確率を予測します。次に,グリッド内の各点における最大のクラス事後確率を予測します。結果を可視化します。

フィッシャーのアヤメのデータセットを読み込みます。予測子として花弁の寸法を,応答として種の名前を指定します。gydF4y2Ba

负载gydF4y2BafisheririsgydF4y2BaX =量(:,3:4);Y =物种;rng (1);gydF4y2Ba%的再现性gydF4y2Ba

SVMテンプレートを作成します。予測子を標準化し,ガウスカーネルを指定します。gydF4y2Ba

t = templateSVM (gydF4y2Ba“标准化”gydF4y2Ba,真的,gydF4y2Ba“KernelFunction”gydF4y2Ba,gydF4y2Ba“高斯”gydF4y2Ba);gydF4y2Ba

tgydF4y2BaはSVMテンプレートです。ほとんどのプロパティは空です。ECOC分類器を学習させると,適用可能なプロパティが既定値に設定されます。gydF4y2Ba

SVMテンプレートを使用してECOC分類器を学習させます。gydF4y2Ba“FitPosterior”gydF4y2Ba名前と値のペアの引数を使用して分類スコアをクラス事後確率(gydF4y2Ba预测gydF4y2BaまたはgydF4y2BaresubPredictgydF4y2Baにより返されます)へ変換します。名前と値のペアの引数gydF4y2Ba“类名”gydF4y2Baを使用して,クラスの順序を指定します。名前と値のペアの引数gydF4y2Ba“详细”gydF4y2Baを使用して,学習中に診断メッセージを表示します。gydF4y2Ba

Mdl = fitcecoc (X, Y,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“FitPosterior”gydF4y2Ba,真的,gydF4y2Ba...gydF4y2Ba“类名”gydF4y2Ba, {gydF4y2Ba“setosa”gydF4y2Ba,gydF4y2Ba“多色的”gydF4y2Ba,gydF4y2Ba“virginica”gydF4y2Ba},gydF4y2Ba...gydF4y2Ba“详细”gydF4y2Ba2);gydF4y2Ba
训练二元学习器1 (SVM) 3与50负和50正的观察。负类指数:2正类指数:1拟合学习者1 (SVM)的后验概率。训练二元学习器2 (SVM),其中3个有50个负的和50个正的观察。负类指数:3正类指数:1拟合学习者2 (SVM)的后验概率。训练3个二元学习者(SVM),其中有50个负的和50个正的观察值。负类指数:3正类指数:2拟合后验概率学习者3 (SVM)。gydF4y2Ba

MdlgydF4y2BaはgydF4y2BaClassificationECOCgydF4y2Baモデルです。同じSVMテンプレートが各バイナリ学習器に適用されますが,テンプレートの细胞ベクトルを渡すことで各バイナリ学習器のオプションを調整できます。gydF4y2Ba

学習標本のラベルとクラス事後確率を予測します。名前と値のペアの引数gydF4y2Ba“详细”gydF4y2Baを使用して,ラベルとクラス事後確率の計算中に診断メッセージを表示します。gydF4y2Ba

[标签,~,~,后]= resubPredict (Mdl,gydF4y2Ba“详细”gydF4y2Ba1);gydF4y2Ba
对所有学习者的预测都进行了计算。计算了所有观测的损失。计算后验概率…gydF4y2Ba
Mdl。BinaryLossgydF4y2Ba
ans =“二次”gydF4y2Ba

バイナリ損失の平均が最小となるクラスに観測が割り当てられます。すべてのバイナリ学習器が事後確率を計算しているので、バイナリ損失関数は二次gydF4y2Baになります。gydF4y2Ba

無作為な結果の集合を表示します。gydF4y2Ba

idx = randsample(大小(X, 1), 10日1);Mdl。一会gydF4y2Ba
ans =gydF4y2Ba3 x1细胞gydF4y2Ba{'setosa'} {'versicolor'} {'virginica'}gydF4y2Ba
表(Y (idx)、标签(idx)、后(idx:)gydF4y2Ba...gydF4y2Ba“VariableNames”gydF4y2Ba, {gydF4y2Ba“TrueLabel”gydF4y2Ba,gydF4y2Ba“PredLabel”gydF4y2Ba,gydF4y2Ba“后”gydF4y2Ba})gydF4y2Ba
ans =gydF4y2Ba10×3表gydF4y2BaTrueLabel PredLabel后  ______________ ______________ ______________________________________ {' virginica’}{‘virginica} 0.0039322 0.003987 0.99208{‘virginica}{‘virginica} 0.017067 0.018263 0.96467{‘virginica}{‘virginica} 0.014948 0.015856 0.9692{“癣”}{“癣”}2.2197 e-14 0.87318 - 0.12682{‘setosa} {' setosa '}0.999 0.029985 {'versicolor'} {'versicolor'}} 0.0085642 0.98259 0.0088487 {'setosa'} {'setosa'} 0.999 0.00024992 0.0088487 {'setosa'} {'setosa'} 0.999 0.00024913 0.00074717gydF4y2Ba

后gydF4y2Baの列はgydF4y2BaMdl。一会gydF4y2Baのクラスの順序に対応します。gydF4y2Ba

観測された予測子領域の値のグリッドを定義します。グリッド内の各インスタンスの事後確率を予測します。gydF4y2Ba

xMax = max (X);xMin = min (X);x1Pts = linspace (xMin (1) xMax (1));xMax x2Pts = linspace (xMin (2), (2));[x1Grid, x2Grid] = meshgrid (x1Pts x2Pts);[~, ~, ~, PosteriorRegion] =预测(Mdl, [x1Grid (:), x2Grid (:)));gydF4y2Ba

各グリッドの座標では,クラス間の最大クラス事後確率をプロットします。gydF4y2Ba

contourf (x1Grid x2Grid,gydF4y2Ba...gydF4y2Ba重塑(max (PosteriorRegion[], 2),大小(x1Grid, 1),大小(x1Grid, 2)));h = colorbar;h.YLabel.String =gydF4y2Ba最大后验的gydF4y2Ba;h.YLabel.FontSize = 15;持有gydF4y2Ba在gydF4y2Bagh = gscatter (X (: 1), X (:, 2), Y,gydF4y2Ba“krk”gydF4y2Ba,gydF4y2Ba‘* xd‘gydF4y2Ba8);gh(2)。l我neWidth = 2; gh(3).LineWidth = 2; title(“虹膜瓣尺寸和最大后部”gydF4y2Ba)包含(gydF4y2Ba“花瓣长度(厘米)”gydF4y2Ba) ylabel (gydF4y2Ba“花瓣宽度(cm)”gydF4y2Ba)轴gydF4y2Ba紧gydF4y2Ba传奇(gh,gydF4y2Ba“位置”gydF4y2Ba,gydF4y2Ba“西北”gydF4y2Ba)举行gydF4y2Ba从gydF4y2Ba

图中包含一个坐标轴。以虹膜瓣测量和最大后验为标题的坐标轴包含轮廓、直线等4个对象。这些物品代表着维珍卡。gydF4y2Ba

マルチクラスECOCモデルに学習をさせ,並列計算を使用して事後確率を推定します。gydF4y2Ba

心律失常gydF4y2Baデータセットを読み込みます。応答データgydF4y2BaYgydF4y2Baを確認して,クラス数を決定します。gydF4y2Ba

负载gydF4y2Ba心律失常gydF4y2BaY =分类(Y);汇总(Y)gydF4y2Ba
值计数百分比1 245 54.20% 2 44 9.73% 3 15 3.32% 4 15 3.32% 5 13 2.88% 6 25 5.53% 73 0.66% 8 2 0.44% 99 1.99% 10 50 11.06% 14 4 0.88% 15 5 1.11% 16 22 4.87%gydF4y2Ba
K =元素个数(独特(Y));gydF4y2Ba

いくつかのクラスはデータに表れません。また,他の多くのクラスでは相対的頻度が低くなります。gydF4y2Ba

GentleBoost法と50個の分類木弱学習器を使用するアンサンブル学習テンプレートを指定します。gydF4y2Ba

t = templateEnsemble (gydF4y2Ba“GentleBoost”gydF4y2Ba, 50岁,gydF4y2Ba“树”gydF4y2Ba);gydF4y2Ba

tgydF4y2Baはテンプレートオブジェクトです。ほとんどのプロパティは空(gydF4y2Ba[]gydF4y2Ba)です。学習時は,すべての空のプロパティに対して既定値が使用されます。gydF4y2Ba

応答変数には多数のクラスが含まれているので,スパースなランダム符号化設計を指定します。gydF4y2Ba

rng (1);gydF4y2Ba%的再现性gydF4y2Ba编码= designecoc (K,gydF4y2Ba“sparserandom”gydF4y2Ba);gydF4y2Ba

並列計算を使用するECOCモデルを学習させます。15% のホールドアウト標本を指定し、事後確率をあてはめます。

池= parpool;gydF4y2Ba%调用工人gydF4y2Ba
使用“local”配置文件启动并行池(parpool)…连接到并行池(工作人员数量:6)。gydF4y2Ba
选择= statset (gydF4y2Ba“UseParallel”gydF4y2Ba,真正的);PMdl = fitcecoc (X, Y,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“选项”gydF4y2Ba选项,gydF4y2Ba“编码”gydF4y2Ba、编码、gydF4y2Ba...gydF4y2Ba“FitPosterior”gydF4y2Ba,真的,gydF4y2Ba“坚持”gydF4y2Ba, 0.15);Mdl = PMdl.Trained {1};gydF4y2Ba%提取训练过的紧凑分类器gydF4y2Ba

PMdlgydF4y2BaはgydF4y2BaClassificationPartitionedECOCgydF4y2Baモデルです。これにはgydF4y2Ba训练有素的gydF4y2Baプロパティが含まれています。これは,学習セットを使用して学習をさせたgydF4y2BaCompactClassificationECOCgydF4y2Baモデルが格納されている,1行1列の细胞配列です。gydF4y2Ba

このプールでは6つのワーカーが起動しましたが,ワーカー数はシステムによって異なる可能性があります。gydF4y2Ba

事後確率を推定し,検定標本観測値からの無作為なセットを与えられたデータで,不整脈(クラス1)がないと分類された事後確率を表示します。gydF4y2Ba

testInds =测试(PMdl.Partition);gydF4y2Ba%提取测试指标gydF4y2BaXTest = X (testInds:);欧美= Y (testInds:);[~, ~, ~,后]=预测(Mdl XTest,gydF4y2Ba“选项”gydF4y2Ba、选择);idx = randsample (sum (testInds), 10);表(idx,欧美(idx)、后(idx, 1),gydF4y2Ba...gydF4y2Ba“VariableNames”gydF4y2Ba, {gydF4y2Ba“TestSampleIndex”gydF4y2Ba,gydF4y2Ba“TrueLabel”gydF4y2Ba,gydF4y2Ba“PosteriorNoArrhythmia”gydF4y2Ba})gydF4y2Ba
ans =gydF4y2Ba10×3表gydF4y2BaTestSampleIndex TrueLabel posteriorno心律失常_______________ _________ _____________________ 11 6 0.60631 41 4 0.23674 512 0.13802 33 10 0.43831 12 1 0.94332 8 1 0.97278 37 1 0.62807 24 10 0.96876 56 16 0.29375 30 1 0.64512gydF4y2Ba

入力引数gydF4y2Ba

すべて折りたたむgydF4y2Ba

完全またはコンパクトなマルチクラスECOCモデル。gydF4y2BaClassificationECOCgydF4y2BaまたはgydF4y2BaCompactClassificationECOCgydF4y2Baモデルオブジェクトを指定します。gydF4y2Ba

完全またはコンパクトなECOCモデルを作成する方法については,gydF4y2BaClassificationECOCgydF4y2BaまたはgydF4y2BaCompactClassificationECOCgydF4y2Baを参照してください。gydF4y2Ba

分類対象の予測子データ。数値行列またはテーブルを指定します。

既定では,gydF4y2BaXgydF4y2Baの各行は1つの観測値に対応し,各列は1つの変数に対応します。gydF4y2Ba

  • 数値行列の場合gydF4y2Ba

    • XgydF4y2Baの列を構成する変数の順序は,gydF4y2BaMdlgydF4y2Baに学習させた予測子変数の順序と同じでなければなりません。gydF4y2Ba

    • 表(たとえばgydF4y2Ba资源描述gydF4y2Ba)を使用してgydF4y2BaMdlgydF4y2Baに学習をさせる場合,gydF4y2Ba资源描述gydF4y2Baに含まれている予測子変数がすべて数値変数であれば,gydF4y2BaXgydF4y2Baを数値行列にすることができます。学習時にgydF4y2Ba资源描述gydF4y2Ba内の数値予測子をカテゴリカルとして扱うには,gydF4y2BafitcecocgydF4y2Baの名前と値のペアの引数gydF4y2BaCategoricalPredictorsgydF4y2Baを使用してカテゴリカル予測子を同定します。gydF4y2Ba资源描述gydF4y2Baに種類の異なる予測子変数(数値および直言データ型など)が混在し,gydF4y2BaXgydF4y2Baが数値行列である場合,gydF4y2Ba预测gydF4y2Baでエラーがスローされます。gydF4y2Ba

  • テーブルの場合gydF4y2Ba

    • 预测gydF4y2Baは,文字ベクトルの细胞配列ではない细胞配列や複数列の変数をサポートしません。gydF4y2Ba

    • 表(たとえばgydF4y2Ba资源描述gydF4y2Ba)を使用してgydF4y2BaMdlgydF4y2Baに学習をさせた場合,gydF4y2BaXgydF4y2Ba内のすべての予測子変数は変数名およびデータ型が,gydF4y2BaMdlgydF4y2Baに学習させた(gydF4y2BaMdl。PredictorNamesgydF4y2Baに格納されている)予測子変数と同じでなければなりません。ただし,gydF4y2BaXgydF4y2Baの列の順序がgydF4y2Ba资源描述gydF4y2Baの列の順序に対応する必要はありません。gydF4y2Ba资源描述gydF4y2BaとgydF4y2BaXgydF4y2Baの両方に追加の変数(応答変数や観測値の重みなど)を含めることができますが,gydF4y2Ba预测gydF4y2Baはこれらを無視します。gydF4y2Ba

    • 数値行列を使用してgydF4y2BaMdlgydF4y2Baに学習をさせる場合,gydF4y2BaMdl。PredictorNamesgydF4y2Ba内の予測子名とgydF4y2BaXgydF4y2Ba内の対応する予測子変数名が同じでなければなりません。学習時に予測子の名前を指定する方法については,gydF4y2BafitcecocgydF4y2Baの名前と値のペアの引数gydF4y2BaPredictorNamesgydF4y2Baを参照してください。gydF4y2BaXgydF4y2Ba内の予測子変数はすべて数値ベクトルでなければなりません。gydF4y2BaXgydF4y2Baに追加の変数(応答変数や観測値の重みなど)を含めることができますが,gydF4y2Ba预测gydF4y2Baはこれらを無視します。gydF4y2Ba

メモgydF4y2Ba

Mdl。BinaryLearnersgydF4y2Baが線形分類モデル(gydF4y2BaClassificationLineargydF4y2Ba)をもつ場合,観測値が列に対応するように予測子行列を配置してgydF4y2Ba“ObservationsIn”、“列”gydF4y2Baを指定することができます。ただし,gydF4y2Ba“ObservationsIn”、“列”gydF4y2Baをテーブル内の予測子データに指定することはできません。gydF4y2Ba

MdlgydF4y2Baに学習をさせるときに,gydF4y2BafitcecocgydF4y2Baの名前と値のペアの引数gydF4y2Ba“学习者”gydF4y2Baで指定したテンプレートオブジェクトについてgydF4y2Ba“标准化”,真的gydF4y2Baを設定したとします。この場合,対応するバイナリ学習器gydF4y2BajgydF4y2Baについて,対応するgydF4y2BaMdl.BinaryLearner {j} .MugydF4y2Ba内の平均およびgydF4y2BaMdl.BinaryLearner {j} .SigmagydF4y2Ba内の標準偏差を使用して,新しい予測子データの列が標準化されます。gydF4y2Ba

データ型:gydF4y2Ba表格gydF4y2Ba|gydF4y2Ba双gydF4y2Ba|gydF4y2Ba单gydF4y2Ba

名前と値のペアの引数gydF4y2Ba

オプションのgydF4y2Ba名称,值gydF4y2Ba引数のコンマ区切りペアを指定します。gydF4y2Ba的名字gydF4y2Baは引数名で,gydF4y2Ba价值gydF4y2Baは対応する値です。gydF4y2Ba的名字gydF4y2Baは引用符で囲まなければなりません。gydF4y2BaName1, Value1,…,的家gydF4y2Baのように,複数の名前と値のペアの引数を,任意の順番で指定できます。gydF4y2Ba

例:gydF4y2Ba预测(Mdl X,“BinaryLoss”,“二次”,“解码”,“lossbased”)gydF4y2Baは,バイナリ学習器の損失関数として2次関数を使用し,損失に基づく復号化方式をバイナリ損失の集計に使用するよう指定します。gydF4y2Ba

バイナリ学習器の損失関数。gydF4y2Ba“BinaryLoss”gydF4y2Baと組み込みの損失関数名または関数ハンドルから構成されるコンマ区切りのペアとして指定します。gydF4y2Ba

  • 次の表で,組み込み関数について説明します。ここでygydF4y2BajgydF4y2Baは特定のバイナリ学習器のクラスラベル(集合{1 1 0}内),sgydF4y2BajgydF4y2Baは観測値jのスコア,g (ygydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)はバイナリ損失の式です。gydF4y2Ba

    値gydF4y2Ba 説明gydF4y2Ba スコア領域gydF4y2Ba g (y)gydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)gydF4y2Ba
    “binodeviance”gydF4y2Ba 二項分布からの逸脱度gydF4y2Ba (-∞∞)gydF4y2Ba 日志(1 + exp (2 ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba
    “指数”gydF4y2Ba 指数gydF4y2Ba (-∞∞)gydF4y2Ba exp(可能是gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
    “汉明”gydF4y2Ba ハミングgydF4y2Ba [0, 1]または(-∞∞)gydF4y2Ba (1 - (y迹象gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
    “枢纽”gydF4y2Ba ヒンジgydF4y2Ba (-∞∞)gydF4y2Ba 马克斯(0,1 - ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
    “线性”gydF4y2Ba 線形gydF4y2Ba (-∞∞)gydF4y2Ba (1 - ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
    分对数的gydF4y2Ba ロジスティックgydF4y2Ba (-∞∞)gydF4y2Ba 日志(1 + exp (- ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba
    “二次”gydF4y2Ba 2 次gydF4y2Ba [0, 1]gydF4y2Ba [1 - ygydF4y2BajgydF4y2Ba(2 sgydF4y2BajgydF4y2Ba- 1))gydF4y2Ba2gydF4y2Ba/2gydF4y2Ba

    バイナリ損失はygydF4y2BajgydF4y2Ba0.5 = 0の場合に損失がになるように正規化されます。また,各クラスについて平均のバイナリ損失が計算されます。gydF4y2Ba

  • カスタムバイナリ損失関数の場合は関数ハンドルを指定します。たとえば,gydF4y2BacustomFunctiongydF4y2Baの場合はgydF4y2BaBinaryLoss, @customFunctiongydF4y2Baを指定します。gydF4y2Ba

    customFunctiongydF4y2Baの形式は次のとおりです。gydF4y2Ba

    布劳斯= customFunction (M s)gydF4y2Ba
    ここで,gydF4y2Ba

    • 米gydF4y2BaはgydF4y2BaMdl。CodingMatrixgydF4y2Baに格納されたK行L列のコーディング行列です。gydF4y2Ba

    • 年代gydF4y2Baは1行L列の分類スコアの行ベクトルです。gydF4y2Ba

    • 布劳斯gydF4y2Baは分類損失です。このスカラーは,特定のクラスのすべての学習器についてバイナリ損失を集計します。たとえば,平均バイナリ損失を使用して,各クラスの学習器の損失を集計できます。gydF4y2Ba

    • Kはクラスの数です。gydF4y2Ba

    • Lはバイナリ学習器の数です。gydF4y2Ba

    カスタムなバイナリ損失関数を渡す例については,gydF4y2Baカスタムバイナリ損失関数の使用によるECOCモデルの検定標本ラベルの予測gydF4y2Baを参照してください。gydF4y2Ba

BinaryLossgydF4y2Baの既定値は,バイナリ学習器が返すスコアの範囲によって異なります。次の表で,特定の仮定に基づくgydF4y2BaBinaryLossgydF4y2Baの既定値について説明します。gydF4y2Ba

仮定gydF4y2Ba 既定値gydF4y2Ba
すべてのバイナリ学習器がSVMであるか,SVM学習器の線形またはカーネル分類モデルである。gydF4y2Ba “枢纽”gydF4y2Ba
すべてのバイナリ学習器が,gydF4y2BaAdaboostM1gydF4y2BaまたはgydF4y2BaGentleBoostgydF4y2Baによって学習をさせたアンサンブルである。gydF4y2Ba “指数”gydF4y2Ba
すべてのバイナリ学習器が,gydF4y2BaLogitBoostgydF4y2Baによって学習をさせたアンサンブルである。gydF4y2Ba “binodeviance”gydF4y2Ba
すべてのバイナリ学習器が,ロジスティック回帰学習器の線形またはカーネル分類モデルである。または,gydF4y2BafitcecocgydF4y2BaでgydF4y2Ba“FitPosterior”,真的gydF4y2Baを設定して,クラスの事後確率を予測するよう指定した。gydF4y2Ba “二次”gydF4y2Ba

既定値を確認するには,コマンドラインでドット表記を使用して学習済みモデルのgydF4y2BaBinaryLossgydF4y2Baプロパティを表示します。gydF4y2Ba

例:gydF4y2Ba“BinaryLoss”、“binodeviance”gydF4y2Ba

データ型:gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba|gydF4y2Bafunction_handlegydF4y2Ba

バイナリ損失を集計する復号化方式。gydF4y2Ba“解码”gydF4y2BaとgydF4y2Ba“lossweighted”gydF4y2BaまたはgydF4y2Ba“lossbased”gydF4y2Baから構成されるコンマ区切りのペアとして指定します。詳細は,gydF4y2Baバイナリ損失gydF4y2Baを参照してください。gydF4y2Ba

例:gydF4y2Ba“解码”、“lossbased”gydF4y2Ba

カルバック・ライブラーダイバージェンスの最小化により事後確率をあてはめるためのランダムな初期値の個数。gydF4y2Ba“NumKLInitializations”gydF4y2Baと非負の整数スカラーから構成されるコンマ区切りのペアとして指定します。gydF4y2Ba

4番目の出力引数(gydF4y2Ba后gydF4y2Ba)を要求せず,gydF4y2Ba“PosteriorMethod”、“kl的gydF4y2Ba(既定の設定)を設定する場合,gydF4y2BaNumKLInitializationsgydF4y2Baの値は無視されます。gydF4y2Ba

詳細は,gydF4y2Baカルバック・ライブラーダイバージェンスを使用する事後推定gydF4y2Baを参照してください。gydF4y2Ba

例:gydF4y2Ba“NumKLInitializations”,5gydF4y2Ba

データ型:gydF4y2Ba单gydF4y2Ba|gydF4y2Ba双gydF4y2Ba

予測子データにおける観測値の次元。gydF4y2Ba“ObservationsIn”gydF4y2BaとgydF4y2Ba“列”gydF4y2BaまたはgydF4y2Ba“行”gydF4y2Baから構成されるコンマ区切りのペアとして指定します。gydF4y2BaMdl。BinaryLearnersgydF4y2BaにはgydF4y2BaClassificationLineargydF4y2Baモデルが格納されていなければなりません。gydF4y2Ba

メモgydF4y2Ba

観測値が列に対応するように予測子行列を配置してgydF4y2Ba“ObservationsIn”、“列”gydF4y2Baを指定すると,実行時間が大幅に短縮される可能性があります。表の予測子データに対してgydF4y2Ba“ObservationsIn”、“列”gydF4y2Baを指定することはできません。gydF4y2Ba

推定オプション。gydF4y2BastatsetgydF4y2Baにより返されるgydF4y2Ba“选项”gydF4y2Baと構造体配列から構成されるコンマ区切りのペアとして指定します。gydF4y2Ba

並列計算を起動するには,以下を行います。gydF4y2Ba

  • 并行计算工具箱™ライセンスが必要です。gydF4y2Ba

  • “选项”,statset (UseParallel,真的)gydF4y2Baを指定します。gydF4y2Ba

事後確率推定法。gydF4y2Ba“PosteriorMethod”gydF4y2BaとgydF4y2Ba“吉隆坡”gydF4y2BaまたはgydF4y2Ba“qp”gydF4y2Baで構成されるコンマ区切りのペアとして指定します。gydF4y2Ba

  • PosteriorMethodgydF4y2BaがgydF4y2Ba“吉隆坡”gydF4y2Baの場合,バイナリ学習器によって返される予測された事後確率と期待された事後確率間のカルバック・ライブラーダイバージェンスを最小化することにより,マルチクラス事後確率が推定されます。詳細については,gydF4y2Baカルバック・ライブラーダイバージェンスを使用する事後推定gydF4y2Baを参照してください。gydF4y2Ba

  • PosteriorMethodgydF4y2BaがgydF4y2Ba“qp”gydF4y2Baの場合,二次計画法を使用して最小二乗問題を解決することでマルチクラス事後確率が推定されます。このオプションを使用するには优化工具箱™ライセンスが必要です。詳細については,gydF4y2Ba二次計画法を使用する事後推定gydF4y2Baを参照してください。gydF4y2Ba

  • 4番目の出力引数(gydF4y2Ba后gydF4y2Ba)を要求しない場合,gydF4y2BaPosteriorMethodgydF4y2Baの値は無視されます。gydF4y2Ba

例:gydF4y2Ba“PosteriorMethod”、“qp”gydF4y2Ba

詳細レベル。gydF4y2Ba“详细”gydF4y2BaとgydF4y2Ba0gydF4y2BaまたはgydF4y2Ba1gydF4y2Baから構成されるコンマ区切りのペアとして指定します。gydF4y2Ba详细的gydF4y2Baは,コマンドウィンドウに表示される診断メッセージの量を制御します。gydF4y2Ba

详细的gydF4y2BaがgydF4y2Ba0gydF4y2Baの場合,診断メッセージは表示されません。それ以外の場合は,診断メッセージが表示されます。gydF4y2Ba

例:gydF4y2Ba“详细”,1gydF4y2Ba

データ型:gydF4y2Ba单gydF4y2Ba|gydF4y2Ba双gydF4y2Ba

出力引数gydF4y2Ba

すべて折りたたむgydF4y2Ba

予測クラスラベル。categorical 配列、文字配列、logical 配列、数値配列、または文字ベクトルの cell 配列として返されます。符号を反転した最大の平均バイナリ損失 (つまり、最小の平均バイナリ損失と等しい) の発生するクラスに観測を割り当てることで、観測の分類が予測されます。

标签gydF4y2Baは,gydF4y2BaMdlgydF4y2Baの学習に使用したクラスラベルと同じデータ型をもち,gydF4y2BaXgydF4y2Baと同じ行数になります。gydF4y2Ba(字符串配列は文字ベクトルの细胞配列として扱われます)。gydF4y2Ba

Mdl。BinaryLearnersgydF4y2BaにgydF4y2BaClassificationLineargydF4y2Baモデルが含まれている場合,gydF4y2Ba标签gydF4y2Baはm行L列の行列になります。mはgydF4y2BaXgydF4y2Ba内の観測値の個数,Lは線形分類モデル内の正則化強度の個数(gydF4y2Ba元素个数(Mdl.BinaryLearners {1} .Lambda)gydF4y2Ba)です。値gydF4y2Ba标签(i, j)gydF4y2Baは,正則化強度gydF4y2BaMdl.BinaryLearners {1} .Lambda (j)gydF4y2Baを使用して学習をさせたモデルの観測値gydF4y2Ba我gydF4y2Baの予測ラベルです。gydF4y2Ba

それ以外の場合,gydF4y2Ba标签gydF4y2Baは長さがmの列ベクトルになります。gydF4y2Ba

符号を反転した平均gydF4y2Baバイナリ損失gydF4y2Ba。数値行列または数値配列として返されます。gydF4y2Ba

  • Mdl。BinaryLearnersgydF4y2BaにgydF4y2BaClassificationLineargydF4y2Baモデルが格納されている場合,gydF4y2BaNegLossgydF4y2Baはm x K Lの配列になります。gydF4y2Ba

    • mはgydF4y2BaXgydF4y2Ba内の観測値数です。gydF4y2Ba

    • Kは学習データ内の異なるクラスの個数(gydF4y2Ba元素个数(Mdl.ClassNames)gydF4y2Ba)です。gydF4y2Ba

    • Lは線形分類モデル内の正則化強度の個数(gydF4y2Ba元素个数(Mdl.BinaryLearners {1} .Lambda)gydF4y2Ba)です。gydF4y2Ba

    NegLoss (k, j)gydF4y2Baは,観測値gydF4y2Ba我gydF4y2Baの符号を反転した平均バイナリ損失であり,正則化強度gydF4y2BaMdl.BinaryLearners {1} .Lambda (j)gydF4y2Baを使用して学習をさせたモデルのクラスgydF4y2BaMdl.ClassNames (k)gydF4y2Baに対応します。gydF4y2Ba

  • それ以外の場合,gydF4y2BaNegLossgydF4y2Baはm行K列の行列になります。gydF4y2Ba

各バイナリ分類器の陽性クラスのスコア。数値行列または数値配列として返されます。

  • Mdl。BinaryLearnersgydF4y2BaにgydF4y2BaClassificationLineargydF4y2Baモデルが格納されている場合,gydF4y2BaPBScoregydF4y2Baはm B x Lの配列になります。gydF4y2Ba

    • mはgydF4y2BaXgydF4y2Ba内の観測値数です。gydF4y2Ba

    • Bはバイナリ学習器の個数(gydF4y2Ba元素个数(Mdl.BinaryLearners)gydF4y2Ba)です。gydF4y2Ba

    • Lは線形分類モデル内の正則化強度の個数(gydF4y2Ba元素个数(Mdl.BinaryLearners {1} .Lambda)gydF4y2Ba)です。gydF4y2Ba

    PBScore(我,b, j)gydF4y2Baは,正則化強度gydF4y2BaMdl.BinaryLearners {1} .Lambda (j)gydF4y2Baを使用して学習をさせたモデルにおける,バイナリ学習器gydF4y2BabgydF4y2Baを使用した,観測値gydF4y2Ba我gydF4y2Baに対する陽性クラスのスコアです。gydF4y2Ba

  • それ以外の場合,gydF4y2BaPBScoregydF4y2Baはm行B列の行列になります。gydF4y2Ba

事後クラス確率。数値行列または数値配列として返されます。

  • Mdl。BinaryLearnersgydF4y2BaにgydF4y2BaClassificationLineargydF4y2Baモデルが格納されている場合,gydF4y2Ba后gydF4y2Baはm x K Lの配列になります。次元の定義については,gydF4y2BaNegLossgydF4y2Baを参照してください。gydF4y2Ba后(k, j)gydF4y2Baは,正則化強度gydF4y2BaMdl.BinaryLearners {1} .Lambda (j)gydF4y2Baを使用して学習をさせたモデルにおいて観測値gydF4y2Ba我gydF4y2BaがクラスgydF4y2BaMdl.ClassNames (k)gydF4y2Baから派生する事後確率です。gydF4y2Ba

  • それ以外の場合,gydF4y2Ba后gydF4y2Baはm行K列の行列になります。gydF4y2Ba

詳細gydF4y2Ba

すべて折りたたむgydF4y2Ba

バイナリ損失gydF4y2Ba

“バイナリ損失”gydF4y2Baは,バイナリ学習器がどの程度の精度で観測値をクラスに分類するかを判断する,クラスと分類スコアの関数です。gydF4y2Ba

以下のように仮定します。gydF4y2Ba

  • 米gydF4y2BakjgydF4y2Baは符号化設計行列Mの要素(k, j),つまりバイナリ学習器jのクラスkに対応するコード。gydF4y2Ba

  • 年代gydF4y2BajgydF4y2Baは観測値に対するバイナリ学習器jのスコア。gydF4y2Ba

  • gはバイナリ損失関数。gydF4y2Ba

  • kgydF4y2Ba ^gydF4y2Ba は観測値の予測クラス。gydF4y2Ba

“損失に基づく復号化”gydF4y2Ba[Escalera他)gydF4y2Baでは,バイナリ学習器全体のバイナリ損失の和が最小になるクラスにより,観測値の予測クラスが決まります。つまり,次のようになります。gydF4y2Ba

kgydF4y2Ba ^gydF4y2Ba =gydF4y2Ba argmingydF4y2Ba kgydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba |gydF4y2Ba ggydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba ,gydF4y2Ba 年代gydF4y2Ba jgydF4y2Ba )gydF4y2Ba .gydF4y2Ba

“損失に重みを付けた復号化”gydF4y2Ba[Escalera他)gydF4y2Baでは,バイナリ学習器全体のバイナリ損失の平均が最小になるクラスにより,観測値の予測クラスが決まります。つまり,次のようになります。gydF4y2Ba

kgydF4y2Ba ^gydF4y2Ba =gydF4y2Ba argmingydF4y2Ba kgydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba |gydF4y2Ba ggydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba ,gydF4y2Ba 年代gydF4y2Ba jgydF4y2Ba )gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba |gydF4y2Ba .gydF4y2Ba

Allwein他gydF4y2Baによると,すべてのクラスで損失値が同じ動的範囲に収まるので,損失に重みを付けた復号化では分類精度が向上します。gydF4y2Ba

次の表は,サポートされる損失関数をまとめています。ここでygydF4y2BajgydF4y2Baは特定のバイナリ学習器のクラスラベル(集合{1 1 0}内),sgydF4y2BajgydF4y2Baは観測値jのスコアであり,g (ygydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)です。gydF4y2Ba

値gydF4y2Ba 説明gydF4y2Ba スコア領域gydF4y2Ba g (y)gydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)gydF4y2Ba
“binodeviance”gydF4y2Ba 二項分布からの逸脱度gydF4y2Ba (-∞∞)gydF4y2Ba 日志(1 + exp (2 ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba
“指数”gydF4y2Ba 指数gydF4y2Ba (-∞∞)gydF4y2Ba exp(可能是gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
“汉明”gydF4y2Ba ハミングgydF4y2Ba [0, 1]または(-∞∞)gydF4y2Ba (1 - (y迹象gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
“枢纽”gydF4y2Ba ヒンジgydF4y2Ba (-∞∞)gydF4y2Ba 马克斯(0,1 - ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
“线性”gydF4y2Ba 線形gydF4y2Ba (-∞∞)gydF4y2Ba (1 - ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
分对数的gydF4y2Ba ロジスティックgydF4y2Ba (-∞∞)gydF4y2Ba 日志(1 + exp (- ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba
“二次”gydF4y2Ba 2 次gydF4y2Ba [0, 1]gydF4y2Ba [1 - ygydF4y2BajgydF4y2Ba(2 sgydF4y2BajgydF4y2Ba- 1))gydF4y2Ba2gydF4y2Ba/2gydF4y2Ba

バイナリ損失はygydF4y2BajgydF4y2Ba0.5 = 0のときに損失がになるように正規化され,バイナリ学習器の平均を使用して集計されますgydF4y2Ba[Allwein他)gydF4y2Ba。gydF4y2Ba

ECOC分類器の全体的な性能の尺度である全体の分類損失(オブジェクト関数gydF4y2Ba损失gydF4y2BaおよびgydF4y2Ba预测gydF4y2Baの名前と値のペアの引数gydF4y2Ba“LossFun”gydF4y2Baにより指定)とバイナリ損失を混同しないでください。gydF4y2Ba

アルゴリズムgydF4y2Ba

すべて折りたたむgydF4y2Ba

カルバック・ライブラーダイバージェンスを最小化するか,二次計画法を使用することにより,クラス事後確率を推定できます。以下の事後推定アルゴリズムに関する説明では,次のように仮定します。gydF4y2Ba

  • 米gydF4y2BakjgydF4y2Baは符号化設計行列Mの要素(k, j)です。gydF4y2Ba

  • 我はインジケーター関数です。gydF4y2Ba

  • pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba は,ある観測値のクラスk (k = 1,…,k)に対するクラス事後確率の推定値です。gydF4y2Ba

  • rgydF4y2BajgydF4y2Baはバイナリ学習器jの陽性クラス事後確率です。つまり,rgydF4y2BajgydF4y2Baは,学習データが与えられる場合,バイナリ学習器jが観測値を陽性クラスに分類する確率です。gydF4y2Ba

カルバック・ライブラーダイバージェンスを使用する事後推定gydF4y2Ba

既定では,カルバック・ライブラーダイバージェンスは最小化され,クラス事後確率が推定されます。予測された陽性クラス事後確率と観測された陽性クラス事後確率の間のカルバック・ライブラーダイバージェンスは次のようになります。gydF4y2Ba

ΔgydF4y2Ba (gydF4y2Ba rgydF4y2Ba ,gydF4y2Ba rgydF4y2Ba ^gydF4y2Ba )gydF4y2Ba =gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba wgydF4y2Ba jgydF4y2Ba [gydF4y2Ba rgydF4y2Ba jgydF4y2Ba 日志gydF4y2Ba rgydF4y2Ba jgydF4y2Ba rgydF4y2Ba ^gydF4y2Ba jgydF4y2Ba +gydF4y2Ba (gydF4y2Ba 1gydF4y2Ba −gydF4y2Ba rgydF4y2Ba jgydF4y2Ba )gydF4y2Ba 日志gydF4y2Ba 1gydF4y2Ba −gydF4y2Ba rgydF4y2Ba jgydF4y2Ba 1gydF4y2Ba −gydF4y2Ba rgydF4y2Ba ^gydF4y2Ba jgydF4y2Ba ]gydF4y2Ba ,gydF4y2Ba

ここで,gydF4y2Ba wgydF4y2Ba jgydF4y2Ba =gydF4y2Ba ∑gydF4y2Ba 年代gydF4y2Ba jgydF4y2Ba wgydF4y2Ba 我gydF4y2Ba ∗gydF4y2Ba はバイナリ学習器jの重みです。gydF4y2Ba

  • 年代gydF4y2BajgydF4y2Baは,バイナリ学習器jが学習する一連の観測値のインデックスです。gydF4y2Ba

  • wgydF4y2Ba 我gydF4y2Ba ∗gydF4y2Ba は,観測値我の重みです。gydF4y2Ba

ダイバージェンスは反復して最小化されます。最初のステップとして,クラス事後確率の初期値gydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba 0gydF4y2Ba )gydF4y2Ba ;gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ...gydF4y2Ba ,gydF4y2Ba KgydF4y2Ba を選択します。gydF4y2Ba

  • “NumKLIterations”gydF4y2Baを指定しない場合,次の確定的な初期値の集合が両方試され,Δを最小化する集合が選択されます。gydF4y2Ba

    • pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba 0gydF4y2Ba )gydF4y2Ba =gydF4y2Ba 1gydF4y2Ba /gydF4y2Ba KgydF4y2Ba ;gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ...gydF4y2Ba ,gydF4y2Ba KgydF4y2Ba .gydF4y2Ba

    • pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba 0gydF4y2Ba )gydF4y2Ba ;gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ...gydF4y2Ba ,gydF4y2Ba KgydF4y2Ba は,次の連立方程式の解です。gydF4y2Ba

      米gydF4y2Ba 01gydF4y2Ba pgydF4y2Ba ^gydF4y2Ba (gydF4y2Ba 0gydF4y2Ba )gydF4y2Ba =gydF4y2Ba rgydF4y2Ba ,gydF4y2Ba

      ここで,MgydF4y2Ba01gydF4y2BaはすべてのmgydF4y2BakjgydF4y2Ba= 1を0に置き換えたM, L rは個のバイナリ学習器によって返された陽性クラス事後確率のベクトルですgydF4y2Ba[Dietterich他)gydF4y2Ba。gydF4y2BalsqnonneggydF4y2Baを使いシステムを解きます。gydF4y2Ba

  • “NumKLIterations”,cgydF4y2Baを指定した場合(gydF4y2BacgydF4y2Baは自然数),集合gydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba 0gydF4y2Ba )gydF4y2Ba ;gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ...gydF4y2Ba ,gydF4y2Ba KgydF4y2Ba は次のように選択され,Δを最小化する集合が使用されます。gydF4y2Ba

    • 前述した確定的な初期値の集合の両方が試されます。gydF4y2Ba

    • 兰德gydF4y2Baを使用して長さKのベクトルgydF4y2BacgydF4y2Baを無作為に生成し,各ベクトルの合計が1になるように正規化します。gydF4y2Ba

反復tでは,以下の手順が実行されます。gydF4y2Ba

  1. rgydF4y2Ba ^gydF4y2Ba jgydF4y2Ba (gydF4y2Ba tgydF4y2Ba )gydF4y2Ba =gydF4y2Ba ∑gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba KgydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba tgydF4y2Ba )gydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba ∑gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba KgydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba tgydF4y2Ba )gydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba ∪gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba .gydF4y2Ba

    を計算します。gydF4y2Ba

  2. 次の式を使用して,次のクラスの事後確率を推定します。gydF4y2Ba

    pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba tgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba =gydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba tgydF4y2Ba )gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba wgydF4y2Ba jgydF4y2Ba [gydF4y2Ba rgydF4y2Ba jgydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba +gydF4y2Ba (gydF4y2Ba 1gydF4y2Ba −gydF4y2Ba rgydF4y2Ba jgydF4y2Ba )gydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba ]gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba wgydF4y2Ba jgydF4y2Ba [gydF4y2Ba rgydF4y2Ba ^gydF4y2Ba jgydF4y2Ba (gydF4y2Ba tgydF4y2Ba )gydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba +gydF4y2Ba (gydF4y2Ba 1gydF4y2Ba −gydF4y2Ba rgydF4y2Ba ^gydF4y2Ba jgydF4y2Ba (gydF4y2Ba tgydF4y2Ba )gydF4y2Ba )gydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba ]gydF4y2Ba .gydF4y2Ba

  3. 合計が1になるようにgydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba tgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba ;gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba ...gydF4y2Ba ,gydF4y2Ba KgydF4y2Ba を正規化します。gydF4y2Ba

  4. 収束を確認します。gydF4y2Ba

詳細については,gydF4y2Ba(Hastie他)gydF4y2BaおよびgydF4y2Ba(Zadrozny)gydF4y2Baを参照してください。gydF4y2Ba

二次計画法を使用する事後推定gydF4y2Ba

二次計画法を使用する事後確率には,优化工具箱ライセンスが必要です。この方法を使用して観測値の事後確率を推定するため,以下の手順が実行されます。gydF4y2Ba

  1. バイナリ学習器j = 1,……Lの陽性クラス事後確率rgydF4y2BajgydF4y2Baを推定します。gydF4y2Ba

  2. rgydF4y2BajgydF4y2BaとgydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba の関係を使用してgydF4y2Ba吴[他]gydF4y2Ba,次の値を最小化します。gydF4y2Ba

    ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba [gydF4y2Ba −gydF4y2Ba rgydF4y2Ba jgydF4y2Ba ∑gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba KgydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba +gydF4y2Ba (gydF4y2Ba 1gydF4y2Ba −gydF4y2Ba rgydF4y2Ba jgydF4y2Ba )gydF4y2Ba ∑gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba KgydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba ]gydF4y2Ba 2gydF4y2Ba

    これは,次の制限を適用してgydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba に関して行います。gydF4y2Ba

    0gydF4y2Ba ≤gydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba ≤gydF4y2Ba 1gydF4y2Ba ∑gydF4y2Ba kgydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1.gydF4y2Ba

    最小化にはgydF4y2BaquadproggydF4y2Ba(优化工具箱)gydF4y2Baが使用されます。gydF4y2Ba

参照gydF4y2Ba

艾尔温,E.夏皮尔,Y.辛格。《将多类减少为二进制:一种统一的保证金分类方法》。机器学习研究杂志。2000年第1卷,113-141页。gydF4y2Ba

[2] Dietterich T.和G. Bakiri。通过错误修正输出代码解决多类学习问题。人工智能研究杂志。第2卷,1995年,263-286页。gydF4y2Ba

Pujol, S. Escalera, S. O. Pujol, P. Radeva。《论三元纠错输出码的译码过程》。模式分析与机器智能学报。2010年第32卷第7期120-134页。gydF4y2Ba

Pujol, S. Escalera, S. O. Pujol, P. Radeva。用于纠错输出码稀疏设计的三元码的可分性。模式识别。2009年第30卷第3期285-297页。gydF4y2Ba

Hastie, T.和R. Tibshirani。“两两耦合分类”。年报的统计数据。1998年第26卷第2期第451-471页。gydF4y2Ba

吴廷锋,林春杰,翁仁。“基于成对耦合的多类别分类的概率估计”。机器学习研究杂志。第5卷,2004年,975-1005页。gydF4y2Ba

[7] zrozny,“通过耦合概率估计将多类分解为二进制”。《神经信息处理系统研究进展》,2001年第14期,第1041-1048页。gydF4y2Ba

拡張機能gydF4y2Ba

R2014bで導入gydF4y2Ba