このペ,ジの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。gydF4y2Ba
サポ,トベクタ,マシンまたはその他の分類器向けのマルチクラスモデルの近似gydF4y2Ba
は,テ,ブルgydF4y2BaMdlgydF4y2Ba
= fitcecoc (gydF4y2Ba资源描述gydF4y2Ba
,gydF4y2BaResponseVarNamegydF4y2Ba
)gydF4y2Ba资源描述gydF4y2Ba
内の予測子とgydF4y2Ba资源描述。ResponseVarNamegydF4y2Ba
内のクラスラベルを使用して,学習済みの完全なマルチクラスgydF4y2Ba誤り訂正出力符号(ecoc)モデルgydF4y2Baを返します。gydF4y2BafitcecocgydF4y2Ba
は1対1のgydF4y2Ba符号化設計gydF4y2BaによりK (K - 1) / 2個のバイナリサポートベクターマシン(SVM)モデルを使用します。Kは一意なクラスラベル(レベル)の数です。gydF4y2BaMdlgydF4y2Ba
はgydF4y2BaClassificationECOCgydF4y2Ba
モデルです。gydF4y2Ba
は,テ,ブルgydF4y2BaMdlgydF4y2Ba
= fitcecoc (gydF4y2Ba资源描述gydF4y2Ba
,gydF4y2Ba公式gydF4y2Ba
)gydF4y2Ba资源描述gydF4y2Ba
内の予測子とクラスラベルを使用してecocモデルを返します。gydF4y2Ba公式gydF4y2Ba
は,学習に使用する応答およびgydF4y2Ba资源描述gydF4y2Ba
内の予測子変数サブセットの説明モデルです。gydF4y2Ba
は,テ,ブルgydF4y2BaMdlgydF4y2Ba
= fitcecoc (gydF4y2Ba资源描述gydF4y2Ba
,gydF4y2BaYgydF4y2Ba
)gydF4y2Ba资源描述gydF4y2Ba
の予測子とベクトルgydF4y2BaYgydF4y2Ba
のクラスラベルを使用してecocモデルを返します。gydF4y2Ba
は,予測子gydF4y2BaMdlgydF4y2Ba
= fitcecoc (gydF4y2BaXgydF4y2Ba
,gydF4y2BaYgydF4y2Ba
)gydF4y2BaXgydF4y2Ba
とクラスラベルgydF4y2BaYgydF4y2Ba
を使用して学習をさせたecocモデルを返します。gydF4y2Ba
は,前の構文のいずれかを使用し,1以上のgydF4y2BaMdlgydF4y2Ba
= fitcecoc (gydF4y2Ba___gydF4y2Ba,gydF4y2Ba名称,值gydF4y2Ba
)gydF4y2Ba名称,值gydF4y2Ba
ペア引数で指定されたオプションを追加してecocモデルを返します。gydF4y2Ba
たとえば,異なるバ▪▪▪▪ナリ学習器,異なる符号化設計,または交差検証の実行を指定します。gydF4y2Ba名称,值gydF4y2Ba
ペア引数gydF4y2BaKfoldgydF4y2Ba
を使用して交差検証を実行することをお勧めします。交差検証の結果により、モデルがどの程度一般化を行うかを判断します。
[gydF4y2Ba
は,名前と値のペアの引数gydF4y2BaMdlgydF4y2Ba
,gydF4y2BaHyperparameterOptimizationResultsgydF4y2Ba
= fitcecocgydF4y2Ba___gydF4y2Ba,gydF4y2Ba名称,值gydF4y2Ba
)gydF4y2BaOptimizeHyperparametersgydF4y2Ba
を指定して線形またはカーネルバイナリ学習器を使用する場合に,ハイパーパラメーター最適化の詳細も返します。他のgydF4y2Ba学习者gydF4y2Ba
の場合,gydF4y2BaMdlgydF4y2Ba
のgydF4y2BaHyperparameterOptimizationResultsgydF4y2Ba
プロパティには結果が格納されます。gydF4y2Ba
サポートベクターマシン(SVM)バイナリ学習器を使用して,マルチクラス誤り訂正出力符号(ECOC)モデルに学習をさせます。gydF4y2Ba
フィッシャ,のアヤメのデ,タセットを読み込みます。予測子デ,タgydF4y2BaXgydF4y2Ba
と応答デ,タgydF4y2BaYgydF4y2Ba
を指定します。gydF4y2Ba
负载gydF4y2BafisheririsgydF4y2BaX = meas;Y =物种;gydF4y2Ba
既定のオプションを使用して,マルチクラスecocモデルに学習をさせます。gydF4y2Ba
Mdl = fitcecoc(X,Y)gydF4y2Ba
Mdl = ClassificationECOC ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'setosa' 'versicolor' 'virginica'} ScoreTransform: 'none' BinaryLearners: {3x1 cell} CodingName: 'onevsone'属性,方法gydF4y2Ba
MdlgydF4y2Ba
はgydF4y2BaClassificationECOCgydF4y2Ba
モデルです。既定では,gydF4y2BafitcecocgydF4y2Ba
はSVMバescナリ学習器および1対1符号化設計を使用します。ドット表記を使用してgydF4y2BaMdlgydF4y2Ba
プロパティにアクセスできます。gydF4y2Ba
クラス名および符号化設計行列を表示します。gydF4y2Ba
Mdl。Cl一个年代年代的名字年代gydF4y2Ba
ans =gydF4y2Ba3 x1细胞gydF4y2Ba{'setosa'} {'versicolor'} {'virginica'}gydF4y2Ba
编码垫= Mdl。CodingMatrixgydF4y2Ba
CodingMat =gydF4y2Ba3×3gydF4y2Ba1 1 0 -1 0 0 -1 -1gydF4y2Ba
3。gydF4y2BaCodingMatgydF4y2Ba
の列は学習器に,行はクラスに対応します。クラスの順序はgydF4y2BaMdl。Cl一个年代年代的名字年代gydF4y2Ba
内の順序と同じです。たとえば,gydF4y2BaCodingMat (: 1)gydF4y2Ba
はgydF4y2Ba(1;1;0]gydF4y2Ba
であり,gydF4y2Ba“setosa”gydF4y2Ba
またはgydF4y2Ba“多色的”gydF4y2Ba
として分類されるすべての観測値を使用して最初のSVMバescナリ学習器が学習を行うことを示します。gydF4y2Ba“setosa”gydF4y2Ba
はgydF4y2Ba1gydF4y2Ba
に対応するので陽性クラスであり,gydF4y2Ba“多色的”gydF4y2Ba
はgydF4y2Ba1gydF4y2Ba
に対応するので陰性クラスです。gydF4y2Ba
各バ▪▪ナリ学習器にセルの▪▪ンデックス付けおよびドット表記を使用してアクセスすることができます。gydF4y2Ba
Mdl。BinaryLearners {1}gydF4y2Ba第一个二元学习者gydF4y2Ba
ans = CompactClassificationSVM ResponseName: 'Y' CategoricalPredictors: [] ClassNames: [-1 1] ScoreTransform: 'none' Beta: [4x1 double]偏差:1.4492 KernelParameters: [1x1 struct]属性,方法gydF4y2Ba
再代入分類誤差を計算します。gydF4y2Ba
error = resubLoss(Mdl)gydF4y2Ba
误差= 0.0067gydF4y2Ba
学習デ,タに対する分類誤差は小さくなっていますが,分類器が過適合モデルになる可能性があります。代わりに,gydF4y2BacrossvalgydF4y2Ba
を使用して分類器を交差検証し,交差検証分類誤差を計算することができます。gydF4y2Ba
複数のバesc escモデルに学習をさせます。gydF4y2Ba
NLPのデ,タセットを読み込みます。gydF4y2Ba
负载gydF4y2BanlpdatagydF4y2Ba
XgydF4y2Ba
は予測子デ,タのスパ,ス行列,gydF4y2BaYgydF4y2Ba
はクラスラベルの分类ベクトルです。デタには2を超えるクラスがあります。gydF4y2Ba
既定の線形分類モデルテンプレ,トを作成します。gydF4y2Ba
t = templatlinear ();gydF4y2Ba
既定値を調整する方法にいては,gydF4y2BatemplateLineargydF4y2Ba
のペ,ジのgydF4y2Ba名前と値のペアの引数gydF4y2Baを参照してください。gydF4y2Ba
複数のバesc escモデルに学習をさせます。これらの分類モデルは,ドキュメンテーションWebページにおける単語の度数分布から製品を特定できます。学習時間を短縮するため,予測子デ,タを転置し,観測値が列に対応することを指定します。gydF4y2Ba
X = X';rng (1);gydF4y2Ba%用于再现性gydF4y2BaMdl = fitcecoc(X,Y,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“ObservationsIn”gydF4y2Ba,gydF4y2Ba“列”gydF4y2Ba)gydF4y2Ba
Mdl = CompactClassificationECOC ResponseName: 'Y' ClassNames: [1x13 categorical] ScoreTransform: 'none' BinaryLearners: {78x1 cell} CodingMatrix: [13x78 double]属性,方法gydF4y2Ba
または,gydF4y2Ba“学习者”,“线性”gydF4y2Ba
を使用して,既定の線形分類モデルから構成されているecocモデルに学習をさせることができます。gydF4y2Ba
メモリを節約するため,gydF4y2BafitcecocgydF4y2Ba
は線形分類学習器から構成されている学習済みのecocモデルをgydF4y2BaCompactClassificationECOCgydF4y2Ba
モデルオブジェクトで返します。gydF4y2Ba
支持向量机バesc escナリ学習器によるecoc分類器を交差検証し,一般化分類誤差を推定します。gydF4y2Ba
フィッシャ,のアヤメのデ,タセットを読み込みます。予測子デ,タgydF4y2BaXgydF4y2Ba
と応答デ,タgydF4y2BaYgydF4y2Ba
を指定します。gydF4y2Ba
负载gydF4y2BafisheririsgydF4y2BaX = meas;Y =物种;rng (1);gydF4y2Ba%用于再现性gydF4y2Ba
SVMテンプレ,トを作成し,予測子を標準化します。gydF4y2Ba
t = templateSVM(gydF4y2Ba“标准化”gydF4y2Ba,真正的)gydF4y2Ba
t =拟合分类支持向量机模板。Alpha: [0x1 double] BoxConstraint: [] CacheSize: [] CachingMethod: " ClipAlphas: [] DeltaGradientTolerance: [] Epsilon: [] GapTolerance: [] kkttolance: [] IterationLimit: [] KernelFunction: " KernelScale: [] KernelOffset: [] kernelpoliialorder: [] NumPrint: [] Nu: [] OutlierFraction: [] removeduplicate: [] ShrinkagePeriod: [] Solver: " StandardizeData: 1 SaveSupportVe万博1manbetxctors: [] VerbosityLevel: [] Version: 2 Method: 'SVM' Type: 'classification'gydF4y2Ba
tgydF4y2Ba
はSVMテンプレ,トです。テンプレ,トオブジェクトのプロパティは、ほとんとが空です。ECOC 分類器に学習をさせると、該当するプロパティが既定値に設定されます。
Ecoc分類器に学習をさせ,クラスの順序を指定します。gydF4y2Ba
Mdl = fitcecoc(X,Y,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba...gydF4y2Ba“类名”gydF4y2Ba, {gydF4y2Ba“setosa”gydF4y2Ba,gydF4y2Ba“多色的”gydF4y2Ba,gydF4y2Ba“virginica”gydF4y2Ba});gydF4y2Ba
MdlgydF4y2Ba
はgydF4y2BaClassificationECOCgydF4y2Ba
分類器です。ドット表記を使用してプロパティにアクセスできます。gydF4y2Ba
10分割交差検証を使用してgydF4y2BaMdlgydF4y2Ba
を交差検証します。gydF4y2Ba
CVMdl = crossval(Mdl);gydF4y2Ba
CVMdlgydF4y2Ba
はgydF4y2BaClassificationPartitionedECOCgydF4y2Ba
交差検証ecoc分類器です。gydF4y2Ba
一般化分類誤差を推定します。gydF4y2Ba
genError = kfoldLoss(cvdl)gydF4y2Ba
genError = 0.0400gydF4y2Ba
一般化分類誤差が4%なので,ecoc分類器がかなり良好に一般化を行うことがわかります。gydF4y2Ba
支持向量机バesc escナリ学習器を使用してecoc分類器に学習をさせます。はじめに,学習標本のラベルとクラス事後確率を予測します。次に,グリッド内の各点における最大のクラス事後確率を予測します。結果を可視化します。gydF4y2Ba
フィッシャ,のアヤメのデ,タセットを読み込みます。予測子として花弁の寸法を,応答として種の名前を指定します。gydF4y2Ba
负载gydF4y2BafisheririsgydF4y2BaX = meas(:,3:4);Y =物种;rng (1);gydF4y2Ba%用于再现性gydF4y2Ba
支持向量机テンプレ,トを作成します。予測子を標準化し,ガウスカ,ネルを指定します。gydF4y2Ba
t = templateSVM(gydF4y2Ba“标准化”gydF4y2Ba,真的,gydF4y2Ba“KernelFunction”gydF4y2Ba,gydF4y2Ba“高斯”gydF4y2Ba);gydF4y2Ba
tgydF4y2Ba
はSVMテンプレ,トです。ほとんどのプロパティは空です。Ecoc分類器を学習させると,適用可能なプロパティが既定値に設定されます。gydF4y2Ba
SVMテンプレ,トを使用してecoc分類器を学習させます。gydF4y2Ba“FitPosterior”gydF4y2Ba
名前と値のペアの引数を使用して分類スコアをクラス事後確率(gydF4y2Ba预测gydF4y2Ba
またはgydF4y2BaresubPredictgydF4y2Ba
により返されます)へ変換します。名前と値のペアの引数gydF4y2Ba“类名”gydF4y2Ba
を使用して,クラスの順序を指定します。名前と値のペアの引数gydF4y2Ba“详细”gydF4y2Ba
を使用して,学習中に診断メッセ,ジを表示します。gydF4y2Ba
Mdl = fitcecoc(X,Y,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“FitPosterior”gydF4y2Ba,真的,gydF4y2Ba...gydF4y2Ba“类名”gydF4y2Ba, {gydF4y2Ba“setosa”gydF4y2Ba,gydF4y2Ba“多色的”gydF4y2Ba,gydF4y2Ba“virginica”gydF4y2Ba},gydF4y2Ba...gydF4y2Ba“详细”gydF4y2Ba2);gydF4y2Ba
用50个消极和50个积极的观察来训练二元学习者1 (SVM)。负类指标:2正类指标:1拟合学习者1的后验概率(SVM)。用50个消极和50个积极的观察来训练二元学习者2 (SVM)。负类指标:3正类指标:1拟合学习者2的后验概率(SVM)。用50个消极和50个积极的观察来训练二元学习者3 (SVM)。负类指标:3正类指标:2拟合学习者3的后验概率(SVM)。gydF4y2Ba
MdlgydF4y2Ba
はgydF4y2BaClassificationECOCgydF4y2Ba
モデルです。同じSVMテンプレートが各バイナリ学習器に適用されますが,テンプレートの细胞ベクトルを渡すことで各バイナリ学習器のオプションを調整できます。gydF4y2Ba
学習標本のラベルとクラス事後確率を予測します。名前と値のペアの引数gydF4y2Ba“详细”gydF4y2Ba
を使用して,ラベルとクラス事後確率の計算中に診断メッセ,ジを表示します。gydF4y2Ba
[label,~,~,Posterior] = resubPredict(Mdl,gydF4y2Ba“详细”gydF4y2Ba1);gydF4y2Ba
所有学习者的预测都经过计算。已计算了所有观测值的损失。计算后验概率……gydF4y2Ba
Mdl。BinaryLossgydF4y2Ba
Ans = '二次元'gydF4y2Ba
バ@ @ナリ損失の平均が最小となるクラスに観測が割り当てられます。すべてのバイナリ学習器が事後確率を計算しているので、バイナリ損失関数は二次gydF4y2Ba
になります。gydF4y2Ba
無作為な結果の集合を表示します。gydF4y2Ba
idx = randsample(size(X,1),10,1);Mdl。Cl一个年代年代的名字年代gydF4y2Ba
ans =gydF4y2Ba3 x1细胞gydF4y2Ba{'setosa'} {'versicolor'} {'virginica'}gydF4y2Ba
表(Y (idx)、标签(idx)、后(idx:)gydF4y2Ba...gydF4y2Ba“VariableNames”gydF4y2Ba, {gydF4y2Ba“TrueLabel”gydF4y2Ba,gydF4y2Ba“PredLabel”gydF4y2Ba,gydF4y2Ba“后”gydF4y2Ba})gydF4y2Ba
ans =gydF4y2Ba10×3表gydF4y2BaTrueLabel PredLabel后路____________________________ ______________________________________ {'virginica'} {'virginica'} 0.0039322 0.003987 0.99208 {'virginica'} 0.017067 0.018263 0.96467 {'virginica'} 0.014948 0.015856 0.9692 {' vericolor '} {' vericolor '} 0.02197e -14 0.87318 0.12682 {' settosa '} {' settosa '} 0.999 0.00025092 0.00074638 {'versicolor'} 2.2195e-14 0.05943 0.94057 {'versicolor'} {'versicolor'} 2.2194e-14 0.97001 0.029985 {' settosa '}} {'setosa' } 0.999 0.00024991 0.0007474 {'versicolor'} {'versicolor'} 0.0085642 0.98259 0.0088487 {'setosa' } {'setosa' } 0.999 0.00025013 0.00074717
后gydF4y2Ba
の列はgydF4y2BaMdl。Cl一个年代年代的名字年代gydF4y2Ba
のクラスの順序に対応します。gydF4y2Ba
観測された予測子領域の値のグリッドを定義します。グリッド内の各@ @ンスタンスの事後確率を予測します。gydF4y2Ba
xMax = max(X);xMin = min(X);x1Pts = linspace(xMin(1),xMax(1));x2Pts = linspace(xMin(2),xMax(2));[x1Grid,x2Grid] = meshgrid(x1Pts,x2Pts);[~, ~, ~, PosteriorRegion] =预测(Mdl, [x1Grid (:), x2Grid (:)));gydF4y2Ba
各グリッドの座標では,クラス間の最大クラス事後確率をプロットします。gydF4y2Ba
contourf (x1Grid x2Grid,gydF4y2Ba...gydF4y2Ba重塑(max (PosteriorRegion[], 2),大小(x1Grid, 1),大小(x1Grid, 2)));H = colorbar;h.YLabel.String =gydF4y2Ba最大后验的gydF4y2Ba;h.YLabel.FontSize = 15;持有gydF4y2Ba在gydF4y2Bagh = gscatter(X(:,1),X(:,2),Y,gydF4y2Ba“krk”gydF4y2Ba,gydF4y2Ba‘* xd‘gydF4y2Ba8);gh(2)。l我neWidth = 2; gh(3).LineWidth = 2; title(“虹膜花瓣测量和最大后部”gydF4y2Ba)包含(gydF4y2Ba“花瓣长度(厘米)”gydF4y2Ba) ylabel (gydF4y2Ba“花瓣宽度(厘米)”gydF4y2Ba)轴gydF4y2Ba紧gydF4y2Ba传奇(gh,gydF4y2Ba“位置”gydF4y2Ba,gydF4y2Ba“西北”gydF4y2Ba)举行gydF4y2Ba从gydF4y2Ba
この例では次を使用します:gydF4y2Ba
代理分岐をも決定木のgydF4y2BaGentleBoostgydF4y2Ba
アンサンブルを使用して,1対他のecoc分類器に学習をさせます。学習を高速化するため,数値予測子をビン化し,並列計算を使用します。ビン化は,gydF4y2BafitcecocgydF4y2Ba
が木学習器を使用する場合のみ有効です。学習後,10分割交差検証を使用して分類誤差を推定します。並列計算には并行计算工具箱™ が必要であることに注意してください。
標本デ,タの読み込みgydF4y2Ba
心律失常gydF4y2Ba
デ,タセットを読み込み検証します。gydF4y2Ba
负载gydF4y2Ba心律失常gydF4y2Ba[n,p] = size(X)gydF4y2Ba
N = 452gydF4y2Ba
P = 279gydF4y2Ba
isLabels =唯一的(Y);nLabels = number (isLabels)gydF4y2Ba
nLabels = 13gydF4y2Ba
汇总(分类(Y))gydF4y2Ba
数值计数百分比1 245 54.20% 2 44 9.73% 3 15 3.32% 4 15 3.32% 5 13 2.88% 6 25 5.53% 73 0.66% 8 2 0.44% 99 1.99% 10 50 11.06% 14 4 0.88% 15 5 1.11% 16 22 4.87%gydF4y2Ba
このデ,タセットにはgydF4y2Ba279gydF4y2Ba
個の予測子が含まれ,gydF4y2Ba452gydF4y2Ba
という標本サ@ @ズは相対的に小さいものです。16個の異なるラベルのうち、13 個のみが応答 (YgydF4y2Ba
)で表現されています。各ラベルは不整脈のさまざまな段階を表しており,観測値の54.20%がクラスgydF4y2Ba1gydF4y2Ba
に含まれています。gydF4y2Ba
1対他ecoc分類器の学習gydF4y2Ba
アンサンブルテンプレ,トを作成します。少なくとも3の引数を指定しなければなりません。手法,学習器の数,および学習器のタesc escプです。この例では,手法としてgydF4y2Ba“GentleBoost”gydF4y2Ba
,学習器の個数としてgydF4y2BaOne hundred.gydF4y2Ba
を指定します。欠損観測値があるので,代理分岐を使用する決定木テンプレ,トを指定します。gydF4y2Ba
树= templateTree(gydF4y2Ba“代孕”gydF4y2Ba,gydF4y2Ba“上”gydF4y2Ba);tEnsemble =模板集成(gydF4y2Ba“GentleBoost”gydF4y2Ba, 100年,tTree);gydF4y2Ba
tEnsemblegydF4y2Ba
はテンプレ,トオブジェクトです。ほとんどのプロパティは空ですが,学習中に既定値が入力されます。gydF4y2Ba
決定木のアンサンブルをバesc escナリ学習器として使用して,1対他のesc分類器を学習させます。学習を高速化するため,ビン化と並列計算を使用します。gydF4y2Ba
ビン化(gydF4y2Ba“NumBins”,50岁gydF4y2Ba
) -学習デ,タセットが大きい場合,名前と値のペアの引数gydF4y2Ba“NumBins”gydF4y2Ba
を使用することにより学習を高速化できます(精度が低下する可能性があります)。この引数は,gydF4y2BafitcecocgydF4y2Ba
が木学習器を使用する場合のみ有効です。gydF4y2Ba“NumBins”gydF4y2Ba
の値を指定した場合,指定した個数の同確率のビンにすべての数値予測子がビン化され,元のデータではなくビンのインデックスに対して木が成長します。はじめにgydF4y2Ba“NumBins”,50岁gydF4y2Ba
を試してから,精度と学習速度に応じてgydF4y2Ba“NumBins”gydF4y2Ba
の値を変更できます。gydF4y2Ba
並列計算 (gydF4y2Ba“选项”,statset (UseParallel,真的)gydF4y2Ba
)——并行计算工具箱のライセンスがある場合,プール内のワーカーに各バイナリ学習器を送る並列計算を使用して,計算を高速化できます。ワ,カ,の個数はシステム構成によって異なります。デュアルコア以上のシステムの場合,バ化学键ナリ学習器に化学键いて決定木を使用すると,gydF4y2BafitcecocgydF4y2Ba
は英特尔®スレッディングビルディングブロック(TBB)を使用して学習を並列化します。したがって,単一のコンピュ,タ,でgydF4y2Ba“UseParallel”gydF4y2Ba
オプションを指定しても役に立ません。このオプションは,クラスタ,に対して使用します。gydF4y2Ba
さらに,事前確率として1/gydF4y2BaKgydF4y2Baを指定します。gydF4y2BaKgydF4y2Ba= 13は異なるクラスの個数です。gydF4y2Ba
选项= statset(gydF4y2Ba“UseParallel”gydF4y2Ba,真正的);Mdl = fitcecoc(X,Y,gydF4y2Ba“编码”gydF4y2Ba,gydF4y2Ba“onevsall”gydF4y2Ba,gydF4y2Ba“学习者”gydF4y2BatEnsemble,gydF4y2Ba...gydF4y2Ba“之前”gydF4y2Ba,gydF4y2Ba“统一”gydF4y2Ba,gydF4y2Ba“NumBins”gydF4y2Ba, 50岁,gydF4y2Ba“选项”gydF4y2Ba、选择);gydF4y2Ba
使用“本地”配置文件启动并行池(parpool)…连接到并行池(工人数:6)。gydF4y2Ba
MdlgydF4y2Ba
はgydF4y2BaClassificationECOCgydF4y2Ba
モデルです。gydF4y2Ba
交差検証gydF4y2Ba
10分割交差検証を使用してecoc分類器の交差検証を実行します。gydF4y2Ba
CVMdl = crossval(Mdl,gydF4y2Ba“选项”gydF4y2Ba、选择);gydF4y2Ba
警告:一个或多个折叠不包含所有组中的点。gydF4y2Ba
CVMdlgydF4y2Ba
はgydF4y2BaClassificationPartitionedECOCgydF4y2Ba
モデルです。少なくとも1。したがって,これらの分割は欠損クラスに対するラベルを予測できません。细胞のインデックス指定とドット表記を使用して、分割の結果を調査できます。たとえば、1 番目の分割の結果にアクセスするにはCVMdl。训练有素的{1}gydF4y2Ba
と入力します。gydF4y2Ba
交差検証済みのecoc分類器を使用して,検証分割のラベルを予測します。混同行列は,gydF4y2BaconfusionchartgydF4y2Ba
を使用して計算できます。内側の位置のプロパティを変更してチャートを移動およびサイズ変更することにより,行要約の内部にパーセントが表示されるようにします。gydF4y2Ba
oolabel = kfoldPredict(cvdl,gydF4y2Ba“选项”gydF4y2Ba、选择);ConfMat =混淆表(Y, oolabel,gydF4y2Ba“RowSummary”gydF4y2Ba,gydF4y2Ba“total-normalized”gydF4y2Ba);ConfMat。InnerPosition = [0.10 0.12 0.85 0.85];gydF4y2Ba
ビン化されたデ,タの再現gydF4y2Ba
学習済みモデルのgydF4y2BaBinEdgesgydF4y2Ba
プロパティと関数gydF4y2Ba离散化gydF4y2Ba
を使用して,ビン化された予測子デ,タを再現します。gydF4y2Ba
X = Mdl.X;gydF4y2Ba预测数据gydF4y2BaXbinned = 0(大小(X));edges = mld . binedges;gydF4y2Ba查找已分类预测符的索引。gydF4y2BaidxNumeric = find(~cellfun(@isempty,edges));gydF4y2Ba如果gydF4y2Baiscolumn(idxNumeric) idxNumeric = idxNumeric';gydF4y2Ba结束gydF4y2Ba为gydF4y2Baj = idxNumeric x = x (:,j);gydF4y2Ba如果x是一个表,则将x转换为数组。gydF4y2Ba如果gydF4y2Bastable(x) x = table2array(x);gydF4y2Ba结束gydF4y2Ba使用离散化函数将x分组到箱子中。gydF4y2BaXbinned =离散化(x,[-inf;边缘{};正]);Xbinned(:,j) = Xbinned;gydF4y2Ba结束gydF4y2Ba
数値予測子の場合,1からビンの個数までの範囲にあるビンのンデックスがgydF4y2BaXbinnedgydF4y2Ba
に格納されます。カテゴリカル予測子の場合,gydF4y2BaXbinnedgydF4y2Ba
の値はgydF4y2Ba0gydF4y2Ba
になります。gydF4y2BaXgydF4y2Ba
にgydF4y2Ba南gydF4y2Ba
が含まれている場合,対応するgydF4y2BaXbinnedgydF4y2Ba
の値はgydF4y2Ba南gydF4y2Ba
になります。gydF4y2Ba
fitcecocgydF4y2Ba
を使用してハパパラメタを自動的に最適化します。gydF4y2Ba
fisheririsgydF4y2Ba
デ,タセットを読み込みます。gydF4y2Ba
负载gydF4y2BafisheririsgydF4y2BaX = meas;Y =物种;gydF4y2Ba
自動的なハイパーパラメーター最適化を使用して,5分割交差検証損失を最小化するハイパーパラメーターを求めます。再現性を得るために,乱数シ,ドを設定し,gydF4y2Ba“expected-improvement-plus”gydF4y2Ba
の獲得関数を使用します。gydF4y2Ba
rnggydF4y2Ba默认的gydF4y2BaMdl = fitcecoc(X,Y,gydF4y2Ba“OptimizeHyperparameters”gydF4y2Ba,gydF4y2Ba“汽车”gydF4y2Ba,gydF4y2Ba...gydF4y2Ba“HyperparameterOptimizationOptions”gydF4y2Ba结构(gydF4y2Ba“AcquisitionFunctionName”gydF4y2Ba,gydF4y2Ba...gydF4y2Ba“expected-improvement-plus”gydF4y2Ba))gydF4y2Ba
|====================================================================================================================| | Iter | Eval客观客观| | | BestSoFar | BestSoFar编码| | BoxConstraint | KernelScale | | |结果| |运行时| | (estim(观察) .) | | | | |====================================================================================================================| | 最好1 | | 0.10667 | 1.3163 | 0.10667 | 0.10667 | onevsone | 5.6939 | 200.36 | | 2 | | 0.066667 |最好3.9662 | 0.066667 | 0.068735 | onevsone | 94.849 | 0.0032549 | | 3 |接受| 0.08 | 0.50659 | 0.066667 | 0.066837 | onevsall | 0.01378 | 0.076021 | | 4 |接受| 0.08 | 0.30295 | 0.066667 | 0.066676 | onevsall | 889 | 38.798 | | 5 |的| 0.04 | 0.58191 | 0.04 | 0.040502 | onevsone | 0.021561 | 0.01569 | | 6 |接受| 0.04 | 0.4138 | 0.04 | 0.039999 | onevsone | 0.48338 | 0.02941 | | | 7日接受| 0.04 | 0.5356 | 0.04 | 0.039989 | onevsone | 305.45 | 0.18647 | | 8 | | 0.026667 | 0.31692最好| 0.026667 | 0.026674 | onevsone | 0.0010168 | 0.10757 | | | 9日接受| 0.086667 | 0.29572 | 0.026667 | 0.026669 | onevsone | 0.001007 | 0.3275 | | 10 |接受| 0.046667 | 1.4134 | 0.026667 | 0.026673 | onevsone | 736.18 | 0.071026 | | | 11日接受| 0.04 | 0.41881 | 0.026667 | 0.035679 | onevsone | 35.928 | 0.13079 | | | 12日接受| 0.033333 | 0.39881 | 0.026667 | 0.030065 | onevsone | 0.0017593 | 0.11245 | | | 13日接受| 0.026667 | 0.39924 | 0.026667 | 0.026544 | onevsone | 0.0011306 |0.062222 | | | 14日接受| 0.026667 | 0.43605 | 0.026667 | 0.026089 | onevsone | 0.0011124 | 0.079161 | | 15 |接受| 0.026667 | 0.39881 | 0.026667 | 0.026184 | onevsone | 0.0014395 | 0.073096 | | 16最好| | 0.02 | 0.29162 | 0.02 | 0.021144 | onevsone | 0.0010299 | 0.035054 | | | 17日接受| 0.02 | 0.42839 | 0.02 | 0.020431 | onevsone | 0.0010379 | 0.03138 | | | 18日接受| 0.033333 | 0.23036 | 0.02 | 0.024292 | onevsone | 0.0011889 | 0.02915 | | | 19日接受| 0.02 | 0.36524 | 0.02 | 0.022327|在evsone | 0.0011336 | 0.042445 | | 20 | Best | 0.013333 | 0.49901 | 0.013333 | 0.020178 | onevsone | 0.0010854 | 0.048345 | |====================================================================================================================| | Iter | Eval | Objective | Objective | BestSoFar | BestSoFar | Coding | BoxConstraint| KernelScale | | | result | | runtime | (observed) | (estim.) | | | | |====================================================================================================================| | 21 | Accept | 0.5 | 14.111 | 0.013333 | 0.020718 | onevsall | 689.42 | 0.001007 | | 22 | Accept | 0.33333 | 0.36073 | 0.013333 | 0.018299 | onevsall | 0.0011091 | 1.2155 | | 23 | Accept | 0.33333 | 0.44029 | 0.013333 | 0.017851 | onevsall | 529.11 | 372.18 | | 24 | Accept | 0.04 | 0.20552 | 0.013333 | 0.017879 | onevsone | 853.41 | 22.141 | | 25 | Accept | 0.046667 | 0.25857 | 0.013333 | 0.018114 | onevsone | 744.03 | 6.3339 | | 26 | Accept | 0.10667 | 0.31018 | 0.013333 | 0.018226 | onevsone | 0.0010775 | 999.54 | | 27 | Accept | 0.04 | 0.24562 | 0.013333 | 0.018557 | onevsone | 0.0020893 | 0.001005 | | 28 | Accept | 0.10667 | 0.30717 | 0.013333 | 0.019634 | onevsone | 0.0010666 | 12.404 | | 29 | Accept | 0.32 | 13.537 | 0.013333 | 0.018352 | onevsall | 951.6 | 0.027202 | | 30 | Accept | 0.04 | 0.34911 | 0.013333 | 0.018597 | onevsone | 936.87 | 1.7813 |
__________________________________________________________ 优化完成。最大目标达到30个。总函数评估:30总运行时间:71.2792秒总目标函数评估时间:43.6404最佳观测可行点:Coding BoxConstraint KernelScale ________ _____________ ___________ onevsone 0.0010854 0.048345观测目标函数值= 0.013333估计目标函数值= 0.018594函数评估时间= 0.49901最佳估计可行点(根据模型):编码BoxConstraint KernelScale ________ _____________ ___________ onevsone 0.0011336 0.042445估计目标函数值= 0.018597估计函数评估时间= 0.36279gydF4y2Ba
Mdl = ClassificationECOC ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'setosa' 'versicolor' 'virginica'} ScoreTransform: 'none' BinaryLearners: {3x1 cell} CodingName: 'onevsone' HyperparameterOptimizationResults: [1x1 BayesianOptimization]属性,方法gydF4y2Ba
tallデ,タに対して学習をさせた2のマルチクラスECOCモデルを作成します。一方のモデルに対して線形バ▪▪ナリ学習器を,もう一方に対してカ▪▪ネルバ▪▪ナリ学習器を使用します。2のモデルの再代入分類誤差を比較します。gydF4y2Ba
一般に,高デ,タのマルチクラス分類は,gydF4y2BafitcecocgydF4y2Ba
と線形バ▪▪ナリ学習器またはカ▪▪ネルバ▪▪ナリ学習器を使用して実行できます。gydF4y2BafitcecocgydF4y2Ba
を使用して高配列に対してモデルに学習をさせる場合,SVMバイナリ学習器を直接使用することはできません。しかし,支持向量机を使用する線形バナリ分類モデルは使用できます。gydF4y2Ba
高配列に対する計算を実行する場合,MATLAB®は並列プール(并行计算工具箱™がある場合は既定)またはローカルのMATLABセッションを使用します。并行计算工具箱がある場合でもローカルのMATLABセッションを使用して例を実行するには,関数gydF4y2BamapreducegydF4y2Ba
を使用してグロ,バルな実行環境を変更できます。gydF4y2Ba
フィッシャ,のアヤメのデ,タセットが含まれているフォルダ,を参照するデ,タストアを作成します。gydF4y2Ba数据存储gydF4y2Ba
によってgydF4y2Ba南gydF4y2Ba
値に置き換えられるようにするため,gydF4y2Ba“NA”gydF4y2Ba
値を欠損デ,タとして指定します。t一个llバージョンの予測子および応答データを作成します。
数据存储(gydF4y2Ba“fisheriris.csv”gydF4y2Ba,gydF4y2Ba“TreatAsMissing”gydF4y2Ba,gydF4y2Ba“NA”gydF4y2Ba);T =高(ds);gydF4y2Ba
使用“本地”配置文件启动并行池(parpool)…连接到并行池(工人数:6)。gydF4y2Ba
X = [t]。年代epalLength t.SepalWidth t.PetalLength t.PetalWidth]; Y = t.Species;
予測子デ,タを標準化します。gydF4y2Ba
Z = zscore(X);gydF4y2Ba
tallデタと線形バナリ学習器を使用するマルチクラスECOCモデルに学習をさせます。既定では,高配列をgydF4y2BafitcecocgydF4y2Ba
に渡すと,支持向量机を使用する線形バescナリ学習器の学習が行われます。応答データに含まれている一意なクラスは3つだけなので,符号化方式を1対他(高データを使用する場合の既定)から対1(インメモリデータを使用する場合の既定)に変更します。gydF4y2Ba
再現性を得るため,gydF4y2BarnggydF4y2Ba
とgydF4y2BatallrnggydF4y2Ba
を使用して乱数発生器のシ,ドを設定します。高配列の場合,ワーカーの個数と実行環境によって結果が異なる可能性があります。詳細については、コ,ドの実行場所の制御gydF4y2Baを参照してください。gydF4y2Ba
rng (gydF4y2Ba“默认”gydF4y2Ba) tallrng (gydF4y2Ba“默认”gydF4y2Ba) mdlLinear = fitcecoc(Z,Y,gydF4y2Ba“编码”gydF4y2Ba,gydF4y2Ba“onevsone”gydF4y2Ba)gydF4y2Ba
训练二进制学习者1(线性)从3。训练二进制学习者2(线性)从3。训练二进制学习者3(线性)中的3。gydF4y2Ba
mdlLinear = CompactClassificationECOC ResponseName: 'Y' ClassNames: {'setosa' 'versicolor' 'virginica'} ScoreTransform: 'none' BinaryLearners: {3×1 cell} CodingMatrix: [3×3 double]属性,方法gydF4y2Ba
mdlLineargydF4y2Ba
は,3のバナリ学習器から構成されるgydF4y2BaCompactClassificationECOCgydF4y2Ba
モデルです。gydF4y2Ba
高データとカーネルバイナリ学習器を使用するマルチクラスECOCモデルに学習をさせます。はじめに,gydF4y2BatemplateKernelgydF4y2Ba
オブジェクトを作成して,カ,ネルバ,ナリ学習器のプロパティを指定します。具体的には,拡張次元数をgydF4y2Ba
に増やします。gydF4y2Ba
tKernel = templateKernel(gydF4y2Ba“NumExpansionDimensions”gydF4y2Ba2 ^ 16)gydF4y2Ba
tKernel =适合分类内核的模板。BetaTolerance: [] BlockSize: [] BoxConstraint: [] Epsilon: [] NumExpansionDimensions: 65536 GradientTolerance: [] HessianHistorySize: [] IterationLimit: [] KernelScale: [] Lambda: [] Learner: 'svm' LossFunction: [] Stream: [] VerbosityLevel: [] Version: 1 Method: 'Kernel' Type: 'classification'gydF4y2Ba
既定では,カ,ネルバナリ学習器は支持向量机を使用します。gydF4y2Ba
templateKernelgydF4y2Ba
オブジェクトをgydF4y2BafitcecocgydF4y2Ba
に渡し,符号化方式を1対1に変更します。gydF4y2Ba
mdlKernel = fitcecoc(Z,Y,gydF4y2Ba“学习者”gydF4y2BatKernel,gydF4y2Ba“编码”gydF4y2Ba,gydF4y2Ba“onevsone”gydF4y2Ba)gydF4y2Ba
训练二进制学习者1(内核)从3。训练二进制学习者2(内核)从3。训练二进制学习器3(内核)从3。gydF4y2Ba
mdlKernel = CompactClassificationECOC ResponseName: 'Y' ClassNames: {'setosa' 'versicolor' 'virginica'} ScoreTransform: 'none' BinaryLearners: {3×1 cell} CodingMatrix: [3×3 double]属性,方法gydF4y2Ba
mdlKernelgydF4y2Ba
も,3のバナリ学習器から構成されるgydF4y2BaCompactClassificationECOCgydF4y2Ba
モデルです。gydF4y2Ba
2のモデルの再代入分類誤差を比較します。gydF4y2Ba
errorLinear =收集(丢失(mdlLinear,Z,Y))gydF4y2Ba
使用并行池“本地”评估tall表达式:-通过1 / 1:在1.4秒内完成评估,在1.6秒内完成gydF4y2Ba
errorLinear = 0.0333gydF4y2Ba
errorKernel =收集(mdlKernel,Z,Y))gydF4y2Ba
使用并行池“本地”评估tall表达式:-通过1 / 1:在15秒内完成评估,在16秒内完成gydF4y2Ba
errorKernel = 0.0067gydF4y2Ba
mdlKernelgydF4y2Ba
が誤分類した学習デ,タの比率は,gydF4y2BamdlLineargydF4y2Ba
より少なくなっています。gydF4y2Ba
资源描述gydF4y2Ba
- - - - - -gydF4y2Ba標本デ,タgydF4y2Ba標本デ,タ。テブルとして指定します。资源描述gydF4y2Ba
の各行は1の観測値に,各列は1。オプションとして,gydF4y2Ba资源描述gydF4y2Ba
に応答変数用の列を1追加できます。文字ベクトルのcell配列ではない cell 配列と複数列の変数は使用できません。
资源描述gydF4y2Ba
に応答変数が含まれている場合にgydF4y2Ba资源描述gydF4y2Ba
内の他の変数をすべて予測子として使用するには,gydF4y2BaResponseVarNamegydF4y2Ba
を使用して応答変数を指定します。gydF4y2Ba
资源描述gydF4y2Ba
に応答変数が含まれている場合にgydF4y2Ba资源描述gydF4y2Ba
内の他の変数の一部のみを予測子として使用するには,gydF4y2Ba公式gydF4y2Ba
を使用して式を指定します。gydF4y2Ba
资源描述gydF4y2Ba
に応答変数が含まれていない場合は,gydF4y2BaYgydF4y2Ba
を使用して応答変数を指定します。応答変数の長さとgydF4y2Ba资源描述gydF4y2Ba
の行数は同じでなければなりません。gydF4y2Ba
デ,タ型:gydF4y2Ba表格gydF4y2Ba
ResponseVarNamegydF4y2Ba
- - - - - -gydF4y2Ba応答変数名gydF4y2Ba资源描述gydF4y2Ba
内の変数の名前gydF4y2Ba応答変数の名前。gydF4y2Ba资源描述gydF4y2Ba
内の変数の名前で指定します。gydF4y2Ba
ResponseVarNamegydF4y2Ba
には文字ベクトルまたは字符串スカラ,を指定しなければなりません。たとえば,応答変数gydF4y2BaYgydF4y2Ba
がgydF4y2Ba资源描述。YgydF4y2Ba
として格納されている場合,gydF4y2Ba“Y”gydF4y2Ba
として指定します。それ以外の場合,モデルを学習させるときに,gydF4y2Ba资源描述gydF4y2Ba
の列はgydF4y2BaYgydF4y2Ba
を含めてすべて予測子として扱われます。gydF4y2Ba
応答変数は,绝对配列,文字配列,字符串配列,逻辑ベクトル,数値ベクトル,または文字ベクトルの细胞配列でなければなりません。gydF4y2BaYgydF4y2Ba
が文字配列である場合,応答変数の各要素は配列の1の行に対応しなければなりません。gydF4y2Ba
名前と値の引数gydF4y2Ba一会gydF4y2Ba
を使用してクラスの順序を指定することをお勧めします。gydF4y2Ba
デ,タ型:gydF4y2Ba字符gydF4y2Ba
|gydF4y2Ba字符串gydF4y2Ba
公式gydF4y2Ba
- - - - - -gydF4y2Ba応答変数および予測子変数サブセットの説明モデルgydF4y2Ba応答変数および予測子変数サブセットの説明モデル。gydF4y2Ba“Y ~ x1 + x2 + x3”gydF4y2Ba
という形式の文字ベクトルまたは字符串スカラ,を指定します。この形式では,gydF4y2BaYgydF4y2Ba
は応答変数を,gydF4y2Bax1gydF4y2Ba
、gydF4y2Bax2gydF4y2Ba
およびgydF4y2Bax3gydF4y2Ba
は予測子変数を表します。gydF4y2Ba
モデルに学習をさせるための予測子としてgydF4y2Ba资源描述gydF4y2Ba
内の変数のサブセットを指定するには,式を使用します。式を指定した場合,gydF4y2Ba公式gydF4y2Ba
に現れないgydF4y2Ba资源描述gydF4y2Ba
内の変数は使用されません。gydF4y2Ba
式の変数名はgydF4y2Ba资源描述gydF4y2Ba
の変数名(gydF4y2BaTbl.Properties.VariableNamesgydF4y2Ba
)であり,有効なmatlabgydF4y2Ba®gydF4y2Ba識別子でなければなりません。関数gydF4y2BaisvarnamegydF4y2Ba
を使用してgydF4y2Ba资源描述gydF4y2Ba
の変数名を検証できます。変数名が有効でない場合、関数matlab.lang.makeValidNamegydF4y2Ba
を使用してそれらを変換できます。gydF4y2Ba
デ,タ型:gydF4y2Ba字符gydF4y2Ba
|gydF4y2Ba字符串gydF4y2Ba
YgydF4y2Ba
- - - - - -gydF4y2BaクラスラベルgydF4y2BaEcocモデルに学習させるクラスラベル。分类配列、文字配列、年代tring 配列、logical ベクトル、数値ベクトル、または文字ベクトルの cell 配列を指定します。
YgydF4y2Ba
が文字配列の場合,各要素は配列の1の行に対応しなければなりません。gydF4y2Ba
YgydF4y2Ba
の長さとgydF4y2Ba资源描述gydF4y2Ba
またはgydF4y2BaXgydF4y2Ba
の行数は,同じでなければなりません。gydF4y2Ba
一会gydF4y2Ba
名前と値のペアの引数を使用したクラスの順序を指定することをお勧めします。gydF4y2Ba
デ,タ型:gydF4y2Ba分类gydF4y2Ba
|gydF4y2Ba字符gydF4y2Ba
|gydF4y2Ba字符串gydF4y2Ba
|gydF4y2Ba逻辑gydF4y2Ba
|gydF4y2Ba单gydF4y2Ba
|gydF4y2Ba双gydF4y2Ba
|gydF4y2Ba细胞gydF4y2Ba
XgydF4y2Ba
- - - - - -gydF4y2Ba予測子デ,タgydF4y2Ba予測子デ,タ。非スパ,ス行列またはスパ,ス行列を指定します。
YgydF4y2Ba
の長さとgydF4y2BaXgydF4y2Ba
の観測値数は同じでなければなりません。gydF4y2Ba
予測子の名前をgydF4y2BaXgydF4y2Ba
に表示される順序で指定するには,gydF4y2BaPredictorNamesgydF4y2Ba
名前と値のペアの引数を使用します。gydF4y2Ba
メモgydF4y2Ba
線形分類学習器の場合,観測値が列に対応するようにgydF4y2BaXgydF4y2Ba
を配置してgydF4y2Ba“ObservationsIn”、“列”gydF4y2Ba
を指定すると,最適化実行時間が大幅に短縮される可能性があります。gydF4y2Ba
他のすべての学習器では,観測値が行に対応するようにgydF4y2BaXgydF4y2Ba
を配置します。gydF4y2Ba
fitcecocgydF4y2Ba
は,線形分類モデルの学習のみにいてスパス行列をサポトします。gydF4y2Ba
デ,タ型:gydF4y2Ba双gydF4y2Ba
|gydF4y2Ba单gydF4y2Ba
メモgydF4y2Ba
南gydF4y2Ba
,空の文字ベクトル(gydF4y2Ba”gydF4y2Ba
),空のstring (gydF4y2Ba""gydF4y2Ba
)、gydF4y2Ba< >失踪gydF4y2Ba
およびgydF4y2Ba<定义>gydF4y2Ba
要素は欠損デ,タとして扱われます。gydF4y2BaYgydF4y2Ba
の欠損値に対応する行gydF4y2BaXgydF4y2Ba
は削除されます。ただし,gydF4y2BaXgydF4y2Ba
の欠損値の処理はバ@ @ナリ学習器によって異なります。詳細にいては,バナリ学習器の学習関数gydF4y2BafitcdiscrgydF4y2Ba
、gydF4y2BafitckernelgydF4y2Ba
、gydF4y2BafitcknngydF4y2Ba
、gydF4y2BafitclineargydF4y2Ba
、gydF4y2BafitcnbgydF4y2Ba
、gydF4y2BafitcsvmgydF4y2Ba
、gydF4y2BafitctreegydF4y2Ba
またはgydF4y2BafitcensemblegydF4y2Ba
を参照してください。観測の削除により,有効な学習や交差検証の標本サ。gydF4y2Ba
オプションのgydF4y2Ba名称,值gydF4y2Ba
引数のコンマ区切りペアを指定します。gydF4y2Ba的名字gydF4y2Ba
は引数名で,gydF4y2Ba价值gydF4y2Ba
は対応する値です。gydF4y2Ba的名字gydF4y2Ba
は引用符で囲まなければなりません。gydF4y2BaName1, Value1,…,的家gydF4y2Ba
のように,複数の名前と値のペアの引数を,任意の順番で指定できます。gydF4y2Ba
“学习者”,“树”、“编码”,“onevsone”、“CrossVal”,“上”gydF4y2Ba
は,すべてのバイナリ学習器について決定木を使用し,対1の符号化設計を使用し,10分割の交差検証を実装することを指定します。gydF4y2Ba
メモgydF4y2Ba
交差検証の名前と値のペアの引数を名前と値のペアの引数gydF4y2Ba“OptimizeHyperparameters”gydF4y2Ba
と同時に使用することはできません。gydF4y2Ba“OptimizeHyperparameters”gydF4y2Ba
の場合の交差検証は,名前と値のペアの引数gydF4y2Ba“HyperparameterOptimizationOptions”gydF4y2Ba
を使用することのみによって変更できます。gydF4y2Ba
编码gydF4y2Ba
- - - - - -gydF4y2Ba符号化設計gydF4y2Ba“onevsone”gydF4y2Ba
(既定値) |gydF4y2Ba“allpairs”gydF4y2Ba
|gydF4y2Ba“binarycomplete”gydF4y2Ba
|gydF4y2Ba“denserandom”gydF4y2Ba
|gydF4y2Ba“onevsall”gydF4y2Ba
|gydF4y2Ba“顺序”gydF4y2Ba
|gydF4y2Ba“sparserandom”gydF4y2Ba
|gydF4y2Ba“ternarycomplete”gydF4y2Ba
|gydF4y2Ba数値行列gydF4y2Ba符号化設計名。gydF4y2Ba“编码”gydF4y2Ba
と数値行列または次の表の値から構成されるコンマ区切りのペアとして指定します。gydF4y2Ba
値gydF4y2Ba | バ@ @ナリ学習器の数gydF4y2Ba | 説明gydF4y2Ba |
---|---|---|
“allpairs”gydF4y2Ba およびgydF4y2Ba“onevsone”gydF4y2Ba |
K(K - 1)/2gydF4y2Ba | 各バ▪▪ナリ学習器では,1▪▪のクラスが正であり,もう1▪▪のクラスは負です。残りは無視されます。この計画はすべてのクラスペアの割り当ての組み合わせを使用します。gydF4y2Ba |
“binarycomplete”gydF4y2Ba |
この計画はクラスをすべて2の組み合わせに分割します。いずれのクラスも無視されません。各バesc escナリ学習器で,すべてのクラス割り当てがgydF4y2Ba-1gydF4y2Ba とgydF4y2Ba1gydF4y2Ba になります。陽性クラスと陰性クラスが少なくとも1ず。gydF4y2Ba |
|
“denserandom”gydF4y2Ba |
ランダム。ただし,約 10 log2gydF4y2BaKgydF4y2Ba | 各バ▪▪ナリ学習器には,陽性または陰性クラス(少なくとも各1▪▪)が無作為に割り当てられます。詳細は,gydF4y2Baランダム符号化設計行列gydF4y2Baを参照してください。gydF4y2Ba |
“onevsall”gydF4y2Ba |
KgydF4y2Ba | 各バ▪▪ナリ学習器では,1▪▪のクラスは正で残りは負です。この計画は陽性クラス割り当てのすべての組み合わせを使用します。gydF4y2Ba |
“顺序”gydF4y2Ba |
K - 1gydF4y2Ba | 最初のバ▪▪▪▪ナリ学習器では,最初のクラスは負であり,残りは正です。2番目のバイナリ学習器では、初めの 2 つのクラスが負になり、残りが正になります。3 番目以降も同様です。 |
“sparserandom”gydF4y2Ba |
ランダム。ただし,約 15 log2gydF4y2BaKgydF4y2Ba | 各バイナリ学習器では,各クラスに確率0.25で正または負が無作為に割り当てられ,確率0.5がの場合にクラスが無視されます。詳細は,gydF4y2Baランダム符号化設計行列gydF4y2Baを参照してください。gydF4y2Ba |
“ternarycomplete”gydF4y2Ba |
この計画はクラスをすべて3の組み合わせに分割します。すべてのクラス割り当てがgydF4y2Ba0gydF4y2Ba 、gydF4y2Ba-1gydF4y2Ba およびgydF4y2Ba1gydF4y2Ba になります。陽性クラスと陰性クラスが少なくとも1ず。gydF4y2Ba |
符号化設計をカスタムコ,ディング行列を使用して指定できます。カスタム符号化行列はk行l列の行列です。各行はクラスに対応し,各列はバ。クラス順(行)はgydF4y2Ba一会gydF4y2Ba
での順序に対応します。以下のガ▪▪ドラ▪▪ンに従って行列を作成します。gydF4y2Ba
カスタムコ,ディング行列は,すべての要素がgydF4y2Ba-1gydF4y2Ba
、gydF4y2Ba0gydF4y2Ba
またはgydF4y2Ba1gydF4y2Ba
でなければなりません。また,値は二分法によるクラス割り当てに対応しなければなりません。この表は编码(i, j)gydF4y2Ba
の意味を説明します。まり,学習器gydF4y2BajgydF4y2Ba
がクラスgydF4y2Ba我gydF4y2Ba
の観測値に割り当てるクラスです。gydF4y2Ba
値gydF4y2Ba | 二分法によるクラス割り当てgydF4y2Ba |
---|---|
1gydF4y2Ba |
学習器gydF4y2BajgydF4y2Ba は,クラスgydF4y2Ba我gydF4y2Ba の観測値を陰性クラスに割り当てます。gydF4y2Ba |
0gydF4y2Ba |
学習の前に,学習器gydF4y2BajgydF4y2Ba はクラスgydF4y2Ba我gydF4y2Ba の観測値をデ,タセットから削除します。gydF4y2Ba |
1gydF4y2Ba |
学習器gydF4y2BajgydF4y2Ba は,クラスgydF4y2Ba我gydF4y2Ba の観測値を陽性クラスに割り当てます。gydF4y2Ba |
すべての列には少なくとも1のgydF4y2Ba-1gydF4y2Ba
またはgydF4y2Ba1gydF4y2Ba
がなければなりません。gydF4y2Ba
我gydF4y2Ba
≠gydF4y2BajgydF4y2Ba
となるすべての列@ @ンデックスgydF4y2Ba我gydF4y2Ba
およびgydF4y2BajgydF4y2Ba
に対して,gydF4y2Ba编码(:,我)gydF4y2Ba
はgydF4y2Ba编码(:,j)gydF4y2Ba
に等しくなることができず,gydF4y2Ba编码(:,我)gydF4y2Ba
はgydF4y2Ba编码(:,j)gydF4y2Ba
に等しくなることができません。gydF4y2Ba
カスタムコ,ディング行列のすべての行は異なっていなければなりません。gydF4y2Ba
カスタム符号化設計行列の形式の詳細にいては,gydF4y2Baカスタム符号化設計行列gydF4y2Baを参照してください。gydF4y2Ba
例:gydF4y2Ba“编码”、“ternarycomplete”gydF4y2Ba
デ,タ型:gydF4y2Ba字符gydF4y2Ba
|gydF4y2Ba字符串gydF4y2Ba
|gydF4y2Ba双gydF4y2Ba
|gydF4y2Ba单gydF4y2Ba
|gydF4y2Baint16gydF4y2Ba
|gydF4y2Baint32gydF4y2Ba
|gydF4y2Baint64gydF4y2Ba
|gydF4y2Baint8gydF4y2Ba
FitPosteriorgydF4y2Ba
- - - - - -gydF4y2Baスコアを事後確率に変換するかどうかを示すフラグgydF4y2Ba假gydF4y2Ba
またはgydF4y2Ba0gydF4y2Ba
(既定値) |gydF4y2Ba真正的gydF4y2Ba
またはgydF4y2Ba1gydF4y2Ba
スコアを変換して事後確率にするかどうかを示すフラグ。gydF4y2Ba“FitPosterior”gydF4y2Ba
およびgydF4y2Ba真正的gydF4y2Ba
(gydF4y2Ba1gydF4y2Ba
)またはgydF4y2Ba假gydF4y2Ba
(gydF4y2Ba0gydF4y2Ba
)で構成されるコンマ区切りのペアで指定します。gydF4y2Ba
FitPosteriorgydF4y2Ba
がgydF4y2Ba真正的gydF4y2Ba
の場合,バ。事後確率は,gydF4y2BakfoldPredictgydF4y2Ba
、gydF4y2Ba预测gydF4y2Ba
またはgydF4y2BaresubPredictgydF4y2Ba
を使用して取得できます。gydF4y2Ba
以下の場合,gydF4y2BafitcecocgydF4y2Ba
は事後確率のあてはめをサポ,トしません。gydF4y2Ba
アンサンブル法がgydF4y2BaAdaBoostM2gydF4y2Ba
、gydF4y2BaLPBoostgydF4y2Ba
、gydF4y2BaRUSBoostgydF4y2Ba
、gydF4y2BaRobustBoostgydF4y2Ba
またはgydF4y2BaTotalBoostgydF4y2Ba
である。gydF4y2Ba
バescナリ学習器(gydF4y2Ba学习者gydF4y2Ba
)が,支持向量机を実装する線形分類モデルまたはカ,ネル分類モデルである。線形分類モデルまたはカーネル分類モデルの事後確率を得るには、代わりにロジスティック回帰を実装してください。
例:gydF4y2Ba“FitPosterior”,真的gydF4y2Ba
デ,タ型:gydF4y2Ba逻辑gydF4y2Ba
学习者gydF4y2Ba
- - - - - -gydF4y2Baバ▪▪ナリ学習器テンプレ▪▪トgydF4y2Ba“支持向量机”gydF4y2Ba
(既定値) |gydF4y2Ba“判别”gydF4y2Ba
|gydF4y2Ba“内核”gydF4y2Ba
|gydF4y2Ba“资讯”gydF4y2Ba
|gydF4y2Ba“线性”gydF4y2Ba
|gydF4y2Ba“naivebayes”gydF4y2Ba
|gydF4y2Ba“树”gydF4y2Ba
|gydF4y2Baテンプレ,トオブジェクトgydF4y2Ba|gydF4y2BaテンプレトオブジェクトのcellベクトルgydF4y2Baバ▪▪ナリ学習器テンプレ▪▪ト。gydF4y2Ba“学习者”gydF4y2Ba
と文字ベクトル,弦スカラー,テンプレートオブジェクト,またはテンプレートオブジェクトの细胞ベクトルから構成されるコンマ区切りのペアとして指定します。特に,svmなどのバ,支持向量机ナリ学習器と,gydF4y2BaGentleBoostgydF4y2Ba
、gydF4y2BaLogitBoostgydF4y2Ba
およびgydF4y2BaRobustBoostgydF4y2Ba
を使用するアンサンブルを指定すると,マルチクラス問題の解を求めることができます。ただし,gydF4y2BafitcecocgydF4y2Ba
もバ▪▪ナリ分類器としてマルチクラスモデルをサポ▪▪トしています。gydF4y2Ba
学习者gydF4y2Ba
が文字ベクトルまたは字符串スカラーである場合,指定されたアルゴリズムの既定値を使用して各バイナリ学習器の学習が行なわれます。次の表は,使用可能なアルゴリズムをまとめたものです。gydF4y2Ba
値gydF4y2Ba | 説明gydF4y2Ba |
---|---|
“判别”gydF4y2Ba |
判別分析。既定のオプションにいては,gydF4y2BatemplateDiscriminantgydF4y2Ba を参照してください。gydF4y2Ba |
“内核”gydF4y2Ba |
カ,ネル分類モデル。既定のオプションにいては,gydF4y2BatemplateKernelgydF4y2Ba を参照してください。gydF4y2Ba |
“资讯”gydF4y2Ba |
K最近傍。既定のオプションにいては,gydF4y2BatemplateKNNgydF4y2Ba を参照してください。gydF4y2Ba |
“线性”gydF4y2Ba |
線形分類モデル。既定のオプションにいては,gydF4y2BatemplateLineargydF4y2Ba を参照してください。gydF4y2Ba |
“naivebayes”gydF4y2Ba |
単純ベ@ @ズ。既定のオプションにいては,gydF4y2BatemplateNaiveBayesgydF4y2Ba を参照してください。gydF4y2Ba |
“支持向量机”gydF4y2Ba |
支持向量机。既定のオプションにいては,gydF4y2BatemplateSVMgydF4y2Ba を参照してください。gydF4y2Ba |
“树”gydF4y2Ba |
分類木。既定のオプションにいては,gydF4y2BatemplateTreegydF4y2Ba を参照してください。gydF4y2Ba |
学习者gydF4y2Ba
がテンプレトオブジェクトの場合,各バナリ学習器は格納されているオプションに従って学習します。テンプレ,トオブジェクトは以下を使用して作成できます。gydF4y2Ba
templateDiscriminantgydF4y2Ba
、判別分析用。gydF4y2Ba
templateEnsemblegydF4y2Ba
,アンサンブル学習用。少なくとも学習の方式(gydF4y2Ba方法gydF4y2Ba
),学習器の数(gydF4y2BaNLearngydF4y2Ba
)および学習器のタ龋プ(gydF4y2Ba学习者gydF4y2Ba
)を指定しなくてはなりません。バ@ @ナリ学習にはアンサンブルメソッドgydF4y2BaAdaBoostM2gydF4y2Ba
を使用できません。gydF4y2Ba
templateKernelgydF4y2Ba
,カ,ネル分類用。gydF4y2Ba
K最近傍向けのgydF4y2BatemplateKNNgydF4y2Ba
。gydF4y2Ba
templateLineargydF4y2Ba
、線形分類用。gydF4y2Ba
templateNaiveBayesgydF4y2Ba
,単純ベescズ用。gydF4y2Ba
templateSVMgydF4y2Ba
,支持向量机用。gydF4y2Ba
templateTreegydF4y2Ba
、分類木用。gydF4y2Ba
学习者gydF4y2Ba
がテンプレ,トオブジェクトの单元格ベクトルである場合,以下のようになります。gydF4y2Ba
セルjは,バjナリ学習器j(符号化設計行列のj列目)に対応します。细胞ベクトルの長さはLでなければなりません。Lは,符号化設計行列の列数です。詳細にいては,gydF4y2Ba编码gydF4y2Ba
を参照してください。gydF4y2Ba
予測に組み込み損失関数のいずれかを使用するには,すべてのバイナリ学習器は同じ範囲のスコアを返さなくてはなりません。たとえば,既定の支持向量机バ。前者は(-∞,∞)の範囲にあるスコアを,後者はスコアとして事後確率を返します。それ以外の場合は,カスタム損失を関数ハンドルとして関数gydF4y2Ba预测gydF4y2Ba
やgydF4y2Ba损失gydF4y2Ba
などに指定しなくてはなりません。gydF4y2Ba
線形分類モデル学習器のテンプレ,トを他のテンプレ,トとともに指定することはできません。gydF4y2Ba
同様に,カ,ネル分類モデル学習器のテンプレ,トを他のテンプレ,トとともに指定することはできません。gydF4y2Ba
既定では,既定の支持向量机テンプレ,トが学習器の学習に使用されます。gydF4y2Ba
例:gydF4y2Ba“学习者”,“树”gydF4y2Ba
NumBinsgydF4y2Ba
- - - - - -gydF4y2Ba数値予測子のビンの個数gydF4y2Ba[]gydF4y2Ba
(空)gydF4y2Ba(既定値) |gydF4y2Ba正の整数スカラgydF4y2Ba数値予測子のビンの個数。gydF4y2Ba“NumBins”gydF4y2Ba
と正の整数スカラ,から構成されるコンマ区切りのペアとして指定します。この引数は,gydF4y2BafitcecocgydF4y2Ba
が木学習器を使用する場合,化学式まり,gydF4y2Ba“学习者”gydF4y2Ba
がgydF4y2Ba“树”gydF4y2Ba
、gydF4y2BatemplateTreegydF4y2Ba
を使用して作成したテンプレ,トオブジェクト,またはgydF4y2BatemplateEnsemblegydF4y2Ba
と木弱学習器を使用して作成したテンプレ,トオブジェクトである場合のみ有効です。gydF4y2Ba
“NumBins”gydF4y2Ba
の値が空(既定)である場合,gydF4y2BafitcecocgydF4y2Ba
はどの予測子もビン化しません。gydF4y2Ba
“NumBins”gydF4y2Ba
の値として正の整数スカラ(gydF4y2BanumBinsgydF4y2Ba
)を指定した場合,gydF4y2BafitcecocgydF4y2Ba
は最大gydF4y2BanumBinsgydF4y2Ba
個の同確率のビンにすべての数値予測子をビン化し,元のデータではなくビンのインデックスに対して木が成長します。gydF4y2Ba
予測子に含まれる一意の値がgydF4y2BanumBinsgydF4y2Ba
より少なければ,ビンの数をgydF4y2BanumBinsgydF4y2Ba
より少なくすることができます。gydF4y2Ba
fitcecocgydF4y2Ba
は,カテゴリカル予測子をビン化しません。gydF4y2Ba
大規模な学習データセットを使用する場合,このビン化オプションを使用すると学習を高速化できますが,精度が低下する可能性があります。はじめにgydF4y2Ba“NumBins”,50岁gydF4y2Ba
を試してから,精度と学習速度に応じて値を変更できます。gydF4y2Ba
学習済みのモデルでは,ビンのエッジはgydF4y2BaBinEdgesgydF4y2Ba
プロパティに格納されます。gydF4y2Ba
例:gydF4y2Ba“NumBins”,50岁gydF4y2Ba
デ,タ型:gydF4y2Ba单gydF4y2Ba
|gydF4y2Ba双gydF4y2Ba
NumConcurrentgydF4y2Ba
- - - - - -gydF4y2Ba同時に学習をさせるバ@ @ナリ学習器の個数gydF4y2Ba1gydF4y2Ba
(既定値) |gydF4y2Ba正の整数スカラgydF4y2Ba同時に学習をさせるバ@ @ナリ学習器の個数。gydF4y2Ba“NumConcurrent”gydF4y2Ba
と正の整数スカラ,から構成されるコンマ区切りのペアとして指定します。既定値は,gydF4y2BafitcecocgydF4y2Ba
が逐次的にバ@ @ナリ学習器に学習をさせることを意味するgydF4y2Ba1gydF4y2Ba
です。gydF4y2Ba
メモgydF4y2Ba
このオプションは,高配列に対してgydF4y2BafitcecocgydF4y2Ba
を使用する場合のみ適用されます。詳細は,gydF4y2Ba高配列gydF4y2Baを参照してください。gydF4y2Ba
デ,タ型:gydF4y2Ba单gydF4y2Ba
|gydF4y2Ba双gydF4y2Ba
ObservationsIngydF4y2Ba
- - - - - -gydF4y2Ba予測子デ,タにおける観測値の次元gydF4y2Ba“行”gydF4y2Ba
(既定値) |gydF4y2Ba“列”gydF4y2Ba
予測子デ,タにおける観測値の次元。gydF4y2Ba“ObservationsIn”gydF4y2Ba
とgydF4y2Ba“列”gydF4y2Ba
またはgydF4y2Ba“行”gydF4y2Ba
から構成されるコンマ区切りのペアとして指定します。gydF4y2Ba
メモgydF4y2Ba
線形分類学習器の場合,観測値が列に対応するようにgydF4y2BaXgydF4y2Ba
を配置してgydF4y2Ba“ObservationsIn”、“列”gydF4y2Ba
を指定すると,最適化実行時間が大幅に短縮される可能性があります。gydF4y2Ba
他のすべての学習器では,観測値が行に対応するようにgydF4y2BaXgydF4y2Ba
を配置します。gydF4y2Ba
例:gydF4y2Ba“ObservationsIn”、“列”gydF4y2Ba
详细的gydF4y2Ba
- - - - - -gydF4y2Ba詳細レベルgydF4y2Ba0gydF4y2Ba
(既定値) |gydF4y2Ba1gydF4y2Ba
|gydF4y2Ba2gydF4y2Ba
詳細レベル。gydF4y2Ba“详细”gydF4y2Ba
およびgydF4y2Ba0gydF4y2Ba
、gydF4y2Ba1gydF4y2Ba
またはgydF4y2Ba2gydF4y2Ba
のいずれかで構成されるコンマ区切りのペアとして指定します。gydF4y2Ba详细的gydF4y2Ba
により,コマンドウィンドウに表示されるバ。gydF4y2Ba
次の表は,使用できる詳細レベルオプションの一覧です。gydF4y2Ba
値gydF4y2Ba | 説明gydF4y2Ba |
---|---|
0gydF4y2Ba |
診断情報は表示されません。gydF4y2Ba |
1gydF4y2Ba |
新しいバ▪▪ナリ学習器を学習させるたびに診断メッセ▪▪ジが表示されます。gydF4y2Ba |
2gydF4y2Ba |
新しいバ▪▪ナリ学習器を学習させるたびに追加の診断メッセ▪▪ジが表示されます。gydF4y2Ba |
各バesc escナリ学習器には,この名前と値のペアの引数とは無関係な独自の詳細レベルがあります。バナリ学習器の詳細レベルを変更するには,テンプレトオブジェクトを作成し,名前と値のペアの引数gydF4y2Ba“详细”gydF4y2Ba
を指定します。その後,名前と値のペアの引数gydF4y2Ba“学习者”gydF4y2Ba
を使用してテンプレ,トオブジェクトをgydF4y2BafitcecocgydF4y2Ba
に渡します。gydF4y2Ba
例:gydF4y2Ba“详细”,1gydF4y2Ba
デ,タ型:gydF4y2Ba双gydF4y2Ba
|gydF4y2Ba单gydF4y2Ba
CrossValgydF4y2Ba
- - - - - -gydF4y2Ba交差検証分類器を学習させるためのフラグgydF4y2Ba“关闭”gydF4y2Ba
(既定値) |gydF4y2Ba“上”gydF4y2Ba
交差検証分類器を学習させるためのフラグ。gydF4y2Ba“Crossval”gydF4y2Ba
とgydF4y2Ba“上”gydF4y2Ba
またはgydF4y2Ba“关闭”gydF4y2Ba
で構成されるコンマ区切りのペアとして指定します。gydF4y2Ba
“上”gydF4y2Ba
を指定すると,10の分割を使用して交差検証分類器の学習が実行されます。gydF4y2Ba
CVPartitiongydF4y2Ba
、gydF4y2Ba坚持gydF4y2Ba
、gydF4y2BaKFoldgydF4y2Ba
またはgydF4y2BaLeaveoutgydF4y2Ba
名前と値のペアの引数のいずれかを使用してこの交差検証の設定をオバラドできます。交差検証済みモデルを作成するときに使用できる交差検証の名前と値のペアの引数は、一度に 1 つだけです。
または,後でgydF4y2BaMdlgydF4y2Ba
をgydF4y2BacrossvalgydF4y2Ba
に渡して交差検証を実行します。gydF4y2Ba
例:gydF4y2Ba“Crossval”,“上”gydF4y2Ba
CVPartitiongydF4y2Ba
- - - - - -gydF4y2Ba交差検証分割gydF4y2Ba[]gydF4y2Ba
(既定値) |gydF4y2BacvpartitiongydF4y2Ba
分割オブジェクトgydF4y2Ba交差検証分割。gydF4y2BacvpartitiongydF4y2Ba
で作成したgydF4y2BacvpartitiongydF4y2Ba
分割オブジェクトとして指定します。分割オブジェクトは,交差検証のタイプと、学習セットおよび検証セットのインデックス付けを指定します。
交差検証済みモデルの作成で指定できる名前と値の引数は,gydF4y2BaCVPartitiongydF4y2Ba
、gydF4y2Ba坚持gydF4y2Ba
、gydF4y2BaKFoldgydF4y2Ba
、gydF4y2BaLeaveoutgydF4y2Ba
の4。gydF4y2Ba
例:gydF4y2Bacvp = cvpartition(500,'KFold',5)gydF4y2Ba
を使用して,500個の観測値に対する5分割交差検証にいて無作為な分割を作成するとします。この場合,gydF4y2Ba“CVPartition”,本量利gydF4y2Ba
を使用して交差検証済みモデルを指定できます。gydF4y2Ba
坚持gydF4y2Ba
- - - - - -gydF4y2Baホ,ルドアウト検証の対象デ,タの比率gydF4y2Baホ,ルドアウト検証に使用されるデ,タの比率.(0,1)の範囲のスカラ,値として指定します. (0,1)gydF4y2Ba‘坚持’,pgydF4y2Ba
を指定した場合,以下の手順が実行されます。gydF4y2Ba
p * 100gydF4y2Ba
%のデ,タを無作為に選択して検証デ,タとして確保し,残りのデ,タを使用してモデルに学習をさせる。gydF4y2Ba
コンパクトな学習済みモデルを交差検証済みモデルのgydF4y2Ba训练有素的gydF4y2Ba
プロパティに格納する。gydF4y2Ba
交差検証済みモデルの作成で指定できる名前と値の引数は,gydF4y2BaCVPartitiongydF4y2Ba
、gydF4y2Ba坚持gydF4y2Ba
、gydF4y2BaKFoldgydF4y2Ba
、gydF4y2BaLeaveoutgydF4y2Ba
の4。gydF4y2Ba
例:gydF4y2Ba“坚持”,0.1gydF4y2Ba
デ,タ型:gydF4y2Ba双gydF4y2Ba
|gydF4y2Ba单gydF4y2Ba
KFoldgydF4y2Ba
- - - - - -gydF4y2Ba分割の数gydF4y2Ba10gydF4y2Ba
(既定値) |gydF4y2Ba1より大きい正の整数値gydF4y2Ba交差検証済みモデルで使用する分割の数。1より大きい正の整数値として指定します。gydF4y2BaKFold, kgydF4y2Ba
を指定した場合,以下の手順が実行されます。gydF4y2Ba
デ,タを無作為にgydF4y2BakgydF4y2Ba
個のセットに分割する。gydF4y2Ba
各セットにいて,そのセットを検定デタとして確保し,他のgydF4y2BakgydF4y2Ba
- 1gydF4y2Ba個のセットを使用してモデルに学習をさせる。gydF4y2Ba
kgydF4y2Ba
個のコンパクトな学習済みモデルを,交差検証済みモデルのgydF4y2Ba训练有素的gydF4y2Ba
プロパティに含まれているgydF4y2BakgydF4y2Ba
行1列のcellベクトルに格納する。gydF4y2Ba
交差検証済みモデルの作成で指定できる名前と値の引数は,gydF4y2BaCVPartitiongydF4y2Ba
、gydF4y2Ba坚持gydF4y2Ba
、gydF4y2BaKFoldgydF4y2Ba
、gydF4y2BaLeaveoutgydF4y2Ba
の4。gydF4y2Ba
例:gydF4y2Ba“KFold”,5gydF4y2Ba
デ,タ型:gydF4y2Ba单gydF4y2Ba
|gydF4y2Ba双gydF4y2Ba
LeaveoutgydF4y2Ba
- - - - - -gydF4y2Ba放过一个法の交差検証のフラグgydF4y2Ba“关闭”gydF4y2Ba
(既定値) |gydF4y2Ba“上”gydF4y2Ba
放过一个法の交差検証のフラグ。gydF4y2Ba“Leaveout”gydF4y2Ba
とgydF4y2Ba“上”gydF4y2Ba
またはgydF4y2Ba“关闭”gydF4y2Ba
で構成されるコンマ区切りのペアとして指定します。gydF4y2Ba“Leaveout”,“上”gydF4y2Ba
を指定する場合,n個の各観察に対して,次が実行されます。ここで,nはgydF4y2Ba尺寸(Mdl.X, 1)gydF4y2Ba
です。gydF4y2Ba
観測は検証デ,タとして予約され,モデルは他のn - 1個の観測を使用して学習させるgydF4y2Ba
N個のコンパクトな学習済みモデルを,交差検証済みモデルのgydF4y2Ba训练有素的gydF4y2Ba
プロパティに含まれているn行1列のcellベクトルのセルに格納する。gydF4y2Ba
交差検証済みモデルを作成するために使用できるオプションは,gydF4y2BaCVPartitiongydF4y2Ba
、gydF4y2Ba坚持gydF4y2Ba
、gydF4y2BaKFoldgydF4y2Ba
、gydF4y2BaLeaveoutgydF4y2Ba
のいずれかのみです。gydF4y2Ba
メモgydF4y2Ba
線形分類モデル学習器またはカーネル分類モデル学習器から構成されるECOCモデルの交差検証では,分析は推奨されません。gydF4y2Ba
例:gydF4y2Ba“Leaveout”,“上”gydF4y2Ba
CategoricalPredictorsgydF4y2Ba
- - - - - -gydF4y2Baカテゴリカル予測子のリストgydF4y2Ba“所有”gydF4y2Ba
カテゴリカル予測子のリスト。次の表のいずれかの値として指定します。gydF4y2Ba
値gydF4y2Ba | 説明gydF4y2Ba |
---|---|
正の整数のベクトルgydF4y2Ba | ベクトルの各エントリは,カテゴリカル変数が含まれている予測子データの列に対応するインデックス値です。ンデックス値の範囲は1 ~gydF4y2Ba
|
逻辑ベクトルgydF4y2Ba |
|
文字行列gydF4y2Ba | 行列の各行は予測子変数の名前です。名前はgydF4y2BaPredictorNamesgydF4y2Ba のエントリに一致しなくてはなりません。文字行列の各行が同じ長さになるように、名前を余分な空白で埋めてください。 |
文字ベクトルのcell配列または字符串配列gydF4y2Ba | 配列の各要素は予測子変数の名前です。名前はgydF4y2BaPredictorNamesgydF4y2Ba のエントリに一致しなくてはなりません。gydF4y2Ba |
“所有”gydF4y2Ba |
すべての予測子がカテゴリカルです。gydF4y2Ba |
“CategoricalPredictors”gydF4y2Ba
の仕様は以下の場合適切です。gydF4y2Ba
少なくとも1つの予測子がカテゴリカルであり,すべてのバイナリ学習器が分類木,単純ベイズ学習器,支持向量机,線形学習器,カーネル学習器,または分類木のアンサンブルである場合。gydF4y2Ba
すべての予測子がカテゴリカルで少なくとも1のバナリ学習器がkNNである場合。gydF4y2Ba
他の学習器の場合にgydF4y2Ba“CategoricalPredictors”gydF4y2Ba
を指定すると,そのバ。たとえば,ソフトウェアは、カテゴリカル予測子を使用して判別分析分類器に学習させることはできません。
各学習器は,学習器に対応する近似関数と同じ方法でカテゴリカル予測子を特定して処理します。カネル学習器にいてはgydF4y2BafitckernelgydF4y2Ba
のgydF4y2Ba“CategoricalPredictors”gydF4y2Ba
を,k最近傍学習器にいてはgydF4y2BafitcknngydF4y2Ba
のgydF4y2Ba“CategoricalPredictors”gydF4y2Ba
を,線形学習器にいてはgydF4y2BafitclineargydF4y2Ba
のgydF4y2Ba“CategoricalPredictors”gydF4y2Ba
を,単純ベ▪▪▪ズ学習器に▪▪▪いてはgydF4y2BafitcnbgydF4y2Ba
のgydF4y2Ba“CategoricalPredictors”gydF4y2Ba
を,支持向量机学習器にいてはgydF4y2BafitcsvmgydF4y2Ba
のgydF4y2Ba“CategoricalPredictors”gydF4y2Ba
を,木学習器にいてはgydF4y2BafitctreegydF4y2Ba
のgydF4y2Ba“CategoricalPredictors”gydF4y2Ba
を参照してください。gydF4y2Ba
例:gydF4y2Ba“CategoricalPredictors”、“所有”gydF4y2Ba
デ,タ型:gydF4y2Ba单gydF4y2Ba
|gydF4y2Ba双gydF4y2Ba
|gydF4y2Ba逻辑gydF4y2Ba
|gydF4y2Ba字符gydF4y2Ba
|gydF4y2Ba字符串gydF4y2Ba
|gydF4y2Ba细胞gydF4y2Ba
一会gydF4y2Ba
- - - - - -gydF4y2Ba学習に使用するクラスの名前gydF4y2Ba学習に使用するクラスの名前。分类配列、文字配列、string 配列、logical ベクトル、数値ベクトル、または文字ベクトルの cell 配列として指定します。一会gydF4y2Ba
のデ,タ型はgydF4y2Ba资源描述gydF4y2Ba
内の応答変数またはgydF4y2BaYgydF4y2Ba
と同じでなければなりません。gydF4y2Ba
一会gydF4y2Ba
が文字配列の場合,各要素は配列の1の行に対応しなければなりません。gydF4y2Ba
一会gydF4y2Ba
の使用目的は次のとおりです。gydF4y2Ba
学習時のクラスの順序を指定する。gydF4y2Ba
クラスの順序に対応する入力または出力引数の次元の順序を指定する。たとえば,gydF4y2Ba成本gydF4y2Ba
の次元の順序やgydF4y2Ba预测gydF4y2Ba
によって返される分類スコアの列の順序を指定するためにgydF4y2Ba一会gydF4y2Ba
を使用します。gydF4y2Ba
学習用にクラスのサブセットを選択する。たとえば,gydF4y2BaYgydF4y2Ba
に含まれているすべての異なるクラス名の集合がgydF4y2Ba{' a ', ' b ', ' c '}gydF4y2Ba
であるとします。クラスgydF4y2Ba“一个”gydF4y2Ba
およびgydF4y2Ba“c”gydF4y2Ba
のみの観測値を使用してモデルに学習をさせるには,gydF4y2Ba“类名”,{' a ', ' c '}gydF4y2Ba
を指定します。gydF4y2Ba
一会gydF4y2Ba
の既定値は,gydF4y2Ba资源描述gydF4y2Ba
内の応答変数またはgydF4y2BaYgydF4y2Ba
に含まれているすべての異なるクラス名の集合です。gydF4y2Ba
例:gydF4y2Ba“类名”,{' b ', ' g '}gydF4y2Ba
デ,タ型:gydF4y2Ba分类gydF4y2Ba
|gydF4y2Ba字符gydF4y2Ba
|gydF4y2Ba字符串gydF4y2Ba
|gydF4y2Ba逻辑gydF4y2Ba
|gydF4y2Ba单gydF4y2Ba
|gydF4y2Ba双gydF4y2Ba
|gydF4y2Ba细胞gydF4y2Ba
成本gydF4y2Ba
- - - - - -gydF4y2Ba誤分類のコストgydF4y2Ba誤分類のコスト。gydF4y2Ba“成本”gydF4y2Ba
と正方行列または構造体から構成されるコンマ区切りペアとして指定します。指定する項目によって,内容は次のように変わります。gydF4y2Ba
正方行列gydF4y2Ba成本gydF4y2Ba
の場合,gydF4y2Ba成本(i, j)gydF4y2Ba
は真のクラスがgydF4y2Ba我gydF4y2Ba
である点をクラスgydF4y2BajgydF4y2Ba
に分類するコストです。まり,行は真のクラスに、列は予測するクラスに対応します。成本gydF4y2Ba
の対応する行および列にいてクラスの順序を指定するには,名前と値のペアの引数gydF4y2Ba一会gydF4y2Ba
をさらに指定します。gydF4y2Ba
構造体gydF4y2Ba年代gydF4y2Ba
の場合,次の2のフィルドが必要となります。gydF4y2Ba
S.ClassNamesgydF4y2Ba
:gydF4y2BaYgydF4y2Ba
と同じデ,タ型のクラス名を表す変数を含む。gydF4y2Ba
S.ClassificationCostsgydF4y2Ba
。行と列の順序がgydF4y2BaS.ClassNamesgydF4y2Ba
と同じコスト行列。gydF4y2Ba
既定値はgydF4y2Ba(gydF4y2Ba
です。gydF4y2BaKgydF4y2Ba
) -眼睛(gydF4y2BaKgydF4y2Ba
)gydF4y2BaKgydF4y2Ba
は異なるクラスの数です。gydF4y2Ba
例:gydF4y2Ba'Cost',[0 12 2;1 0 2;2 2 0]gydF4y2Ba
デ,タ型:gydF4y2Ba双gydF4y2Ba
|gydF4y2Ba单gydF4y2Ba
|gydF4y2Ba结构体gydF4y2Ba
选项gydF4y2Ba
- - - - - -gydF4y2Ba並列計算オプションgydF4y2Ba[]gydF4y2Ba
(既定値) |gydF4y2BastatsetgydF4y2Ba
によって返される構造体配列gydF4y2Ba並列計算。gydF4y2Ba“选项”gydF4y2Ba
とgydF4y2BastatsetgydF4y2Ba
により返される構造体配列で構成されるコンマ区切りのペアとして指定します。これらのオプションには并行计算工具箱™が必要です。gydF4y2BafitcecocgydF4y2Ba
はフィ,ルドgydF4y2Ba“流”gydF4y2Ba
、gydF4y2Ba“UseParallel”gydF4y2Ba
およびgydF4y2Ba“UseSubtreams”gydF4y2Ba
を使用します。gydF4y2Ba
次の表は,使用できるオプションの一覧です。gydF4y2Ba
オプションgydF4y2Ba | 説明gydF4y2Ba |
---|---|
“流”gydF4y2Ba |
これらが真の場合は,並列プ,ルと同じサズのcell配列を使用します。並列プルが開いていない場合,1(基本設定に依存)。gydF4y2Ba |
“UseParallel”gydF4y2Ba |
并行计算工具箱を保有している場合,gydF4y2Ba デュアルコア以上のシステムの場合,バ化学键ナリ学習器に化学键いて決定木を使用すると,gydF4y2Ba |
“UseSubstreams”gydF4y2Ba |
並列計算する場合はgydF4y2Ba真正的gydF4y2Ba に設定してgydF4y2Ba“流”gydF4y2Ba で指定されたストリ,ムを使用します。既定値はgydF4y2Ba假gydF4y2Ba です。たとえば,gydF4y2Ba流gydF4y2Ba をgydF4y2Ba“mlfg6331_64”gydF4y2Ba またはgydF4y2Ba“mrg32k3a”gydF4y2Ba といったサブストリムを許可するタプに設定します。gydF4y2Ba |
確実に結果を予測しやすくなるベストプラクティスは,gydF4y2BaparpoolgydF4y2Ba
(并行计算工具箱)gydF4y2Baを使用し,gydF4y2BafitcecocgydF4y2Ba
によって並列計算を呼び出す前に並列プ,ルを明示的に生成します。gydF4y2Ba
例:gydF4y2Ba“选项”,statset (UseParallel,真的)gydF4y2Ba
デ,タ型:gydF4y2Ba结构体gydF4y2Ba
PredictorNamesgydF4y2Ba
- - - - - -gydF4y2Ba予測子変数名gydF4y2Ba予測子変数名。一意な名前の字符串配列または一意な文字ベクトルの单元格配列として指定します。gydF4y2BaPredictorNamesgydF4y2Ba
の機能は,学習デ,タの提供方法によって決まります。gydF4y2Ba
XgydF4y2Ba
とgydF4y2BaYgydF4y2Ba
を指定した場合,gydF4y2BaPredictorNamesgydF4y2Ba
を使用してgydF4y2BaXgydF4y2Ba
内の予測子変数に名前を割り当てることができます。gydF4y2Ba
PredictorNamesgydF4y2Ba
内の名前の順序は,gydF4y2BaXgydF4y2Ba
の列の順序に一致しなければなりません。まり,gydF4y2BaPredictorNames {1}gydF4y2Ba
はgydF4y2BaX (: 1)gydF4y2Ba
の名前,gydF4y2BaPredictorNames {2}gydF4y2Ba
はgydF4y2BaX (:, 2)gydF4y2Ba
の名前であり,他も同様です。また,gydF4y2Ba大小(X, 2)gydF4y2Ba
とgydF4y2Ba元素个数(PredictorNames)gydF4y2Ba
は等しくなければなりません。gydF4y2Ba
既定ではgydF4y2BaPredictorNamesgydF4y2Ba
はgydF4y2Ba{x1, x2,…}gydF4y2Ba
です。gydF4y2Ba
资源描述gydF4y2Ba
を指定する場合,gydF4y2BaPredictorNamesgydF4y2Ba
を使用して学習に使用する予測子変数を選択できます。まり,gydF4y2BafitcecocgydF4y2Ba
は,学習中にgydF4y2BaPredictorNamesgydF4y2Ba
の予測子変数と応答変数のみを使用します。gydF4y2Ba
PredictorNamesgydF4y2Ba
はgydF4y2BaTbl.Properties.VariableNamesgydF4y2Ba
のサブセットでなければならず,応答変数の名前を含めることはできません。gydF4y2Ba
既定では,すべての予測子変数の名前がgydF4y2BaPredictorNamesgydF4y2Ba
に格納されます。gydF4y2Ba
“PredictorNames”gydF4y2Ba
とgydF4y2Ba公式gydF4y2Ba
の両方ではなく,いずれか一方を使用して学習用の予測子を指定することをお勧めします。gydF4y2Ba
例:gydF4y2BaPredictorNames,{‘SepalLength’,‘SepalWidth’,‘PetalLength’,‘PetalWidth}gydF4y2Ba
デ,タ型:gydF4y2Ba字符串gydF4y2Ba
|gydF4y2Ba细胞gydF4y2Ba
之前gydF4y2Ba
- - - - - -gydF4y2Ba事前確率gydF4y2Ba“经验”gydF4y2Ba
(既定値) |gydF4y2Ba“统一”gydF4y2Ba
|gydF4y2Ba数値ベクトルgydF4y2Ba|gydF4y2Ba構造体配列gydF4y2Ba各クラスの事前確率。gydF4y2Ba“之前”gydF4y2Ba
と次の表の値から構成されるコンマ区切りのペアとして指定します。gydF4y2Ba
値gydF4y2Ba | 説明gydF4y2Ba |
---|---|
“经验”gydF4y2Ba |
クラスの事前確率は,gydF4y2BaYgydF4y2Ba のクラスの相対的頻度です。gydF4y2Ba |
“统一”gydF4y2Ba |
クラスの事前確率はいずれも1/ k (kはクラス数)となります。gydF4y2Ba |
数値ベクトルgydF4y2Ba | 各要素はクラスの事前確率です。gydF4y2BaMdlgydF4y2Ba .ClassNamesgydF4y2Ba に従って要素を並べ替えるか,gydF4y2Ba一会gydF4y2Ba 名前と値のペアの引数を使用して順序を指定します。要素は合計がgydF4y2Ba1gydF4y2Ba になるように正規化されます。gydF4y2Ba |
構造体gydF4y2Ba | 構造体gydF4y2Ba
|
クラスの事前確率を組み込む方法にいては,gydF4y2Ba事前確率とコストgydF4y2Baを参照してください。gydF4y2Ba
例:gydF4y2Ba结构(“类名”,{{setosa,杂色的,‘virginica}}, ClassProbs, 1:3)gydF4y2Ba
デ,タ型:gydF4y2Ba单gydF4y2Ba
|gydF4y2Ba双gydF4y2Ba
|gydF4y2Ba字符gydF4y2Ba
|gydF4y2Ba字符串gydF4y2Ba
|gydF4y2Ba结构体gydF4y2Ba
ResponseNamegydF4y2Ba
- - - - - -gydF4y2Ba応答変数名gydF4y2Ba“Y”gydF4y2Ba
(既定値) |gydF4y2Ba文字ベクトルgydF4y2Ba|gydF4y2Ba字符串スカラgydF4y2Ba応答変数名。文字ベクトルまたは字符串スカラ,として指定します。gydF4y2Ba
YgydF4y2Ba
を指定した場合,gydF4y2Ba“ResponseName”gydF4y2Ba
を使用して応答変数の名前を指定できます。gydF4y2Ba
ResponseVarNamegydF4y2Ba
またはgydF4y2Ba公式gydF4y2Ba
を指定した場合,gydF4y2Ba“ResponseName”gydF4y2Ba
を使用することはできません。gydF4y2Ba
例:gydF4y2Ba“ResponseName”、“响应”gydF4y2Ba
デ,タ型:gydF4y2Ba字符gydF4y2Ba
|gydF4y2Ba字符串gydF4y2Ba
ScoreTransformgydF4y2Ba
- - - - - -gydF4y2Baスコア変換gydF4y2Ba“没有”gydF4y2Ba
(既定値) |gydF4y2Ba“doublelogit”gydF4y2Ba
|gydF4y2Ba“invlogit”gydF4y2Ba
|gydF4y2Ba“ismax”gydF4y2Ba
|gydF4y2Ba分对数的gydF4y2Ba
|gydF4y2Ba関数ハンドルgydF4y2Ba|……gydF4y2Baスコア変換。文字ベクトル,字符串スカラ,または関数ハンドルとして指定します。gydF4y2Ba
次の表は,使用可能な文字ベクトルおよび字符串スカラ,をまとめています。gydF4y2Ba
値gydF4y2Ba | 説明gydF4y2Ba |
---|---|
“doublelogit”gydF4y2Ba |
1/(1 + egydF4y2Ba2 xgydF4y2Ba)gydF4y2Ba |
“invlogit”gydF4y2Ba |
Log (x / (1 - x))gydF4y2Ba |
“ismax”gydF4y2Ba |
最大のスコアをも1 0gydF4y2Ba |
分对数的gydF4y2Ba |
1/(1 + egydF4y2Ba- xgydF4y2Ba)gydF4y2Ba |
“没有”gydF4y2Ba またはgydF4y2Ba“身份”gydF4y2Ba |
X(変換なし)gydF4y2Ba |
“标志”gydF4y2Ba |
X < 0のとき-1gydF4y2Ba X = 0のとき0gydF4y2Ba X > 0のときgydF4y2Ba |
“对称”gydF4y2Ba |
2x - 1gydF4y2Ba |
“symmetricismax”gydF4y2Ba |
最大のスコアをも1に設定し,他のすべてのクラスのスコアを-1に設定するgydF4y2Ba |
“symmetriclogit”gydF4y2Ba |
2/(1 + egydF4y2Ba- xgydF4y2Ba) - 1gydF4y2Ba |
Matlab関数またはユ,ザ,定義関数の場合は,スコア変換用の関数ハンドルを使用します。関数ハンドルは,行列 (元のスコア) を受け入れて同じサイズの行列 (変換したスコア) を返さなければなりません。
例:gydF4y2Ba“ScoreTransform”、“分对数的gydF4y2Ba
デ,タ型:gydF4y2Ba字符gydF4y2Ba
|gydF4y2Ba字符串gydF4y2Ba
|gydF4y2Bafunction_handlegydF4y2Ba
权重gydF4y2Ba
- - - - - -gydF4y2Ba観測値の重みgydF4y2Ba资源描述gydF4y2Ba
内の変数の名前gydF4y2Ba観測値の重み。gydF4y2Ba“重量”gydF4y2Ba
と,正の値の数値ベクトルまたはgydF4y2Ba资源描述gydF4y2Ba
内の変数の名前から構成されるコンマ区切りのペアとして指定します。gydF4y2BaXgydF4y2Ba
またはgydF4y2Ba资源描述gydF4y2Ba
の各行に含まれている観測値は,gydF4y2Ba权重gydF4y2Ba
の対応する値で重み付けされます。gydF4y2Ba权重gydF4y2Ba
のサ电子邮箱ズは,gydF4y2BaXgydF4y2Ba
またはgydF4y2Ba资源描述gydF4y2Ba
の行数と等しくなければなりません。gydF4y2Ba
入力デ,タをテ,ブルgydF4y2Ba资源描述gydF4y2Ba
として指定した場合,gydF4y2Ba权重gydF4y2Ba
は数値ベクトルが含まれているgydF4y2Ba资源描述gydF4y2Ba
内の変数の名前にすることができます。この場合,gydF4y2Ba权重gydF4y2Ba
には文字ベクトルまたは字符串スカラ,を指定しなければなりません。たとえば,重みベクトルgydF4y2BaWgydF4y2Ba
がgydF4y2Ba资源描述。WgydF4y2Ba
として格納されている場合,gydF4y2Ba' W 'gydF4y2Ba
として指定します。それ以外の場合,モデルに学習をさせるときに,gydF4y2Ba资源描述gydF4y2Ba
の列はgydF4y2BaWgydF4y2Ba
を含めてすべて予測子または応答として扱われます。gydF4y2Ba
合計が各クラスの事前確率の値と等しくなるようにgydF4y2Ba权重gydF4y2Ba
が正規化されます。gydF4y2Ba
既定の設定では,gydF4y2Ba权重gydF4y2Ba
はgydF4y2Ba(gydF4y2Ba
です。gydF4y2BangydF4y2Ba
,1)gydF4y2BangydF4y2Ba
はgydF4y2BaXgydF4y2Ba
またはgydF4y2Ba资源描述gydF4y2Ba
の観測値数です。gydF4y2Ba
デ,タ型:gydF4y2Ba双gydF4y2Ba
|gydF4y2Ba单gydF4y2Ba
|gydF4y2Ba字符gydF4y2Ba
|gydF4y2Ba字符串gydF4y2Ba
OptimizeHyperparametersgydF4y2Ba
- - - - - -gydF4y2Ba最適化するパラメタgydF4y2Ba“没有”gydF4y2Ba
(既定値) |gydF4y2Ba“汽车”gydF4y2Ba
|gydF4y2Ba“所有”gydF4y2Ba
|gydF4y2Ba使用可能パラメ,タ,名のstring配列またはcell配列gydF4y2Ba|gydF4y2BaoptimizableVariablegydF4y2Ba
オブジェクトのベクトルgydF4y2Ba最適化するパラメタ。gydF4y2Ba“OptimizeHyperparameters”gydF4y2Ba
と次のいずれかから構成されるコンマ区切りのペアとして指定します。gydF4y2Ba
“没有”gydF4y2Ba
-最適化を行いません。gydF4y2Ba
“汽车”gydF4y2Ba
-指定されたgydF4y2Ba学习者gydF4y2Ba
の既定パラメ,タ,と共にgydF4y2Ba{“编码”}gydF4y2Ba
を使用します。gydF4y2Ba
学习者gydF4y2Ba
=gydF4y2Ba“支持向量机”gydF4y2Ba
(既定)-gydF4y2Ba{“BoxConstraint”、“KernelScale”}gydF4y2Ba
学习者gydF4y2Ba
=gydF4y2Ba“判别”gydF4y2Ba
- - - - - -gydF4y2Ba{“三角洲”,“伽马”}gydF4y2Ba
学习者gydF4y2Ba
=gydF4y2Ba“内核”gydF4y2Ba
- - - - - -gydF4y2Ba{“KernelScale”、“λ”}gydF4y2Ba
学习者gydF4y2Ba
=gydF4y2Ba“资讯”gydF4y2Ba
- - - - - -gydF4y2Ba{‘距离’,‘NumNeighbors}gydF4y2Ba
学习者gydF4y2Ba
=gydF4y2Ba“线性”gydF4y2Ba
- - - - - -gydF4y2Ba{“λ”、“学习者”}gydF4y2Ba
学习者gydF4y2Ba
=gydF4y2Ba“naivebayes”gydF4y2Ba
- - - - - -gydF4y2Ba{“DistributionNames”、“宽度”}gydF4y2Ba
学习者gydF4y2Ba
=gydF4y2Ba“树”gydF4y2Ba
- - - - - -gydF4y2Ba{' MinLeafSize '}gydF4y2Ba
“所有”gydF4y2Ba
—すべての使用可能パラメタを最適化します。gydF4y2Ba
使用可能パラメ,タ,名のstring配列またはcell配列gydF4y2Ba
optimizableVariablegydF4y2Ba
オブジェクトのベクトル。通常はgydF4y2BahyperparametersgydF4y2Ba
の出力です。gydF4y2Ba
最適化では,パラメ,タ,を変化させることにより,gydF4y2BafitcecocgydF4y2Ba
の交差検証損失(誤差)を最小化しようとします。別の状況における交差検証損失の詳細にいては,gydF4y2Ba分類損失gydF4y2Baを参照してください。交差検証のタイプおよびその他の最適化の側面を制御するには、名前と値のペアHyperparameterOptimizationOptionsgydF4y2Ba
を使用します。gydF4y2Ba
メモgydF4y2Ba
“OptimizeHyperparameters”gydF4y2Ba
の値は,他の名前と値のペアの引数を使用して設定した値より優先されます。たとえば,gydF4y2Ba“OptimizeHyperparameters”gydF4y2Ba
をgydF4y2Ba“汽车”gydF4y2Ba
に設定すると,gydF4y2Ba“汽车”gydF4y2Ba
の値が適用されます。gydF4y2Ba
fitcecocgydF4y2Ba
では,以下のパラメ,タ,を使用できます。gydF4y2Ba
编码gydF4y2Ba
- - - - - -gydF4y2BafitcecocgydF4y2Ba
はgydF4y2Ba“onevsall”gydF4y2Ba
とgydF4y2Ba“onevsone”gydF4y2Ba
で探索します。gydF4y2Ba
次の表で指定されている,選択したgydF4y2Ba学习者gydF4y2Ba
に対する使用可能ハパパラメタ。gydF4y2Ba
学習器gydF4y2Ba | 使用可能ハパパラメタgydF4y2Ba (太字は既定の設定)gydF4y2Ba |
既定の範囲gydF4y2Ba |
---|---|---|
“判别”gydF4y2Ba |
δgydF4y2Ba |
範囲gydF4y2Ba(1 e-6, 1 e3)gydF4y2Ba の対数スケ,ルgydF4y2Ba |
DiscrimTypegydF4y2Ba |
“线性”gydF4y2Ba 、gydF4y2Ba“二次”gydF4y2Ba 、gydF4y2Ba“diagLinear”gydF4y2Ba 、gydF4y2Ba“diagQuadratic”gydF4y2Ba 、gydF4y2Ba“pseudoLinear”gydF4y2Ba およびgydF4y2Ba“pseudoQuadratic”gydF4y2Ba |
|
γgydF4y2Ba |
[0, 1]gydF4y2Ba の実数値gydF4y2Ba |
|
“内核”gydF4y2Ba |
λgydF4y2Ba |
範囲gydF4y2Ba(1 e - 3 / NumObservations, e3 / NumObservations]gydF4y2Ba の対数スケ,ルの正の値gydF4y2Ba |
KernelScalegydF4y2Ba |
範囲gydF4y2Ba(1 e - 3, 1 e3)gydF4y2Ba の対数スケ,ルの正の値gydF4y2Ba |
|
学习者gydF4y2Ba |
“支持向量机”gydF4y2Ba およびgydF4y2Ba“物流”gydF4y2Ba |
|
NumExpansionDimensionsgydF4y2Ba |
範囲gydF4y2Ba(100、10000)gydF4y2Ba の対数スケ,ルの整数gydF4y2Ba |
|
“资讯”gydF4y2Ba |
距离gydF4y2Ba |
“cityblock”gydF4y2Ba 、gydF4y2Ba“chebychev”gydF4y2Ba 、gydF4y2Ba“相关”gydF4y2Ba 、gydF4y2Ba的余弦gydF4y2Ba 、gydF4y2Ba“欧几里得”gydF4y2Ba 、gydF4y2Ba“汉明”gydF4y2Ba 、gydF4y2Ba“jaccard”gydF4y2Ba 、gydF4y2Ba“mahalanobis”gydF4y2Ba 、gydF4y2Ba闵可夫斯基的gydF4y2Ba 、gydF4y2Ba“seuclidean”gydF4y2Ba およびgydF4y2Ba“枪兵”gydF4y2Ba |
DistanceWeightgydF4y2Ba |
“平等”gydF4y2Ba 、gydF4y2Ba“逆”gydF4y2Ba およびgydF4y2Ba“squaredinverse”gydF4y2Ba |
|
指数gydF4y2Ba |
(0.5, 3)gydF4y2Ba の正の値gydF4y2Ba |
|
NumNeighborsgydF4y2Ba |
範囲gydF4y2Ba[1,马克斯(2轮(NumObservations / 2)))gydF4y2Ba の対数スケ,ルの正の整数値gydF4y2Ba |
|
标准化gydF4y2Ba |
“真正的”gydF4y2Ba およびgydF4y2Ba“假”gydF4y2Ba |
|
“线性”gydF4y2Ba |
λgydF4y2Ba |
範囲gydF4y2Ba[1 e-5 / NumObservations 1 e5 / NumObservations]gydF4y2Ba の対数スケ,ルの正の値gydF4y2Ba |
学习者gydF4y2Ba |
“支持向量机”gydF4y2Ba およびgydF4y2Ba“物流”gydF4y2Ba |
|
正则化gydF4y2Ba |
“岭”gydF4y2Ba およびgydF4y2Ba“套索”gydF4y2Ba |
|
“naivebayes”gydF4y2Ba |
DistributionNamesgydF4y2Ba |
“正常”gydF4y2Ba およびgydF4y2Ba“内核”gydF4y2Ba |
宽度gydF4y2Ba |
範囲gydF4y2Ba[MinPredictorDiff / 4,马克斯(MaxPredictorRange MinPredictorDiff)]gydF4y2Ba の対数スケ,ルの正の値gydF4y2Ba |
|
内核gydF4y2Ba |
“正常”gydF4y2Ba 、gydF4y2Ba“盒子”gydF4y2Ba 、gydF4y2Ba“epanechnikov”gydF4y2Ba ,およびgydF4y2Ba“三角形”gydF4y2Ba |
|
“支持向量机”gydF4y2Ba |
BoxConstraintgydF4y2Ba |
範囲gydF4y2Ba(1 e - 3, 1 e3)gydF4y2Ba の対数スケ,ルの正の値gydF4y2Ba |
KernelScalegydF4y2Ba |
範囲gydF4y2Ba(1 e - 3, 1 e3)gydF4y2Ba の対数スケ,ルの正の値gydF4y2Ba |
|
KernelFunctiongydF4y2Ba |
“高斯”gydF4y2Ba 、gydF4y2Ba“线性”gydF4y2Ba およびgydF4y2Ba多项式的gydF4y2Ba |
|
PolynomialOrdergydF4y2Ba |
範囲gydF4y2Ba(2、4)gydF4y2Ba の整数gydF4y2Ba |
|
标准化gydF4y2Ba |
“真正的”gydF4y2Ba およびgydF4y2Ba“假”gydF4y2Ba |
|
“树”gydF4y2Ba |
MaxNumSplitsgydF4y2Ba |
範囲gydF4y2BaNumObservations-1[1,马克斯(2))gydF4y2Ba の対数スケ,ルの整数gydF4y2Ba |
MinLeafSizegydF4y2Ba |
範囲gydF4y2Ba[1,马克斯(2楼(NumObservations / 2)))gydF4y2Ba の対数スケ,ルの整数gydF4y2Ba |
|
NumVariablesToSamplegydF4y2Ba |
範囲gydF4y2BaNumPredictors[1,马克斯(2))gydF4y2Ba の整数gydF4y2Ba |
|
SplitCriteriongydF4y2Ba |
gdi的gydF4y2Ba 、gydF4y2Ba“异常”gydF4y2Ba およびgydF4y2Ba“两个”gydF4y2Ba |
または,選択したgydF4y2Ba学习者gydF4y2Ba
と共にgydF4y2BahyperparametersgydF4y2Ba
を次のように使用します。gydF4y2Ba
负载gydF4y2BafisheririsgydF4y2Ba超参数需要数据和学习器gydF4y2BaParams =超参数(gydF4y2Ba“fitcecoc”gydF4y2Ba量,物种,gydF4y2Ba“支持向量机”gydF4y2Ba);gydF4y2Ba
使用可能な,または既定のハイパーパラメーターを調べるには,gydF4y2Ba参数个数gydF4y2Ba
を確認します。gydF4y2Ba
既定以外のパラメ,タ,を設定するには,既定以外の値が含まれているgydF4y2BaoptimizableVariablegydF4y2Ba
オブジェクトのベクトルを渡します。たとえば,以下のようにします。gydF4y2Ba
负载gydF4y2BafisheririsgydF4y2BaParams =超参数(gydF4y2Ba“fitcecoc”gydF4y2Ba量,物种,gydF4y2Ba“支持向量机”gydF4y2Ba);参数(2)。Range = [1e-4,1e6];gydF4y2Ba
OptimizeHyperparametersgydF4y2Ba
の値としてgydF4y2Ba参数个数gydF4y2Ba
を渡します。gydF4y2Ba
既定では,コマンドラインに反復表示が表示され,最適化のハイパーパラメーターの個数に従ってプロットが表示されます。最適化とプロットにおける目的関数は,回帰の場合はgydF4y2BaLog(1 +交叉验证损失)gydF4y2Ba,分類の場合は誤分類率です。反復表示を制御するには,名前と値のペアの引数gydF4y2Ba“HyperparameterOptimizationOptions”gydF4y2Ba
のgydF4y2Ba详细的gydF4y2Ba
フィ,ルドを設定します。プロットを制御するには,名前と値のペアの引数gydF4y2Ba“HyperparameterOptimizationOptions”gydF4y2Ba
のgydF4y2BaShowPlotsgydF4y2Ba
フィ,ルドを設定します。gydF4y2Ba
たとえば,gydF4y2BaEcoc分類器の最適化gydF4y2Baを参照してください。gydF4y2Ba
例:gydF4y2Ba“汽车”gydF4y2Ba
HyperparameterOptimizationOptionsgydF4y2Ba
- - - - - -gydF4y2Ba最適化のオプションgydF4y2Ba最適化のオプション。gydF4y2Ba“HyperparameterOptimizationOptions”gydF4y2Ba
と構造体から構成されるコンマ区切りのペアとして指定します。この引数を指定すると,名前と値のペアの引数gydF4y2BaOptimizeHyperparametersgydF4y2Ba
の効果が変化します。この構造体のフィ,ルドは,すべてオプションです。gydF4y2Ba
フィ,ルド名gydF4y2Ba | 値gydF4y2Ba | 既定の設定gydF4y2Ba |
---|---|---|
优化器gydF4y2Ba |
|
“bayesopt”gydF4y2Ba |
AcquisitionFunctionNamegydF4y2Ba |
オブジェクト関数のランタesc escムによって最適化が異なるので,名前にgydF4y2Ba |
“expected-improvement-per-second-plus”gydF4y2Ba |
MaxObjectiveEvaluationsgydF4y2Ba |
目的関数評価の最大数。gydF4y2Ba | “bayesopt”gydF4y2Ba またはgydF4y2Ba“randomsearch”gydF4y2Ba の場合はgydF4y2Ba30.gydF4y2Ba 、gydF4y2Ba“gridsearch”gydF4y2Ba の場合はグリッド全体gydF4y2Ba |
MaxTimegydF4y2Ba |
制限時間。正の実数を指定します。制限時間の単位は,gydF4y2Ba |
正gydF4y2Ba |
NumGridDivisionsgydF4y2Ba |
“gridsearch”gydF4y2Ba における各次元の値の個数。値は、各次元の値の個数を表す正の整数のベクトル、またはすべての次元に適用されるスカラーが可能です。カテゴリカル変数の場合、このフィールドは無視されます。 |
10gydF4y2Ba |
ShowPlotsgydF4y2Ba |
プロットを表示するかどうかを示す論理値。gydF4y2Ba真正的gydF4y2Ba の場合,最良の目的関数の値が反復回数に対してプロットされます。1,gydF4y2Ba优化器gydF4y2Ba がgydF4y2Ba“bayesopt”gydF4y2Ba である場合,gydF4y2BaShowPlotsgydF4y2Ba はパラメ,タ,に対する目的関数のモデルのプロットも行います。gydF4y2Ba |
真正的gydF4y2Ba |
SaveIntermediateResultsgydF4y2Ba |
优化器gydF4y2Ba がgydF4y2Ba“bayesopt”gydF4y2Ba である場合に結果を保存するかどうかを示す論理値。gydF4y2Ba真正的gydF4y2Ba の場合,gydF4y2Ba“BayesoptResults”gydF4y2Ba という名前のワ,クスペ,ス変数が反復ごとに上書きされます。この変数はgydF4y2BaBayesianOptimizationgydF4y2Ba オブジェクトです。gydF4y2Ba |
假gydF4y2Ba |
详细的gydF4y2Ba |
コマンドラ@ @ンへの表示。gydF4y2Ba
詳細にいては,gydF4y2Ba |
1gydF4y2Ba |
UseParallelgydF4y2Ba |
ベ@ @ズ最適化を並列実行するかどうかを示す論理値。並列実行には并行计算工具箱が必要です。並列でのタイミングに再現性がないため,並列ベイズ最適化で再現性のある結果が生成されるとは限りません。詳細にいては,gydF4y2Ba並列ベ@ @ズ最適化gydF4y2Baを参照してください。gydF4y2Ba | 假gydF4y2Ba |
重新分区gydF4y2Ba |
反復ごとに交差検証を再分割するかどうかを示す論理値。gydF4y2Ba 分割ノesc escズが考慮されるので,通常はgydF4y2Ba |
假gydF4y2Ba |
以下の3のフィルド名は1だけ使用できます。gydF4y2Ba | ||
CVPartitiongydF4y2Ba |
cvpartitiongydF4y2Ba によって作成されるgydF4y2BacvpartitiongydF4y2Ba オブジェクト。gydF4y2Ba |
交差検証フィ,ルドが指定されていない場合gydF4y2Ba“Kfold”,5gydF4y2Ba |
坚持gydF4y2Ba |
ホ,ルドアウトの比率を表す範囲gydF4y2Ba(0,1)gydF4y2Ba のスカラ。gydF4y2Ba |
|
KfoldgydF4y2Ba |
1より大きい整数。gydF4y2Ba |
例:gydF4y2Ba“HyperparameterOptimizationOptions”、结构(MaxObjectiveEvaluations, 60)gydF4y2Ba
デ,タ型:gydF4y2Ba结构体gydF4y2Ba
MdlgydF4y2Ba
-学習させたecocモデルgydF4y2BaClassificationECOCgydF4y2Ba
モデルオブジェクト|gydF4y2BaCompactClassificationECOCgydF4y2Ba
モデルオブジェクト|gydF4y2BaClassificationPartitionedECOCgydF4y2Ba
交差検証済みモデルオブジェクト|gydF4y2BaClassificationPartitionedLinearECOCgydF4y2Ba
交差検証済みモデルオブジェクト|gydF4y2BaClassificationPartitionedKernelECOCgydF4y2Ba
交差検証済みモデルオブジェクトgydF4y2Ba学習済みのecoc分類器。gydF4y2BaClassificationECOCgydF4y2Ba
モデルオブジェクト,gydF4y2BaCompactClassificationECOCgydF4y2Ba
モデルオブジェクト,gydF4y2BaClassificationPartitionedECOCgydF4y2Ba
交差検証済みモデルオブジェクト,gydF4y2BaClassificationPartitionedLinearECOCgydF4y2Ba
交差検証済みモデルオブジェクト,またはgydF4y2BaClassificationPartitionedKernelECOCgydF4y2Ba
交差検証済みモデルオブジェクトとして返されます。gydF4y2Ba
次の表は,指定されたバ超市超市ナリ学習器のタ超市超市プ,および交差検証を実行するかどうかに応じて,gydF4y2BafitcecocgydF4y2Ba
がどのタ@ @プのモデルオブジェクトを返すかを示しています。gydF4y2Ba
線形分類モデル学習器gydF4y2Ba | カ,ネル分類モデル学習器gydF4y2Ba | 交差検証gydF4y2Ba | 返されるモデルオブジェクトgydF4y2Ba |
---|---|---|---|
なしgydF4y2Ba | なしgydF4y2Ba | なしgydF4y2Ba | ClassificationECOCgydF4y2Ba |
なしgydF4y2Ba | なしgydF4y2Ba | ありgydF4y2Ba | ClassificationPartitionedECOCgydF4y2Ba |
ありgydF4y2Ba | なしgydF4y2Ba | なしgydF4y2Ba | CompactClassificationECOCgydF4y2Ba |
ありgydF4y2Ba | なしgydF4y2Ba | ありgydF4y2Ba | ClassificationPartitionedLinearECOCgydF4y2Ba |
なしgydF4y2Ba | ありgydF4y2Ba | なしgydF4y2Ba | CompactClassificationECOCgydF4y2Ba |
なしgydF4y2Ba | ありgydF4y2Ba | ありgydF4y2Ba | ClassificationPartitionedKernelECOCgydF4y2Ba |
HyperparameterOptimizationResultsgydF4y2Ba
—ハパパラメタの交差検証最適化の説明gydF4y2BaBayesianOptimizationgydF4y2Ba
オブジェクト|ハパパラメタおよび関連する値のテブルgydF4y2Baハパパラメタの交差検証最適化の説明。gydF4y2BaBayesianOptimizationgydF4y2Ba
オブジェクト,またはハパパラメタや関連する値が含まれている表として返されます。名前と値のペアの引数gydF4y2BaOptimizeHyperparametersgydF4y2Ba
が空以外であり,名前と値のペアの引数gydF4y2Ba学习者gydF4y2Ba
で線形またはカネルバナリ学習器を指定した場合,gydF4y2BaHyperparameterOptimizationResultsgydF4y2Ba
は空以外になります。値は、名前と値のペアの引数gydF4y2BaHyperparameterOptimizationOptionsgydF4y2Ba
の設定によって決まります。gydF4y2Ba
“bayesopt”gydF4y2Ba
(既定)-gydF4y2BaBayesianOptimizationgydF4y2Ba
クラスのオブジェクトgydF4y2Ba
“gridsearch”gydF4y2Ba
またはgydF4y2Ba“randomsearch”gydF4y2Ba
——使用したハイパーパラメーター,観測された目的関数の値(交差検証損失),および最小(最良)から最大(最悪)までの観測値の順位が格納されている表gydF4y2Ba
デ,タ型:gydF4y2Ba表格gydF4y2Ba
fitcecocgydF4y2Ba
は,線形分類モデルの学習のみにいてスパス行列をサポトします。他のすべてのモデルの場合、代わりに予測子データの非スパース行列を指定します。
“バ电子邮箱ナリ損失”gydF4y2Baは,バイナリ学習器がどの程度の精度で観測値をクラスに分類するかを判断する,クラスと分類スコアの関数です。gydF4y2Ba
以下のように仮定します。gydF4y2Ba
米gydF4y2BakjgydF4y2Baは符号化設計行列Mの要素(k, j),つまりバイナリ学習器jのクラスkに対応するコード。gydF4y2Ba
年代gydF4y2BajgydF4y2Baは観測値に対するバesc escナリ学習器jのスコア。gydF4y2Ba
Gはバeconrナリ損失関数。gydF4y2Ba
は観測値の予測クラス。gydF4y2Ba
“損失に基づく復号化”gydF4y2Ba[Escalera他]gydF4y2Baでは,バイナリ学習器全体のバイナリ損失の和が最小になるクラスにより,観測値の予測クラスが決まります。まり,次のようになります。gydF4y2Ba
“損失に重みを付けた復号化”gydF4y2Ba[Escalera他]gydF4y2Baでは,バイナリ学習器全体のバイナリ損失の平均が最小になるクラスにより,観測値の予測クラスが決まります。まり,次のようになります。gydF4y2Ba
Allwein他gydF4y2Baによると,すべてのクラスで損失値が同じ動的範囲に収まるので,損失に重みを付けた復号化では分類精度が向上します。gydF4y2Ba
次の表は,サポ,トされる損失関数をまとめています。ここで,ygydF4y2BajgydF4y2Baは特定のバesc esc esc esc esc esc esc esc esc esc esc esc esc escgydF4y2BajgydF4y2Baは観測値jのスコアであり,g(ygydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)です。gydF4y2Ba
値gydF4y2Ba | 説明gydF4y2Ba | スコア領域gydF4y2Ba | g (y)gydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)gydF4y2Ba |
---|---|---|---|
“binodeviance”gydF4y2Ba |
二項分布からの逸脱度gydF4y2Ba | (-∞∞)gydF4y2Ba | Log [1 + exp(-2ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba |
“指数”gydF4y2Ba |
指数gydF4y2Ba | (-∞∞)gydF4y2Ba | exp(可能是gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba |
“汉明”gydF4y2Ba |
ハミングgydF4y2Ba | [0,1]または(-∞,∞)gydF4y2Ba | [1 -符号(ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba |
“枢纽”gydF4y2Ba |
ヒンジgydF4y2Ba | (-∞∞)gydF4y2Ba | Max (0,1 - ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba |
“线性”gydF4y2Ba |
線形gydF4y2Ba | (-∞∞)gydF4y2Ba | (1 - y)gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba |
分对数的gydF4y2Ba |
ロジスティックgydF4y2Ba | (-∞∞)gydF4y2Ba | Log [1 + exp(-ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba |
“二次”gydF4y2Ba |
2 次gydF4y2Ba | [0, 1]gydF4y2Ba | [1 - y]gydF4y2BajgydF4y2Ba(2 sgydF4y2BajgydF4y2Ba- 1))gydF4y2Ba2gydF4y2Ba/ 2gydF4y2Ba |
バ▪▪▪ナリ損失は,ygydF4y2BajgydF4y2Ba= 0のときに損失が0.5になるように正規化され,バescナリ学習器の平均を使用して集計されますgydF4y2Ba[Allwein他]gydF4y2Ba。gydF4y2Ba
Ecoc分類器の全体的な性能の尺度である全体の分類損失(オブジェクト関数gydF4y2Ba损失gydF4y2Ba
およびgydF4y2Ba预测gydF4y2Ba
の名前と値のペアの引数gydF4y2Ba“LossFun”gydF4y2Ba
により指定)とバ选区ナリ損失を混同しないでください。gydF4y2Ba
"符号化設計"gydF4y2Baは,各バ。まり,マルチクラス問題がどのように一連のバイナリ問題にされたのかを示します。
符号化設計の各行は各クラスに対応し,各列はバ。三項符号化設計では,特定の列(バaapl .ナリ学習器)に対して以下が実行されます。gydF4y2Ba
1が含まれている行の場合,対応するクラスの観測値をすべて陽性クラスにグループ化するようバイナリ学習器に指示します。gydF4y2Ba
1が含まれている行の場合,対応するクラスの観測値をすべて陰性クラスにグループ化するようバイナリ学習器に指示します。gydF4y2Ba
0が含まれている行の場合,対応するクラスの観測値をすべて無視するようバescナリ学習器に指示します。gydF4y2Ba
ハミング尺度に基づく行の最小ペアワ@ @ズ距離が大きい符号化設計行列が最適です。行のペアワ化学键ズ距離の詳細に化学键いては,gydF4y2Baランダム符号化設計行列gydF4y2BaおよびgydF4y2Ba[4]gydF4y2Baを参照してください。gydF4y2Ba
次の表は一般的な符号化設計にいて説明しています。gydF4y2Ba
符号化設計gydF4y2Ba | 説明gydF4y2Ba | 学習器の数gydF4y2Ba | 行の最小ペアワ@ @ズ距離gydF4y2Ba |
---|---|---|---|
Ova(1対他)gydF4y2Ba | 各バ▪▪ナリ学習器では,1▪▪のクラスは正で残りは負です。この計画は陽性クラス割り当てのすべての組み合わせを使用します。gydF4y2Ba | KgydF4y2Ba | 2gydF4y2Ba |
Ovo(1対1)gydF4y2Ba | 各バ▪▪ナリ学習器では,1▪▪のクラスが正であり,もう1▪▪のクラスは負です。残りは無視されます。この計画はすべてのクラスペアの割り当ての組み合わせを使用します。gydF4y2Ba | K(K - 1)/2gydF4y2Ba |
1gydF4y2Ba |
完全二項gydF4y2Ba | この計画はクラスをすべて2の組み合わせに分割します。いずれのクラスも無視されません。まり,すべてのクラス割り当てがgydF4y2Ba |
2gydF4y2BaK - 1gydF4y2Ba- 1gydF4y2Ba | 2gydF4y2BaK - 2gydF4y2Ba |
完全三項gydF4y2Ba | この計画はクラスをすべて3の組み合わせに分割します。まり,すべてのクラス割り当てがgydF4y2Ba |
(3gydF4y2BaKgydF4y2Ba- 2gydF4y2BaK + 1gydF4y2Ba+ 1) / 2gydF4y2Ba |
3.gydF4y2BaK - 2gydF4y2Ba |
順序gydF4y2Ba | 1个番目のバ,1个番目のクラスが負であり,残りは正です。2番目のバイナリ学習器では、最初の 2 つのクラスが負であり、残りは正です。他についても同様です。 | K - 1gydF4y2Ba | 1gydF4y2Ba |
密なランダムgydF4y2Ba | 各バ▪▪ナリ学習器には,陽性または陰性クラス(少なくとも各1▪▪)が無作為に割り当てられます。詳細は,gydF4y2Baランダム符号化設計行列gydF4y2Baを参照してください。gydF4y2Ba | ランダム。ただし,約 10 log2gydF4y2BaKgydF4y2Ba |
変数gydF4y2Ba |
スパ,スランダムgydF4y2Ba | 各バイナリ学習器では,各クラスに確率0.25で正または負が無作為に割り当てられ,確率0.5がの場合にクラスが無視されます。詳細は,gydF4y2Baランダム符号化設計行列gydF4y2Baを参照してください。gydF4y2Ba | ランダム。ただし,約 15 log2gydF4y2BaKgydF4y2Ba |
変数gydF4y2Ba |
このプロットは符号化設計のバesc escナリ学習器の数を増加するkと比較します。gydF4y2Ba
“誤り訂正出力符号(ecoc)モデル”gydF4y2Baは,3以上のクラスがある分類の問題を一連のバナリ分類問題に縮小します。gydF4y2Ba
ECOC分類は,バイナリ学習器が学習するクラスを決定する符号化設計と,バイナリ学習器の結果(予測)が集計される方法を決定する復号化スキームを必要とします。gydF4y2Ba
以下のように仮定します。gydF4y2Ba
分類問題には3のクラスがある。gydF4y2Ba
符号化設計が1対1である。3.クラスの場合、この符号化設計は次のようになります。
復号化方式で損失gを使用する。gydF4y2Ba
学習器が支持向量机である。gydF4y2Ba
Ecocアルゴリズムでは,次のステップに従ってこの分類モデルを構築します。gydF4y2Ba
学習器1はクラス1またはクラス2の観測値について学習を行い,クラス1を陽性クラス,クラス2を陰性クラスとして扱います。他の学習器の学習も同様に実行します。gydF4y2Ba
次のように仮定します。Mは要素MgydF4y2Ba吉隆坡gydF4y2Baをも符号化設計行列です。年代gydF4y2BalgydF4y2Baは学習器lの陽性クラスの予測された分類スコアです。新しい観測値は,l個のバナリ学習器にいて損失の合計が最小になるクラス(gydF4y2Ba )に割り当てられます。gydF4y2Ba
Ecocモデルは他のマルチクラスモデルと比較して分類精度を向上させることができますgydF4y2Ba[2]gydF4y2Ba。gydF4y2Ba
バ@ @ナリ学習器の数はクラス数とともに増加します。多数のクラスがある問題では,符号化設計gydF4y2BabinarycompletegydF4y2Ba
およびgydF4y2BaternarycompletegydF4y2Ba
は効率的ではありません。ただし,gydF4y2Ba
K≤4の場合,gydF4y2BasparserandomgydF4y2Ba
ではなくgydF4y2BaternarycompletegydF4y2Ba
符号化設計を使用します。gydF4y2Ba
K≤5の場合,gydF4y2BadenserandomgydF4y2Ba
ではなくgydF4y2BabinarycompletegydF4y2Ba
符号化設計を使用します。gydF4y2Ba
コマンドウィンドウにgydF4y2BaMdl。CodingMatrix
を入力して学習させたecoc分類器の符号化設計行列を表示できます。gydF4y2Ba
アプリケーションへの詳細な知識を用い,計算上の制約を考慮してコーディング行列を作成しなければなりません。十分な計算能力と時間がある場合,いくつかのコーディング行列を試し,最大のパフォーマンスが得られるものを選択してください(たとえば,gydF4y2BaconfusionchartgydF4y2Ba
を使用して各モデルの混同行列を確認します)。gydF4y2Ba
観測値が多いデ,タセットの場合,留一份交差検証(gydF4y2BaLeaveoutgydF4y2Ba
)では不十分です。代わりに,k分割交差検証 (KFoldgydF4y2Ba
)を使用してください。gydF4y2Ba
モデルに学習をさせた後で,新しいデタにいてラベルを予測するc / c++コドを生成できます。C/ c++コ,ドの生成にはgydF4y2BaMATLAB编码器™gydF4y2Baが必要です。詳細については、コ,ド生成の紹介gydF4y2Baを参照してください。gydF4y2Ba
カスタムコ,ディング行列は特定の形式でなければなりません。カスタムコ,ディング行列は以下を確認して検証されます。gydF4y2Ba
すべての要素は-1,0または1です。gydF4y2Ba
すべての列は少なくとも-1を1および1を1含みます。gydF4y2Ba
すべての異なる列ベクトルuおよびvでは,u≠vおよびu≠-v。gydF4y2Ba
すべての行ベクトルは一意です。gydF4y2Ba
行列は任意の2のクラスを分離できます。まり,任意の行から他の任意の行へ、次のルールに従って移動できます。
1から-1または-1から1へ垂直方向に移動できます。gydF4y2Ba
非ゼロ要素から別の非ゼロ要素へ水平方向に移動できます。gydF4y2Ba
垂直方向の移動に行列の列を一度だけ使用できます。gydF4y2Ba
上記のルールを使用して,行我から行jに移動できない場合,クラス我およびjは計画により分離できません。たとえば、次の符号化設計ではクラス1および2をクラス3および4から分離できませんgydF4y2Ba
2行目の2列目には0があるので,2行目の1を2列目に水平に移動することはできません。したがって,この符号化設計は拒否されます。gydF4y2Ba
並列計算を使用する場合(gydF4y2Ba选项gydF4y2Ba
を参照),gydF4y2BafitcecocgydF4y2Ba
はバ@ @ナリ学習器を並列して学習させます。gydF4y2Ba
事前確率-各バ电子邮箱ナリ学習器に指定されたクラス事前確率(gydF4y2Ba之前gydF4y2Ba
)は正規化されます。Mは符号化設計行列であり,I(A,c)は指標行列であると仮定します。指標行列の次元数はaと同じです。指標行列の要素は,対応するAの要素がcの場合は1,それ以外の場合は0になります。米gydF4y2Ba+1gydF4y2BaおよびmgydF4y2Ba-1gydF4y2Baは,次の条件を満たすk行l列の行列と仮定します。gydF4y2Ba
米gydF4y2Ba+1gydF4y2Ba= m〇i (m,1),ここで〇は要素単位の乗算です(まり,gydF4y2BaM + = M *(M = 1)gydF4y2Ba
)。また,mgydF4y2Ba+1gydF4y2Baの列ベクトルlをgydF4y2Ba
と表します。gydF4y2Ba
米gydF4y2Ba-1gydF4y2Ba= -m〇i (m,-1)(まり,gydF4y2Bam减= -M。*(m == -1)gydF4y2Ba
)。また,mgydF4y2Ba-1gydF4y2Baの列ベクトルlをgydF4y2Ba
と表します。gydF4y2Ba
およびgydF4y2Ba
と表します。ここで、πはクラスについて指定した事前確率のベクトル (之前gydF4y2Ba
)です。gydF4y2Ba
すると,バナリ学習器lに。gydF4y2Ba
ここで,j ={-1,1}です。gydF4y2Ba はaの1ノルムです。gydF4y2Ba
コスト-各バemcナリ学習器のk行k列のコスト行列c (gydF4y2Ba成本gydF4y2Ba
)は正規化されます。バesc escナリ学習器lで陰性クラスの観測値を陽性クラスに分類するコストは次のようになります。gydF4y2Ba
同様に,陽性クラスの観測値を陰性クラスに分類するコストは次のようになります。gydF4y2Ba
バesc escナリ学習器lのコスト行列は次のようになります。gydF4y2Ba
Ecocモデルは誤分類のコストをクラス事前確率に組み込むことで対応します。gydF4y2Ba之前gydF4y2Ba
とgydF4y2Ba成本gydF4y2Ba
を指定した場合,クラスの事前確率は次のように調整されます。gydF4y2Ba
K個のクラスに対して,ランダム符号化設計行列が以下のように生成されます。gydF4y2Ba
次のいずれかの行列が生成されます。gydF4y2Ba
密なランダム- k行gydF4y2BadgydF4y2Ba列の符号化設計行列の各要素に同じ確率で1または-1が割り当てられます。ここでgydF4y2Ba です。gydF4y2Ba
スパスランダム- k行l .输出说明gydF4y2Ba年代gydF4y2Ba列の符号化設計行列の各要素に0.25の確率で1,0.25の確率で1,0.5の確率で0が割り当てられます。ここでgydF4y2Ba です。gydF4y2Ba
1。gydF4y2Ba
異なる列uおよびvについてu = vまたはu = vである場合,vが符号化設計行列から削除されます。gydF4y2Ba
既定では10000個の行列が無作為に生成されます。次によって与えられるハミング尺度(gydF4y2Ba[4]gydF4y2Ba)に基づき,行の最小ペアワ。gydF4y2Ba
ここで,mgydF4y2BakgydF4y2BajgydF4y2BalgydF4y2Baは符号化設計行列jの要素です。gydF4y2Ba
既定では,効率を向上させるため,gydF4y2BafitcecocgydF4y2Ba
はすべての線形SVMバescナリ学習器のgydF4y2BaαgydF4y2Ba
、gydF4y2Ba万博1manbetxSupportVectorLabelsgydF4y2Ba
およびgydF4y2Ba万博1manbetxSupportVectorsgydF4y2Ba
プロパティを空にします。gydF4y2BafitcecocgydF4y2Ba
は,gydF4y2BaαgydF4y2Ba
ではなくgydF4y2BaβgydF4y2Ba
をモデル表示で出力します。gydF4y2Ba
αgydF4y2Ba
、gydF4y2Ba万博1manbetxSupportVectorLabelsgydF4y2Ba
およびgydF4y2Ba万博1manbetxSupportVectorsgydF4y2Ba
を保存するには,サポ,トベクタ,をgydF4y2BafitcecocgydF4y2Ba
に保存するよう指定する線形SVMテンプレ,トを渡します。たとえば,次のように入力します。gydF4y2Ba
t = templateSVM(gydF4y2Ba“Save万博1manbetxSupportVectors”gydF4y2Ba,true) Mdl = fitcecoc(X,Y,gydF4y2Ba“学习者”gydF4y2Bat);gydF4y2Ba
サポ,トベクタ,および関連する値は,生成されたgydF4y2BaClassificationECOCgydF4y2Ba
モデルをgydF4y2Badiscard万博1manbetxSupportVectorsgydF4y2Ba
に渡すことにより削除できます。gydF4y2Ba
[1]奥尔温,E., R. Schapire, Y. Singer。将多类简化为二进制:边距分类器的统一方法。机器学习研究杂志。Vol. 1, 2000, pp. 113-141。gydF4y2Ba
[2] Fürnkranz, Johannes,“循环式分类”。j·马赫。学习。Res, Vol. 2, 2002, pp. 721-747。gydF4y2Ba
[3] Escalera, S., O. Pujol, P. Radeva。三进制纠错输出码的解码过程。模式分析与机器智能汇刊。Vol. 32, Issue 7, 2010, pp. 120-134。gydF4y2Ba
[4] Escalera, S., O. Pujol, P. Radeva。纠错输出码的稀疏设计的三进制码的可分性。Recog模式。列托人。,Vol. 30, Issue 3, 2009, pp. 285–297.
使用上の注意事項および制限事項:gydF4y2Ba
以下の構文がサポ,トされます。gydF4y2Ba
Mdl = fitcecoc(X,Y)gydF4y2Ba
Mdl = fitcecoc(X,Y,名称,值)gydF4y2Ba
[Mdl,FitInfo,HyperparameterOptimizationResults] = fitcecoc(X,Y,Name,Value)gydF4y2Ba
-名前と値のペアの引数gydF4y2Ba“OptimizeHyperparameters”gydF4y2Ba
が指定された場合,gydF4y2BafitcecocgydF4y2Ba
は追加の出力引数gydF4y2BaFitInfogydF4y2Ba
およびgydF4y2BaHyperparameterOptimizationResultsgydF4y2Ba
を返します。gydF4y2Ba
出力引数gydF4y2BaFitInfogydF4y2Ba
は,現在は将来の使用のために予約されている空の構造体配列です。gydF4y2Ba
交差検証に関連するオプションはサポ,トされていません。以下の名前と値のペアの引数がサポ,トされます。gydF4y2Ba
“类名”gydF4y2Ba
“成本”gydF4y2Ba
“编码”gydF4y2Ba
-既定値はgydF4y2Ba“onevsall”gydF4y2Ba
です。gydF4y2Ba
“HyperparameterOptimizationOptions”gydF4y2Ba
-交差検証として,高最適化ではgydF4y2Ba“坚持”gydF4y2Ba
検証のみがサポ,トされます。既定では,データの 20% がホールドアウト検証データとして選択されて確保され、残りのデータがモデルの学習に使用されます。この引数を使用してホールドアウトの比率に別の値を指定できます。たとえば、データの 30% を検証データとして確保するには“HyperparameterOptimizationOptions”、结构(“抵抗”,0.3)gydF4y2Ba
と指定します。gydF4y2Ba
“学习者”gydF4y2Ba
-既定値はgydF4y2Ba“线性”gydF4y2Ba
です。gydF4y2Ba“线性”gydF4y2Ba
、gydF4y2Ba“内核”gydF4y2Ba
、gydF4y2BatemplateLineargydF4y2Ba
オブジェクト,gydF4y2BatemplateKernelgydF4y2Ba
オブジェクト,またはこれらのオブジェクトの单元格配列を指定できます。gydF4y2Ba
“OptimizeHyperparameters”gydF4y2Ba
—線形バナリ学習器を使用する場合,ハgydF4y2Ba“正规化”gydF4y2Ba
の値はgydF4y2Ba“岭”gydF4y2Ba
でなければなりません。gydF4y2Ba
“之前”gydF4y2Ba
“详细”gydF4y2Ba
-既定値はgydF4y2Ba1gydF4y2Ba
です。gydF4y2Ba
“重量”gydF4y2Ba
以下は,高配列専用の追加の名前と値のペアの引数です。gydF4y2Ba
“NumConcurrent”gydF4y2Ba
——ファイルI / O操作を結合することにより並列的に学習をさせるバイナリ学習器の個数を指定する正の整数スカラー。gydF4y2Ba“NumConcurrent”gydF4y2Ba
の既定値はgydF4y2Ba1gydF4y2Ba
であり,これはgydF4y2BafitcecocgydF4y2Ba
がバ@ @ナリ学習器に逐次的に学習させることを意味します。gydF4y2Ba“NumConcurrent”gydF4y2Ba
は,分散クラスタ,メモリに入力配列が収まらない場合に最も有益です。それ以外の場合は,入力配列をキャッシュできるので,高速化を無視できます。gydF4y2Ba
Apache Spark™で独自のコ,ドを実行する場合,通信に使用できるメモリによってgydF4y2BaNumConcurrentgydF4y2Ba
の上限が制限されます。使用しているApache Sparkの構成のgydF4y2Ba“spark.executor.memory”gydF4y2Ba
およびgydF4y2Ba“spark.driver.memory”gydF4y2Ba
プロパティをチェックしてください。詳細は,gydF4y2Baparallel.cluster.HadoopgydF4y2Ba
(并行计算工具箱)gydF4y2Baを参照してください。Apache Spark,およびコドの実行場所を制御する他の実行環境の詳細にいては,gydF4y2Ba他の製品による高配列の拡張gydF4y2Baを参照してください。gydF4y2Ba
詳細は,gydF4y2Ba高配列gydF4y2Baを参照してください。gydF4y2Ba
並列実行するには,次のいずれかの方法でgydF4y2Ba“UseParallel”gydF4y2Ba
オプションをgydF4y2Ba真正的gydF4y2Ba
に設定します。gydF4y2Ba
statsetgydF4y2Ba
を使用してオプション構造体のgydF4y2Ba“UseParallel”gydF4y2Ba
フィ,ルドをgydF4y2Ba真正的gydF4y2Ba
に設定し,gydF4y2BafitceocgydF4y2Ba
を呼び出すときに名前と値のペアの引数gydF4y2Ba“选项”gydF4y2Ba
を指定します。gydF4y2Ba
たとえば,次のようにします。gydF4y2Ba“选项”,statset (UseParallel,真的)gydF4y2Ba
詳細は,名前と値のペアの引数gydF4y2Ba“选项”gydF4y2Ba
を参照してください。gydF4y2Ba
fitceocgydF4y2Ba
を呼び出すときに名前と値のペアの引数gydF4y2Ba“HyperparameterOptions”、结构(UseParallel,真的)gydF4y2Ba
。gydF4y2Ba
並列的なハ▪▪パ▪▪パラメ▪タ▪の最適化の詳細に▪▪いてはgydF4y2Ba並列ベ@ @ズ最適化gydF4y2Baを参照してください。gydF4y2Ba
ClassificationECOCgydF4y2Ba
|gydF4y2BaCompactClassificationECOCgydF4y2Ba
|gydF4y2BaClassificationPartitionedECOCgydF4y2Ba
|gydF4y2Ba损失gydF4y2Ba
|gydF4y2Ba预测gydF4y2Ba
|gydF4y2BadesignecocgydF4y2Ba
|gydF4y2BastatsetgydF4y2Ba
|gydF4y2BaClassificationPartitionedLinearECOCgydF4y2Ba
|gydF4y2BaClassificationPartitionedKernelECOCgydF4y2Ba
この例の変更されたバ,ジョンがあります.編集された方の例を開きますか?gydF4y2Ba
次のmatlabコマンドに対応するリンクがクリックされました。gydF4y2Ba
コマンドをmatlabコマンドウィンドウに入力して実行してください。Webブラウザ,はMATLABコマンドをサポ,トしていません。gydF4y2Ba
选择一个网站,在可用的地方获得翻译的内容,并查看当地的活动和优惠。根据您所在的位置,我们建议您选择:gydF4y2Ba.gydF4y2Ba
选择gydF4y2Ba网站gydF4y2Ba您也可以从以下列表中选择一个网站:gydF4y2Ba
选择中国站点(中文或英文)以获得最佳站点性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。gydF4y2Ba