主要内容

このペ,ジの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。

fitrtree

回帰用のバ@ @ナリ決定木をあてはめる

説明

= fitrtree (资源描述ResponseVarNameは,表资源描述内の入力変数(予測子,特徴量,属性とも呼ばれます)と资源描述。ResponseVarNameに格納されている出力(応答)に基づいて,回帰木を返します。返されるは,资源描述の列の値に基づいて各枝ノ,ドが分割される二分木です。

= fitrtree (资源描述公式は,表资源描述に格納されている入力変数に基づいて,回帰木を返します。入力公式は,をあてはめるために使用する资源描述内の予測子変数のサブセットおよび応答の説明モデルです。

= fitrtree (资源描述Yは,表资源描述に格納されている入力変数とベクトルY内の出力に基づいて,回帰木を返します。

= fitrtree (XYは,入力変数Xと出力Yに基づいて,回帰木を返します。返されるは,Xの列の値に基づいて各枝ノ,ドが分割される二分木です。

= fitrtree (___名称,值では,前の構文におけるいずれかの入力引数の組み合わせに加えて,1つ以上の名前と値のペアの引数を使用してオプションを指定します。たとえば,観測値の重みを指定したり,交差検証済みモデルを学習させることができます。

すべて折りたたむ

標本デ,タを読み込みます。

负载carsmall

標本デ,タを使用して回帰木を構築します。応答変数は,ガロンあたりの走行マaaplル数(mpg)です。

tree = fitrtree([重量,气缸],MPG,...“CategoricalPredictors”2,“MinParentSize”, 20岁,...“PredictorNames”, {' W '“C”})
tree = RegressionTree PredictorNames: {'W' 'C'} ResponseName: 'Y' CategoricalPredictors: 2 ResponseTransform: 'none' NumObservations: 94属性,方法

4、6気筒数がおよび8で重さが約1.8吨(4000ポンド)の車の燃費を予測します。

MPG4Kpred = predict(tree,[4000 4;4000 6;4000 8])
MPG4Kpred =3×119.2778 19.2778 14.3889

既定では,fitrtreeは深い決定木を成長させます。モデルの複雑さや計算時間の削減のために,より浅い木を成長させることもできます。木の深さを制御するには,名前と値のペアの引数“MaxNumSplits”“MinLeafSize”または“MinParentSize”を使用します。

carsmallデ,タセットを読み込みます。位移马力および重量が応答英里/加仑の予測子であると考えます。

负载carsmallX =[排量马力重量];

回帰木を成長させる場合,木の深さの制御に関する既定値は次のとおりです。

  • MaxNumSplitsN - 1nは学習標本のサ@ @ズです。

  • MinLeafSize1

  • MinParentSize10

これらの既定値を使用すると,学習標本のサ。

木の深さの制御にいて既定値を使用して,回帰木を学習させます。10分割の交差検証をモデルに対して実行します。

rng (1);%用于再现性MdlDefault = fitrtree(X,MPG,“CrossVal”“上”);

木に適用される分割数のヒストグラムを描画します。適用される分割数は,葉の数より1小さい値です。また,木の1を表示します。

numBranches = @(x)sum(x. isbranch);mdldefaultnumsplitting = cellfun(numBranches, MdlDefault.Trained);图;直方图(mdlDefaultNumSplits)

图中包含一个轴。坐标轴包含一个直方图类型的对象。

视图(MdlDefault。训练有素的{1},“模式”“图”

图回归树查看器包含一个轴和uimenu、uicontrol类型的其他对象。坐标轴包含51个类型为line, text的对象。

分割数の平均は14 ~ 15です。

既定の分割数を使用して学習させたものほど複雑ではない(深くない)回帰木が必要であるとします。最大分割数を7に設定して別の回帰木を学習させます。これにより,既定値を使用した回帰木の平均分割数の約半分になります。10分割の交差検証をモデルに対して実行します。

Mdl7 = fitrtree(X,MPG,“MaxNumSplits”7“CrossVal”“上”);视图(Mdl7。Trained{1},“模式”“图”

图回归树查看器包含一个轴和uimenu、uicontrol类型的其他对象。坐标轴包含27个类型为line, text的对象。

モデルの交差検証平均二乗誤差(mse)を比較します。

mseDefault = kfoldLoss(MdlDefault)
mseDefault = 25.7383
mse7 = kfoldLoss(Mdl7)
Mse7 = 26.5748

Mdl7は,MdlDefaultより大幅に単純化されており,性能は少しだけ低下します。

fitrtreeを使用してハパパラメタを自動的に最適化します。

carsmallデ,タセットを読み込みます。

负载carsmall

重量马力英里/加仑の予測子として使用します。自動的なハイパーパラメーター最適化を使用して,5分割交差検証損失を最小化するハイパーパラメーターを求めます。

再現性を得るために,乱数シ,ドを設定し,“expected-improvement-plus”の獲得関数を使用します。

X =[重量,马力];Y = mpg;rng默认的Mdl = fitrtree(X,Y,“OptimizeHyperparameters”“汽车”...“HyperparameterOptimizationOptions”结构(“AcquisitionFunctionName”...“expected-improvement-plus”))
|======================================================================================| | Iter | Eval |目的:| |目的BestSoFar | BestSoFar | MinLeafSize | | | |结果日志(1 +损失)运行时| | | (estim(观察) .) | | |======================================================================================| | 最好1 | | 3.2818 | 0.1699 | 3.2818 | 3.2818 | 28 | | 2 |接受| 3.4183 | 0.11828 | 3.2818 | 3.2888 | 1 | | 3 |最好| 3.1457 | 0.065404 | 3.1457 | 3.1628 | 4 | | 4 |最好| 2.9885 | 0.092914 | 2.9885 | 2.9885 | 9 | | 5 |接受| 2.9978 | 0.080405 | 2.9885 | 2.9885 | 7 | | 6 | |3.0203 | 0.041921 | 2.9885 | 3.0013 | 8 | | | 7日接受| 2.9885 | 0.075416 | 2.9885 | 2.9981 | 9 | | 8最好| | 2.9589 | 0.070072 | 2.9589 | 2.9589 | 10 | | | 9日接受| 3.078 | 0.051571 | 2.9589 | 2.9888 | 13 | | |接受10 | 4.1881 | 0.089992 | 2.9589 | 2.9592 | 50 | | | 11日接受| 3.4182 | 0.076825 | 2.9589 | 2.9592 | 2 | | | 12日接受| 3.0376 | 0.079266 | 2.9589 | 2.9591 | 6 | | | 13日接受| 3.1453 | 0.079221 | 2.9589 | 2.9591 | 20 | | | 14日接受| 2.9589 | 0.099112 | 2.9589 | 2.959 |15 |接受10 | | | 3.0123 | 0.082191 | 2.9589 | 2.9728 | 11 | | | 16日接受| 2.9589 | 0.064445 | 2.9589 | 2.9593 | 10 | | | 17日接受| 3.3055 | 0.066212 | 2.9589 | 2.9593 | 3 | | | 18日接受| 2.9589 | 0.040636 | 2.9589 | 2.9592 | 10 | | | 19日接受| 3.4577 | 0.084158 | 2.9589 | 2.9591 | 37 | | 20 |接受| 3.2166 | 0.089271 | 2.9589 | 2.959 | 16  | |======================================================================================| | Iter | Eval |目的:| |目的BestSoFar | BestSoFar | MinLeafSize | | | |结果日志(1 +损失)运行时| | | (estim(观察) .) | | |======================================================================================| | 21日|接受| 3.107 | 0.084533 | 2.9589 | 2.9591 | 5 | | | 22日接受| 3.2818 | 0.065828 | 2.9589 | 2.959 | 24 | | | 23日接受| 3.3226 | 0.06413 | 2.9589 | 2.959 | 32 | | | 24日接受| 4.1881 | 0.070911 | 2.9589 | 2.9589 | 43 | | | 25日接受| 3.1789 | 0.067735 | 2.9589 | 2.9589 | 18 | | |Accept | 3.0992 | 0.069118 | 2.9589 | 2.9589 | 14 | | 27 | Accept | 3.0556 | 0.087644 | 2.9589 | 2.9589 | 22 | | 28 | Accept | 3.0459 | 0.040306 | 2.9589 | 2.9589 | 12 | | 29 | Accept | 3.2818 | 0.062954 | 2.9589 | 2.9589 | 26 | | 30 | Accept | 3.4361 | 0.073935 | 2.9589 | 2.9589 | 34 |

图中包含一个轴。标题为Min目标vs.函数计算数量的轴包含2个类型为line的对象。这些对象代表最小观测目标,估计最小目标。

图中包含一个轴。标题为目标函数模型的轴包含8个类型行对象。这些对象表示观测点,模型均值,模型误差条,噪声误差条,下一个点,模型最小可行。

__________________________________________________________ 优化完成。最大目标达到30个。总函数评估:30总运行时间:37.0627秒总目标函数评估时间:2.3043最佳观测可行点:MinLeafSize ___________ 10观测目标函数值= 2.9589估计目标函数值= 2.9589估计函数评估时间= 0.070072最佳估计可行点(根据模型):MinLeafSize ___________ 10估计目标函数值= 2.9589估计函数评估时间= 0.073581
Mdl = RegressionTree ResponseName: 'Y' CategoricalPredictors: [] ResponseTransform: 'none' NumObservations: 94 HyperparameterOptimizationResults: [1x1 BayesianOptimization] Properties, Methods

carsmallデ,タセットを読み込みます。与えられた加速,気筒数,エンジン排気量,馬力,製造業者,モデル年および重量に対して自動車の燃費の平均を予測するモデルを考えます。气缸制造行业およびModel_Yearはカテゴリカル変数であるとします。

负载carsmall圆柱=分类(圆柱);Mfg = categorical(cellstr(Mfg));Model_Year = categorical(Model_Year);X =表(加速度,气缸,排量,马力,制造,...Model_Year、重量、MPG);

カテゴリカル変数で表現されるカテゴリの個数を表示します。

numCylinders = number (categories(Cylinders))
numCylinders = 3
numMfg = nummel(类别(Mfg))
numMfg = 28
numModelYear = nummel(类别(Model_Year))
numModelYear = 3

气缸Model_Yearには3つしかカテゴリがないので,予測子分割アルゴリズムの標準购物车ではこの2つの変数よりも連続予測子が分割されます。

デ,タセット全体を使用して回帰木に学習をさせます。偏りの無い木を成長させるため,予測子の分割に曲率検定を使用するよう指定します。デ,タには欠損値が含まれているので,代理分岐を使用するよう指定します。

Mdl = fitrtree(X,“英里”“PredictorSelection”“弯曲”“代孕”“上”);

すべての予測子について分割によるリスク変動を合計し,この合計を枝ノード数で除算することにより,予測子の重要度の値を推定します。棒グラフを使用して推定を比較します。

imp = predictorImportance(Mdl);图;酒吧(imp);标题(“预测者重要性估计”);ylabel (“估计”);包含(“预测”);H = gca;h.XTickLabel = mld . predictornames;h.XTickLabelRotation = 45;h.TickLabelInterpreter =“没有”

图中包含一个轴。标题为“预测器重要性估计”的轴包含一个类型为bar的对象。

このケ,スでは,最も重要な予測子は位移であり,次に重要なのは马力です。

既定では,fitrtreeは深い決定木を成長させます。高配列の通過回数が少なくなる、より浅い木を構築します。名前と値のペアの引数“MaxDepth”を使用して,最大の木の深さを制御します。

高配列に対する計算を実行する場合,MATLAB®は並列プール(并行计算工具箱™がある場合は既定)またはローカルのMATLABセッションを使用します。并行计算工具箱がある場合でもローカルのMATLABセッションを使用して例を実行するには,関数mapreduceを使用してグロ,バルな実行環境を変更できます。

carsmallデ,タセットを読み込みます。位移马力および重量が応答英里/加仑の予測子であると考えます。

负载carsmallX =[排量马力重量];

ンメモリ配列Xおよび英里/加仑を高配列に変換します。

tx =高(X);
使用“本地”配置文件启动并行池(parpool)…连接到并行池(工人数:6)。
ty = tall(MPG);

すべての観測値を使用して回帰木を成長させます。可能な最大の深さまで木が成長することを許可します。

再現性を得るため,rngtallrngを使用して乱数発生器のシ,ドを設定します。高配列の場合,ワーカーの個数と実行環境によって結果が異なる可能性があります。詳細については、コ,ドの実行場所の制御を参照してください。

rng (“默认”) tallrng (“默认”) Mdl = fitrtree(tx,ty);
评估高表达式使用并行池“当地”:——通过1 2:在4.1秒完成,通过2 2:在0.71秒完成评估在6.7秒完成评估高表达式使用并行池“当地”:——通过1 7:在1.4秒完成,通过2 7:在0.29秒完成,通过3 7:在1.5秒完成,通过4 7:在3.3秒完成,通过5 7:在0.63秒完成,通过6 7:在1.2秒完成,通过7 7:在2.6秒完成评估在12秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.36秒完成,通过2 7:在0.27秒完成,通过3 7:在0.85秒完成,通过4 7:在2秒完成,通过5 7:在0.55秒完成,通过6 7:在0.92秒完成,通过7 7:在1.6秒完成评估在7.4秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.32秒完成,通过2 7:在0.29秒完成,通过3 7:在0.89秒完成,通过4 7:在1.9秒完成,通过5 7:在0.83秒完成,通过6 7:在1.2秒完成,通过7 7:在2.4秒完成评估在9秒完成评估高表达使用并行池“当地”:——通过1 7:在0.33秒完成,通过2 7:在0.28秒完成,通过3 7:在0.89秒完成,通过4 7:在2.4秒完成,通过5 7:在0.76秒完成,通过6 7:在1秒完成,通过7 7:在1.7秒完成评估在8.3秒完成评估高表达使用并行池“当地”:——通过1 7:在0.34秒完成,通过2 7:在0.26秒完成,通过3 7:在0.81秒完成,通过4 7:在1.7秒完成,通过5 7:在0.56秒完成,通过6 7:在1秒完成,通过7 7:在1.9秒完成评估在7.4秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.35秒完成,通过2 7:在0.28秒完成,通过3 7:在0.81秒完成,通过4 7:在1.8秒完成,通过5 7:在0.76秒完成,通过6 7:在0.96秒完成,通过7 7:在2.2秒完成评估在8秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.35秒完成,通过2 7:在0.32秒完成,通过3 7:在0.92秒完成,通过4 7:在1.9秒完成,通过5 7:在1秒完成,通过6 7:在1.5秒完成,通过7 7:在2.1秒完成评估在9.2秒完成评估高表达使用并行池“当地”:——通过1 7:在0.33秒完成,通过2 7:在0.28秒完成,通过3 7:在0.82秒完成,通过4 7:在1.4秒完成,通过5 7:在0.61秒内完成-通过7次中的第6次:在0.93秒内完成-通过7次中的第7次:在1.5秒内完成评估在6.6秒内完成

学習済みの木Mdlを表示します。

视图(Mdl,“模式”“图”

Mdlは,深さ8の木です。

標本内平均二乗誤差を推定します。

MSE_Mdl =收集(丢失(Mdl,tx,ty))
使用并行池“本地”评估tall表达式:-通过1 / 1:在1.6秒内完成评估,在1.9秒内完成
MSE_Mdl = 4.9078

すべての観測値を使用して回帰木を成長させます。最大の木の深さとして4を指定することにより,木の深さを制限します。

Mdl2 = fitrtree(tx,ty,“MaxDepth”4);
评估高表达式使用并行池“当地”:——通过1 2:在0.27秒完成,通过2 2:在0.28秒完成评估在0.84秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.36秒完成,通过2 7:在0.3秒完成,通过3 7:在0.95秒完成,通过4 7:在1.6秒完成,通过5 7:在0.55秒完成,通过6 7:在0.93秒完成,通过7 7:在1.5秒完成评估在7秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.34秒完成,通过2 7:在0.3秒完成,通过3 7:在0.95秒完成,通过4 7:在1.7秒完成,通过5 7:在0.57秒完成,通过6 7:在0.94秒完成,通过7 7:在1.8秒完成评估在7.7秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.34秒完成,通过2 7:在0.3秒完成,通过3 7:在0.87秒完成,通过4 7:在1.5秒完成,通过5 7:在0.57秒完成,通过6 7:在0.81秒完成,通过7 7:在1.7秒完成评估在6.9秒完成评估高表达使用并行池“当地”:——通过1 7:在0.32秒完成,通过2 7:在0.27秒完成,通过3 7:在0.85秒完成,通过4 7:在1.6秒完成,通过5 7:在0.63秒内完成-通过7次中的第6次:在0.9秒内完成-通过7次中的第7次:在1.6秒内完成评估在7秒内完成

学習済みの木Mdl2を表示します。

视图(Mdl2,“模式”“图”

標本内平均二乗誤差を推定します。

MSE_Mdl2 =收集(丢失(Mdl2,tx,ty))
使用并行池“本地”评估tall表达式:-通过1 / 1:在0.73秒内完成评估在1秒内完成
MSE_Mdl2 = 9.3903

Mdl2は,複雑度が低くなった深さ4の木であり,標本内平均二乗誤差がMdlの平均二乗誤差より大きくなっています。

高配列を使用する回帰木のハ。標本デ,タセットはcarsmallデ,タセットです。この例では,デ,タセットを高配列に変換して,最適化手順を実行するために使用します。

高配列に対する計算を実行する場合,MATLAB®は並列プール(并行计算工具箱™がある場合は既定)またはローカルのMATLABセッションを使用します。并行计算工具箱がある場合でもローカルのMATLABセッションを使用して例を実行するには,関数mapreduceを使用してグロ,バルな実行環境を変更できます。

carsmallデ,タセットを読み込みます。位移马力および重量が応答英里/加仑の予測子であると考えます。

负载carsmallX =[排量马力重量];

ンメモリ配列Xおよび英里/加仑を高配列に変換します。

tx =高(X);
使用“本地”配置文件启动并行池(parpool)…连接到并行池(工人数:6)。
ty = tall(MPG);

名前と値のペアの引数“OptimizeHyperparameters”。ホ,ルドアウト交差検証損失が最小になる最適な“MinLeafSize”の値を求めます(“汽车”を指定すると“MinLeafSize”が使用されます)。再現性を得るため,“expected-improvement-plus”の獲得関数を使用し,rngtallrngにより乱数発生器のシ,ドを設定します。高配列の場合,ワーカーの個数と実行環境によって結果が異なる可能性があります。詳細については、コ,ドの実行場所の制御を参照してください。

rng (“默认”) tallrng (“默认”) [Mdl,FitInfo,HyperparameterOptimizationResults] = fitrtree(tx,ty,...“OptimizeHyperparameters”“汽车”...“HyperparameterOptimizationOptions”结构(“坚持”, 0.3,...“AcquisitionFunctionName”“expected-improvement-plus”))
评估高表达式使用并行池“当地”:通过1对1:在4.4秒完成评估在6.2秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.97秒完成,通过2 4:在1.6秒完成,通过3 4:在3.6秒完成,通过4 4:在2.4秒完成评估在9.8秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.55秒完成,通过2 4:完成1.3秒-通过3 4:在2.7秒完成,通过4 4:在1.9秒完成评估在7.3秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.52秒完成,通过2 4:在1.3秒完成,通过3 4:完成在3秒-通过4 4:在2秒完成评估在8.1秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.55秒完成,通过2 4:完成1.4秒-通过3 4:在2.6秒完成,通过4 4:在2秒完成评估在7.3秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.61秒完成,通过2 4:在1.2秒完成,通过3 4:在2.1秒完成,通过4 4:在1.7秒完成评估在6.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.53秒完成,通过2 4:在1.2秒内完成-通过3 / 4:在2.4秒内完成-通过4 / 4:在1.6秒内完成评估在6.6秒内完成评估使用并行池“本地”的高表达式:-通过1 / 1:在1.4秒内完成评估在1.7秒内完成|======================================================================================| | Iter | Eval |目标:| |目的BestSoFar | BestSoFar | MinLeafSize | | | |结果日志(1 +损失)运行时| | | (estim(观察) .) | | |======================================================================================| | 最好1 | | 3.2007 | 69.013 | 3.2007 | 3.2007 | 2 |
评估高表达式使用并行池“当地”:通过1对1:在0.52秒完成评估在0.83秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.65秒完成,通过2 4:在1.2秒完成,通过3 4:完成在3秒-通过4 4:在2秒完成评估在8.3秒完成评估高表达式使用并行池“当地”:-通过1的1:完成在0.79秒评估完成在1秒| 2 |错误| NaN | 13.772 | NaN | 3.2007 | 46 |
评估高表达式使用并行池“当地”:通过1对1:在0.52秒完成评估在0.81秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.57秒完成,通过2 4:在1.3秒完成,通过3 4:在2.2秒完成,通过4 4:在1.7秒完成评估在6.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:完成1.2秒-通过3 4:在2.7秒完成,通过4 4:在1.7秒完成评估在6.9秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.47秒完成,通过2 4:在1.1秒完成,通过3 4:在2.1秒完成,通过4 4:在1.9秒完成评估在6.4秒完成评估高表达式使用并行池“当地”:-通过1的1:0.72秒完成评估0.99秒完成| 3 |最佳| 3.1876 | 29.091 | 3.1876 | 3.1884 | 18 |
评估高表达式使用并行池“当地”:通过1对1:在0.48秒完成评估在0.76秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:在1.2秒完成,通过3 4:在1.9秒完成,通过4 4:在1.4秒完成评估在5.8秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:完成1.1秒-通过3 4:完成2秒-通过4 4:在1.5秒完成评估在5.8秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.54秒完成,通过2 4:在1.1秒完成,通过3 4:在1.9秒完成,通过4 4:在1.4秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.46秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.5秒内完成评估使用并行池“本地”的高表达式:-通过1 / 1:在0.64秒内完成评估在0.92秒内完成| 4 |最佳| 2.9048 | 33.465 | 2.9048 | 2.9537 | 6 |
评估高表达式使用并行池“当地”:通过1对1:在0.44秒完成评估在0.71秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.46秒完成,通过2 4:在1.1秒完成,通过3 4:完成2秒-通过4 4:在1.5秒完成评估在5.9秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.47秒完成,通过2 4:完成1.1秒-通过3 4:在1.9秒完成,通过4 4:在1.5秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.9秒完成,通过4 4:在1.4秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:-通过1的1:0.66秒完成评估0.92秒完成| 5 |接受| 3.2895 | 25.902 | 2.9048 | 2.9048 | 15 |
评估高表达式使用并行池“当地”:通过1对1:在0.54秒完成评估在0.82秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.53秒完成,通过2 4:在1.2秒完成,通过3 4:完成2秒-通过4 4:在1.5秒完成评估在6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:完成1.1秒-通过3 4:在2.1秒完成,通过4 4:在1.9秒完成评估在6.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.49秒完成,通过2 4:在1.1秒完成,通过3 4:在1.9秒完成,通过4 4:在2秒完成评估在6.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在2秒内完成-通过4 / 4:在1.4秒内完成评估在5.8秒内完成评估使用并行池“local”来评估高表达式:-通过1 / 1:在0.68秒内完成评估在0.99秒内完成| 6 |接受| 3.1641 | 35.522 | 2.9048 | 3.1493 | 5 |
评估高表达式使用并行池“当地”:通过1对1:在0.51秒完成评估在0.79秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.67秒完成,通过2 4:在1.3秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在6.2秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:完成1.1秒-通过3 4:在1.9秒完成,通过4 4:在1.4秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:在1.4秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.8秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.46秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.6秒内完成评估使用并行池“本地”来评估高表达式:-通过1 / 1:在0.63秒内完成评估在0.89秒内完成| 7 |接受| 2.9048 | 33.755 | 2.9048 | 2.9048 | 6 |
评估高表达式使用并行池“当地”:通过1对1:在0.45秒完成评估在0.75秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.51秒完成,通过2 4:在1.2秒完成,通过3 4:在2.2秒完成,通过4 4:在1.5秒完成评估在6.1秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.49秒完成,通过2 4:完成1.1秒-通过3 4:在1.9秒完成,通过4 4:在1.4秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.46秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.3秒内完成评估在5.4秒内完成评估使用并行池“local”的高表达式:-通过1 / 1:在0.68秒内完成评估在0.97秒内完成| 8 |接受| 2.9522 | 33.362 | 2.9048 | 2.9048 | 7 |
评估高表达式使用并行池“当地”:通过1对1:在0.42秒完成评估在0.71秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:在1.1秒完成,通过3 4:在1.9秒完成,通过4 4:在1.5秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.49秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.5秒内完成评估使用并行池“local”的高表达式:-通过1 / 1:在0.64秒内完成评估在0.9秒内完成| 9 |接受| 2.9985 | 32.674 | 2.9048 | 2.9048 | 8 |
评估高表达式使用并行池“当地”:通过1对1:在0.43秒完成评估在0.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.47秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.56秒完成,通过2 4:完成1.2秒-通过3 4:完成2秒-通过4 4:在1.4秒完成评估在6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.5秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.47秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.6秒内完成评估在5.8秒内完成评估使用并行池“local”来评估高表达式:-通过1 / 1:在0.88秒内完成评估在1.2秒内完成| 10 |接受| 3.0185 | 33.922 | 2.9048 | 2.9048 | 10 |
评估高表达式使用并行池“当地”:通过1对1:在0.44秒完成评估在0.74秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.46秒完成,通过2 4:在1.2秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:完成1.2秒-通过3 4:完成2秒-通过4 4:在1.6秒完成评估在6.2秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.73秒完成,通过2 4:在1.2秒完成,通过3 4:完成2秒-通过4 4:在1.5秒完成评估在6.2秒完成评估高表达式使用并行池“当地”:-通过1的1:0.63秒完成评估0.88秒完成| 11 |接受| 3.2895 | 26.625 | 2.9048 | 2.9048 | 14 |
评估高表达式使用并行池“当地”:通过1对1:在0.48秒完成评估在0.78秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.51秒完成,通过2 4:在1.2秒完成,通过3 4:在1.9秒完成,通过4 4:在1.3秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:在1.2秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.5秒内完成评估使用并行池“local”的高表达式:-通过1 / 1:在0.65秒内完成评估在0.9秒内完成| 12 |接受| 3.4798 | 18.111 | 2.9048 | 2.9049 | 31 |
评估高表达式使用并行池“当地”:通过1对1:在0.44秒完成评估在0.71秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1.2秒内完成-通过3 / 4:在2秒内完成-通过4 / 4:在1.4秒内完成评估在5.7秒内完成评估使用并行池“local”来评估高表达式:-通过1 / 1:在0.64秒内完成评估在0.91秒内完成| 13 |接受| 3.2248 | 47.436 | 2.9048 | 2.9048 | 1 |
评估高表达式使用并行池“当地”:通过1对1:在0.46秒完成评估在0.74秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.6秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.57秒完成,通过2 4:在1.1秒完成,通过3 4:在2.6秒完成,通过4 4:在1.6秒完成评估在6.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.62秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.6秒完成评估在6.1秒完成评估高表达式使用并行池“当地”:-通过1的1:0.61秒完成评估0.88秒完成| 14 |接受| 3.1498 | 42.062 | 2.9048 | 2.9048 | 3 |
评估高表达式使用并行池“当地”:通过1对1:在0.46秒完成评估在0.76秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.67秒完成,通过2 4:在1.3秒完成,通过3 4:在2.3秒完成,通过4 4:在2.2秒完成评估在7.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.4秒内完成评估使用并行池“local”来评估高表达式:-通过1 / 1:在0.6秒内完成评估在0.86秒内完成| 15 |接受| 2.9048 | 34.3 | 2.9048 | 2.9048 | 6 |
评估高表达式使用并行池“当地”:通过1对1:在0.48秒完成评估在0.78秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:完成1.2秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在2秒内完成-通过4 / 4:在1.4秒内完成评估在5.7秒内完成评估使用并行池“local”来评估高表达式:-通过1 / 1:在0.62秒内完成评估在0.88秒内完成| 16 |接受| 2.9048 | 32.97 | 2.9048 | 2.9048 | 6 |
评估高表达式使用并行池“当地”:通过1对1:在0.43秒完成评估在0.73秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.47秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.3秒内完成评估在5.5秒内完成使用并行池“local”评估高表达式:-通过1 / 1:在0.62秒内完成评估在0.9秒内完成| 17 |接受| 3.1847 | 17.47 | 2.9048 | 2.9048 | 23 |
评估高表达式使用并行池“当地”:通过1对1:在0.43秒完成评估在0.72秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.68秒完成,通过2 4:完成1.4秒-通过3 4:在1.9秒完成,通过4 4:在1.4秒完成评估在6.3秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.4秒内完成评估使用并行池“local”的高表达式:-通过1 / 1:在0.62秒内完成评估在0.93秒内完成| 18 |接受| 3.1817 | 33.346 | 2.9048 | 2.9048 | 4 |
评估高表达式使用并行池“当地”:通过1对1:在0.43秒完成评估在0.72秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:-通过1的1:完成在0.62秒评估完成在0.86秒| 19 |错误| NaN | 10.235 | 2.9048 | 2.9048 | 38 |
评估高表达式使用并行池“当地”:通过1对1:在0.47秒完成评估在0.76秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.2秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.9秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.5秒内完成评估使用并行池“local”的高表达式:-通过1 / 1:在0.63秒内完成评估在0.89秒内完成| 20 |接受| 3.0628 | 32.459 | 2.9048 | 2.9048 | 12 |
评估高表达式使用并行池“当地”:通过1对1:在0.46秒完成评估在0.76秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.68秒完成,通过2 4:完成在1.7秒-通过3 / 4:完成在2.1秒-通过4 / 4:完成在1.4秒评估完成在6.8秒评估高表达式使用并行池“本地”:-通过1 / 1:完成在0.64秒评估完成在0.9秒|======================================================================================| | Iter | Eval |目标:| |目的BestSoFar | BestSoFar | MinLeafSize | | | |结果日志(1 +损失)运行时| | | (estim(观察) .) | | |======================================================================================| | 21日|接受| 3.1847 | 19.02 | 2.9048 | 2.9048 | | 27岁
评估高表达式使用并行池“当地”:通过1对1:在0.45秒完成评估在0.75秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.47秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:在1.6秒完成,通过3 4:在2.4秒完成,通过4 4:在1.5秒完成评估在6.8秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.5秒内完成评估在5.6秒内完成评估使用并行池“local”来评估高表达式:-通过1 / 1:在0.63秒内完成评估在0.89秒内完成| 22 |接受| 3.0185 | 33.933 | 2.9048 | 2.9048 | 9 |
评估高表达式使用并行池“当地”:通过1对1:在0.46秒完成评估在0.76秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:-通过1的1:0.64秒完成评估0.89秒完成| 23 |接受| 3.0749 | 25.147 | 2.9048 | 2.9048 | 20 |
评估高表达式使用并行池“当地”:通过1对1:在0.44秒完成评估在0.73秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.42秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.53秒完成,通过2 4:在1.4秒完成,通过3 4:在1.9秒完成,通过4 4:在1.4秒完成评估在5.9秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.5秒内完成评估使用并行池“local”的高表达式:-通过1 / 1:在0.62秒内完成评估在0.88秒内完成| 24 |接受| 3.0628 | 32.764 | 2.9048 | 2.9048 | 11 |
评估高表达式使用并行池“当地”:通过1对1:在0.44秒完成评估在0.73秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.2秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:-通过1的1:完成在0.61秒评估完成在0.87秒| 25 |错误| NaN | 10.294 | 2.9048 | 2.9048 | 34 |
评估高表达式使用并行池“当地”:通过1对1:在0.44秒完成评估在0.73秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.3秒内完成评估在5.4秒内完成评估使用并行池“local”的高表达式:-通过1 / 1:在0.62秒内完成评估在0.87秒内完成| 26 |接受| 3.1847 | 17.587 | 2.9048 | 2.9048 | 25 |
评估高表达式使用并行池“当地”:通过1对1:在0.45秒完成评估在0.73秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.3秒完成评估高表达式使用并行池“当地”:-通过1的1:在0.66秒完成评估在0.96秒完成| 27 |接受| 3.2895 | 24.867 | 2.9048 | 2.9048 | 16 |
评估高表达式使用并行池“当地”:通过1对1:在0.44秒完成评估在0.74秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:-通过1的1:0.6秒完成评估0.88秒完成| 28 |接受| 3.2135 | 24.928 | 2.9048 | 2.9048 | 13 |
评估高表达式使用并行池“当地”:通过1对1:在0.47秒完成评估在0.76秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.46秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.3秒内完成评估在5.5秒内完成使用并行池“local”评估高表达式:-通过1 / 1:在0.62秒内完成评估在0.87秒内完成| 29 |接受| 3.1847 | 17.582 | 2.9048 | 2.9048 | 21 |
评估高表达式使用并行池“当地”:通过1对1:在0.53秒完成评估在0.81秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.3秒内完成评估在5.4秒内完成评估使用并行池“local”来评估高表达式:-通过1 / 1:在0.63秒内完成评估在0.88秒内完成| 30 |接受| 3.1827 | 17.597 | 2.9048 | 2.9122 | 29 |

__________________________________________________________ 优化完成。最大目标达到30个。总的函数计算:30总的运行时间:882.5668秒。总目标函数评估时间:859.2122最佳观测可行点:MinLeafSize ___________ 6观测目标函数值= 2.9048估计目标函数值= 2.9122函数评估时间= 33.4655最佳估计可行点(根据模型):MinLeafSize ___________ 6估计目标函数值= 2.9122估计函数评估时间= 33.6594使用并行池“本地”评估高表达式:-通过1 / 2:在0.26秒完成,通过2 2:在0.26秒完成评估在0.84秒完成评估高表达使用并行池“当地”:——通过1 7:在0.31秒完成,通过2 7:在0.25秒完成,通过3 7:在0.75秒完成,通过4 7:在1.2秒完成,通过5 7:在0.45秒完成,通过6 7:在0.69秒完成,通过7 7:在1.2秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.28秒完成,通过2 7:在0.24秒完成,通过3 7:在0.75秒完成,通过4 7:在1.2秒完成,通过5 7:在0.46秒完成,通过6 7:在0.67秒完成,通过7 7:在1.2秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.32秒完成,通过2 7:在0.25秒完成,通过3 7:在0.71秒完成,通过4 7:在1.2秒完成,通过5 7:在0.47秒完成,通过6 7:在0.66秒完成,通过7 7:在1.2秒完成评估在5.6秒完成评估高表达使用并行池“当地”:——通过1 7:在0.29秒完成,通过2 7:在0.25秒完成,通过3 7:在0.73秒完成,通过4 7:在1.2秒完成,通过5 7:在0.46秒完成,通过6 7:在0.68秒完成,通过7 7:在1.2秒完成评估在5.5秒完成评估高表达使用并行池“当地”:——通过1 7:在0.27秒完成,通过2 7:在0.25秒完成,通过3 7:在0.75秒完成,通过4 7:在1.2秒完成,通过5 7:在0.47秒完成,通过6 7:在0.69秒完成,通过7 7:在1.2秒完成评估在5.6秒完成
Mdl = CompactRegressionTree ResponseName: 'Y' CategoricalPredictors: [] ResponseTransform: 'none'属性,方法
FitInfo =结构,不带字段。
HyperparameterOptimizationResults = BayesianOptimization with properties: ObjectiveFcn: @createObjFcn/tallObjFcn variabledescription: [3×1 optimizableVariable] Options: [1×1 struct] MinObjective: 2.9048 XAtMinObjective: [1×1 table] minestimatedobjobjective: 2.9122 xatminestimatedobjobjective: [1×1 table] numobjectiveevalues: 30 TotalElapsedTime: 882.5668 NextPoint: [1×1 table] XTrace: [30×1 table] ObjectiveTrace: [30×1 double] ConstraintsTrace: [] UserDataTrace:{30×1 cell} ObjectiveEvaluationTimeTrace: [30×1 double] IterationTimeTrace: [30×1 double] ErrorTrace: [30×1 double]可行性跟踪:[30×1 logical]可行性概率跟踪:[30×1 double] IndexOfMinimumTrace: [30×1 double] objectivminimumtrace: [30×1 double] estimatedobjectivminimumtrace: [30×1 double]

入力引数

すべて折りたたむ

モデルを学習させるために使用する標本デ,タ。テ,ブルとして指定します。资源描述の各行は1の観測値に,各列は1。オプションとして,资源描述に応答変数用の列を1追加できます。文字ベクトルのcell配列ではない cell 配列と複数列の変数は使用できません。

  • 资源描述に応答変数が含まれている場合に资源描述内の他の変数をすべて予測子として使用するには,ResponseVarNameを使用して応答変数を指定します。

  • 资源描述に応答変数が含まれている場合に资源描述内の他の変数の一部のみを予測子として使用するには,公式を使用して式を指定します。

  • 资源描述に応答変数が含まれていない場合は,Yを使用して応答変数を指定します。応答変数の長さと资源描述の行数は等しくなければなりません。

デ,タ型:表格

応答変数の名前。资源描述内の変数の名前で指定します。応答変数は,数値ベクトルでなければなりません。

ResponseVarNameには文字ベクトルまたは字符串スカラ,を指定しなければなりません。たとえば,応答変数Y资源描述资源描述。Yとして格納されている場合,“Y”を指定します。それ以外の場合,モデルを学習させるときに,资源描述の列はYを含めてすべて予測子として扱われます。

デ,タ型:字符|字符串

応答変数および予測子変数サブセットの説明モデル。“Y ~ x1 + x2 + x3”という形式の文字ベクトルまたは字符串スカラ,を指定します。この形式では,Yは応答変数を,x1x2およびx3は予測子変数を表します。

モデルに学習をさせるための予測子として资源描述内の変数のサブセットを指定するには,式を使用します。式を指定した場合,公式に現れない资源描述内の変数は使用されません。

式の変数名は资源描述の変数名(Tbl.Properties.VariableNames)であり,有効なmatlab®識別子でなければなりません。関数isvarnameを使用して资源描述の変数名を検証できます。変数名が有効でない場合,関数matlab.lang.makeValidNameを使用してそれらを変換できます。

デ,タ型:字符|字符串

応答デ,タ。Xと同じ行数の数値列ベクトルとして指定します。Yの各エントリはXの対応する行に対する応答です。

Y値は欠損値と見なされます。fitrtreeは,Yに欠損値がある観測値をあてはめで使用しません。

デ,タ型:|

予測子デ,タ。数値行列として指定します。Xの各列が1の変数を表し,各行が1。

fitrtreeは,X値を欠損値として認識します。fitrtreeは,すべての欠損値のある観測をXの近似に使用しません。fitrtreeは,これらの観測が有効な値をも場合に変数の分割を検出するために,一部の欠損値のある観測をXに使用します。

デ,タ型:|

名前と値のペアの引数

オプションの名称,值引数のコンマ区切りペアを指定します。的名字は引数名で,价值は対応する値です。的名字は引用符で囲まなければなりません。Name1, Value1,…,的家のように,複数の名前と値のペアの引数を,任意の順番で指定できます。

例:“CrossVal”,“上”、“MinParentSize”,30岁は,枝ノドごとに最低30個の観測値をも交差検証回帰木を指定します。

メモ

交差検証の名前と値のペアの引数を名前と値のペアの引数“OptimizeHyperparameters”と同時に使用することはできません。“OptimizeHyperparameters”の場合の交差検証は,名前と値のペアの引数“HyperparameterOptimizationOptions”を使用することのみによって変更できます。

モデルパラメタ

すべて折りたたむ

カテゴリカル予測子のリスト。次の表のいずれかの値として指定します。

説明
正の整数のベクトル

ベクトルの各エントリは,カテゴリカル変数が含まれている予測子データの列に対応するインデックス値です。ンデックス値の範囲は1 ~pです。pはモデルの学習に使用した予測子の数です。

fitrtreeが入力変数のサブセットを予測子として使用する場合,関数はサブセットのみを使用して予測子にインデックスを作成します。応答変数,観測値の重み変数,および関数で使用されないその他の変数は,“CategoricalPredictors”値でカウントされません。

逻辑ベクトル

真正的というエントリは,予測子デ,タの対応する列がカテゴリカル変数であることを意味します。ベクトルの長さはpです。

文字行列 行列の各行は予測子変数の名前です。名前はPredictorNamesのエントリに一致しなくてはなりません。文字行列の各行が同じ長さになるように、名前を余分な空白で埋めてください。
文字ベクトルのcell配列または字符串配列 配列の各要素は予測子変数の名前です。名前はPredictorNamesのエントリに一致しなくてはなりません。
“所有” すべての予測子がカテゴリカルです。

既定では,予測子デ,タがテ,ブル(资源描述)内にある場合,fitrtreeは,その変数が逻辑ベクトル,順序付けのない直言ベクトル,文字配列,字符串配列または文字ベクトルの细胞配列のいずれかである場合に,変数を直言であると見なします。予測子デタが行列(X)である場合,fitrtreeはすべての予測子が連続的であると見なします。他の予測子をカテゴリカル予測子として指定するには,名前と値の引数“CategoricalPredictors”を使用してそれらを指定します。

例:“CategoricalPredictors”、“所有”

デ,タ型:||逻辑|字符|字符串|细胞

最大の木の深さ。“MaxDepth”と正の整数から構成されるコンマ区切りのペアとして指定します。この引数の値を指定すると,レベル数が少なく,計算対象の高配列に対して必要な通過回数が少ない木が返されます。一般に,fitrtreeのアルゴリズムでは,デ:タを1回通過し,木の各レベルに対してさらに1回ず通過します。既定では,この関数は最大の木の深さを設定しません。

メモ

このオプションは,高配列に対してfitrtreeを使用する場合のみ適用されます。詳細にいては,高配列を参照してください。

葉マ,ジフラグ。“MergeLeaves”“上”または“关闭”で構成されるコンマ区切りのペアとして指定します。

MergeLeaves“上”の場合,fitrtreeは次のようにします。

  • 同じ親ノードから派生する葉のうち,リスク値の合計が親ノードに関連付けられているリスク以上であるものをマージします。

  • 枝刈りされた部分木の最適系列を推定しますが,回帰木は枝刈りしない

それ以外の場合,fitrtreeは葉をマ,ジしません。

例:“MergeLeaves”,“关闭”

枝ノ,ドの観測値の最小数。“MinParentSize”と正の整数値で構成されるコンマ区切りのペアとして指定します。リの各枝ノドには少なくともMinParentSizeの観測値があります。MinParentSizeMinLeafSizeの両方を指定した場合,fitrtreeでは葉の数が多くなる方の設定を使用します。MinParentSize = max(MinParentSize,2*MinLeafSize)

例:“MinParentSize”,8

デ,タ型:|

数値予測子のビンの個数。“NumBins”と正の整数スカラ,から構成されるコンマ区切りのペアとして指定します。

  • “NumBins”の値が空(既定)である場合,fitrtreeはどの予測子もビン化しません。

  • “NumBins”の値として正の整数スカラ(numBins)を指定した場合,fitrtreeは最大numBins個の同確率のビンにすべての数値予測子をビン化し,元のデータではなくビンのインデックスに対して木が成長します。

    • 予測子に含まれる一意の値がnumBinsより少なければ,ビンの数をnumBinsより少なくすることができます。

    • fitrtreeは,カテゴリカル予測子をビン化しません。

大規模な学習データセットを使用する場合,このビン化オプションを使用すると学習を高速化できますが,精度が低下する可能性があります。はじめに“NumBins”,50岁を試してから,精度と学習速度に応じて値を変更できます。

学習済みのモデルでは,ビンのエッジはBinEdgesプロパティに格納されます。

例:“NumBins”,50岁

デ,タ型:|

予測子変数名。一意な名前の字符串配列または一意な文字ベクトルの单元格配列として指定します。PredictorNamesの機能は,学習デ,タの提供方法によって決まります。

  • XYを指定した場合,PredictorNamesを使用してX内の予測子変数に名前を割り当てることができます。

    • PredictorNames内の名前の順序は,Xの列の順序に一致しなければなりません。まり,PredictorNames {1}X (: 1)の名前,PredictorNames {2}X (:, 2)の名前であり,他も同様です。また,大小(X, 2)元素个数(PredictorNames)は等しくなければなりません。

    • 既定ではPredictorNames{x1, x2,…}です。

  • 资源描述を指定する場合,PredictorNamesを使用して学習に使用する予測子変数を選択できます。まり,fitrtreeは,学習中にPredictorNamesの予測子変数と応答変数のみを使用します。

    • PredictorNamesTbl.Properties.VariableNamesのサブセットでなければならず,応答変数の名前を含めることはできません。

    • 既定では,すべての予測子変数の名前がPredictorNamesに格納されます。

    • “PredictorNames”公式の両方ではなく,いずれか一方を使用して学習用の予測子を指定することをお勧めします。

例:PredictorNames,{‘SepalLength’,‘SepalWidth’,‘PetalLength’,‘PetalWidth}

デ,タ型:字符串|细胞

各ノ,ドで最適な分割予測子の選択に使用するアルゴリズム。“PredictorSelection”と次の表の値から構成されるコンマ区切りのペアとして指定します。

説明
“allsplits”

標準购物车——すべての予測子に対して可能なすべての分割について分割基準ゲインを最大化する分割予測子を選択します[1]

“弯曲” 曲率検定-各予測子と応答の間の独立性に対するカesc esc二乗検定のp値を最小化する分割予測子を選択します[2]。学習速度は標準cartと同等です。
“interaction-curvature” 交互作用検定——各予測子と応答の間の独立性に対するカイ二乗検定のp値を最小化し(つまり,曲率検定を実施し),予測子の各ペアと応答の間の独立性に対するカイ二乗検定のp値を最小化する分割予測子を選択します[2]。学習速度は標準cartより遅くなる可能性があります。

“弯曲”“interaction-curvature”では,すべての検定でp値が0.05を超える場合,fitrtreeはノ,ドの分割を停止します。

ヒント

  • 標準购物车アルゴリズムには,相違する値が少ない分割予測子(カテゴリカル変数など)よりも,相違する値が多い分割予測子(連続変数など)を選択する傾向があります[3]。以下のいずれかに該当する場合は,曲率検定または交互作用検定の指定を検討してください。

    • 相違する値の個数が他の予測子よりも比較的少ない予測子がある場合(予測子データセットが異種混合である場合など)。

    • 予測子の重要度の分析が目標である場合。予測子の重要度推定の詳細にいては,predictorImportanceおよび特徴選択の紹介を参照してください。

  • 標準购物车を使用して成長させた木は,予測子変数の交互作用の影響を受けません。また,多くの無関係な予測子が存在する状況では、このような木によって重要な変数が特定される可能性は、交互作用検定を適用した場合より低くなります。このため、予測子の交互作用を考慮し、重要度変数の特定を多くの無関係な変数が存在する状況で行うには、交互作用検定を指定します。

  • “PredictorSelection”の値は,予測速度に影響を与えません。

fitrtreeが分割予測子を選択する方法の詳細にいては,ノ,ド分割規則分割予測子選択手法の選択を参照してください。

例:“PredictorSelection”、“弯曲”

枝刈りされた部分木の最適なシ,ケンスを推定するフラグ。“删除”“上”または“关闭”で構成されるコンマ区切りのペアとして指定します。

修剪“上”の場合,fitrtreeは回帰木を成長させ,枝刈りされた部分木の最適シ,ケンスを推定しますが,回帰木を枝刈りしません。それ以外の場合,fitrtreeは回帰木を成長させますが,枝刈りされた部分木の最適なシ,ケンスを推定しません。

学習させた回帰木を枝刈りするには,回帰木を修剪に渡します。

例:“删除”,“关闭”

枝刈り条件。“PruneCriterion”mse的で構成されるコンマ区切りのペアとして指定します。

ノ,ドあたりの二次誤差の許容誤差。“QuadraticErrorTolerance”と正のスカラ,値で構成されるコンマ区切りのペアとして指定します。ノ,ドあたりの重み付き平均二乗誤差がQuadraticErrorTolerance *εより小さくなるとノ,ド分割が停止します。ここでεは,決定木を成長させる前に計算された,n個の応答すべての重み付き平均二乗誤差です。

ε 1 n w y y ¯ 2

wは,すべての観測値の重みの合計が1になる( 1 n w 1 )と仮定した場合の観測値我の重みです。

y ¯ 1 n w y

は,すべての応答の加重平均です。

ノド分割の詳細にいては,ノ,ド分割規則を参照してください。

例:“QuadraticErrorTolerance”,1的军医

モデルの学習の反復実行における再現性を強制するためのフラグ。“复制”または真正的から構成されるコンマ区切りのペアとして指定します。

“NumVariablesToSample”“所有”ではない場合,各分岐で予測子が無作為に選択されます。無作為な選択を再現するには,“重现”,真的を指定し,rngを使用して乱数発生器のシ,ドを設定しなければなりません。“复制”真正的に設定すると学習速度が低下する可能性があることに注意してください。

例:“重现”,真的

デ,タ型:逻辑

応答変数名。文字ベクトルまたは字符串スカラ,として指定します。

  • Yを指定した場合,“ResponseName”を使用して応答変数の名前を指定できます。

  • ResponseVarNameまたは公式を指定した場合,“ResponseName”を使用することはできません。

例:“ResponseName”、“响应”

デ,タ型:字符|字符串

応答の変換。“没有”または関数ハンドルのいずれかとして指定します。既定の設定は“没有”です。これは@ (y) y,まり変換なしを表します。MATLAB関数またはユーザー定義関数の場合は、応答変換用の関数ハンドルを使用します。関数ハンドルは、ベクトル (元の応答値) を受け入れて同じサイズのベクトル (変換した応答値) を返さなければなりません。

例:Myfunction = @(y)exp(y)を使用して,指数変換を入力ベクトルに適用する関数のハンドルを作成するとします。この場合,応答変換としてmyfunction ResponseTransform,を指定できます。

デ,タ型:字符|字符串|function_handle

分割条件。“SplitCriterion”MSE的(平均二乗誤差)で構成されるコンマ区切りのペアとして指定します。

例:“SplitCriterion”、“MSE的

代理決定分岐フラグ。“代孕”“上”“关闭”“所有”または正の整数から構成されるコンマ区切りのペアとして指定します。

  • “上”のときは,fitrtreeは各枝ノドで最大10の代理分岐を探します。

  • 正の整数が設定された場合,fitrtreeは指定された数までの代理分岐を各枝ノ,ドで検出します。

  • “所有”に設定すると,fitrtreeは各枝ノ,ドですべての代理分岐を検出します。“所有”に設定すると,処理時間およびメモリ使用量が増加する可能性があります。

代理分岐を使用すると,欠損値をもデタの予測精度が改善されます。また,予測子同士の関連性予測尺度も計算できます。

例:“代孕”,“上”

デ,タ型:||字符|字符串

観測値の重み。“重量”とスカラ,値のベクトルまたは资源描述内の変数の名前から構成されるコンマ区切りのペアとして指定します。Xまたは资源描述の各行に含まれている観測値には,权重の対応する値で重みが付けられます。权重のサ电子邮箱ズは,Xまたは资源描述の行数と同じでなければなりません。

入力デ,タをテ,ブル资源描述として指定した場合,权重は数値ベクトルが含まれている资源描述内の変数の名前にすることができます。この場合,权重には文字ベクトルまたは字符串スカラ,を指定しなければなりません。たとえば,重みのベクトルW资源描述。Wとして格納されている場合,' W 'として指定します。それ以外の場合,モデルを学習させるときに、资源描述の列はWを含めてすべて予測子として扱われます。

fitrtreeは,合計が1になるように权重の値を正規化します。

デ,タ型:||字符|字符串

交差検証

すべて折りたたむ

交差検証フラグ。“CrossVal”と,“上”または“关闭”で構成されるコンマ区切りのペアとして指定します。

“上”の場合は,fitrtreeが10分割交差検証決定木を成長させます。“KFold”“坚持”“Leaveout”または“CVPartition”名前と値のペアの引数のいずれかを使用してこの交差検証の設定をオバラドできます。交差検証木を作成する場合,一度に使用できるのは4のオプション(“KFold”“坚持”“Leaveout”および“CVPartition”)のいずれか1のみです。

または,crossvalメソッドを使用して,後でに交差検証を実施します。

例:“CrossVal”,“上”

交差検証木で使用する分割。“CVPartition”と,cvpartitionを使用して作成されるオブジェクトで構成される,コンマ区切りのペアとして指定されます。

“CVPartition”を使用する場合は,“KFold”“坚持”または“Leaveout”名前と値のペアの引数のいずれも使用できません。

ホ,ルドアウト検証に使用されるデ,タの比率。“坚持”と,[0, 1]の範囲内のスカラ,値から成るコンマ区切りのペアとして指定します。ホ,ルドアウト検証は,デ,タの指定部分をテストし,デ,タの残りの部分を学習に使用します。

“坚持”を使用する場合は,“CVPartition”“KFold”または“Leaveout”名前と値のペアの引数のいずれも使用できません。

例:“坚持”,0.1

デ,タ型:|

交差検証木で使用する分割の数。“KFold”と1より大きい正の整数値から構成されるコンマ区切りのペアとして指定します。

“KFold”を使用する場合は,“CVPartition”“坚持”または“Leaveout”名前と値のペアの引数のいずれも使用できません。

例:“KFold”,8

デ,タ型:|

放过一个法の交差検証のフラグ。“Leaveout”“上”または的假で構成されるコンマ区切りのペアとして指定します。“上”に設定すると,留下一个法の交差検証を使用します。

“Leaveout”を使用する場合は,“CVPartition”“坚持”または“KFold”名前と値のペアの引数のいずれも使用できません。

例:“Leaveout”,“上”

ハパパラメタ

すべて折りたたむ

決定分岐(枝ノ,ド)の最大数。“MaxNumSplits”と正の整数をコンマ区切りのペアとして指定します。fitrtreeでは,枝ノ,ドの数がMaxNumSplits以下になるように分割します。分割の動作にいての詳細は,木の深さの制御を参照してください。

例:“MaxNumSplits”,5

デ,タ型:|

葉ノ,ドの観測値の最小数。“MinLeafSize”と正の整数値で構成されるコンマ区切りのペアとして指定します。各葉には少なくともリ葉あたりMinLeafSizeの観測値があります。MinParentSizeMinLeafSizeの両方を指定した場合,fitrtreeでは葉の数が多くなる方の設定を使用します。MinParentSize = max(MinParentSize,2*MinLeafSize)

例:“MinLeafSize”,3

デ,タ型:|

分割ごとにランダムに選択する予測子の数。“NumVariablesToSample”と正の整数値で構成されるコンマ区切りのペアとして指定します。また,“所有”を指定すると,使用可能なすべての予測子が使用されます。

多数の予測子が学習デ,タに含まれている場合に予測子の重要度を分析するには,“NumVariablesToSample”として“所有”を指定します。このようにしないと,重要度が過小評価されて一部の予測子が選択されない可能性があります。

無作為な選択を再現するには,rngを使用して乱数発生器のシ,ドを設定し,“重现”,真的を指定しなければなりません。

例:“NumVariablesToSample”,3

デ,タ型:字符|字符串||

ハパパラメタの最適化

すべて折りたたむ

最適化するパラメタ。“OptimizeHyperparameters”と次のいずれかから構成されるコンマ区切りのペアとして指定します。

  • “没有”-最適化を行いません。

  • “汽车”- - - - - -{' MinLeafSize '}を使用します。

  • “所有”—すべての使用可能パラメタを最適化します。

  • 使用可能パラメ,タ,名のstring配列またはcell配列。

  • optimizableVariableオブジェクトのベクトル。通常はhyperparametersの出力です。

最適化では,パラメ,タ,を変化させることにより,fitrtreeの交差検証損失(誤差)を最小化しようとします。交差検証のタイプおよびその他の最適化の側面を制御するには、名前と値のペアHyperparameterOptimizationOptionsを使用します。

メモ

“OptimizeHyperparameters”の値は,他の名前と値のペアの引数を使用して設定した値より優先されます。たとえば,“OptimizeHyperparameters”“汽车”に設定すると,“汽车”の値が適用されます。

fitrtreeでは,以下のパラメ,タ,を使用できます。

  • MaxNumSplits- - - - - -fitrtreeは,既定では範囲NumObservations-1[1,马克斯(2))の対数スケ,ルで,整数を探索します。

  • MinLeafSize- - - - - -fitrtreeは,既定では範囲[1,马克斯(2楼(NumObservations / 2)))の対数スケ,ルで,整数を探索します。

  • NumVariablesToSample- - - - - -fitrtreeNumVariablesToSampleをパラメ,タ,名として渡しても,fitrtreeはすべての予測子を使用するだけです。ただし,fitrensembleはこのハ▪▪パ▪▪パラメ▪タ▪に▪▪いて最適化を行います。

既定以外のパラメ,タ,を設定するには,既定以外の値が含まれているoptimizableVariableオブジェクトのベクトルを渡します。たとえば,以下のようにします。

负载carsmallParams =超参数(“fitrtree”(功率、重量),MPG);参数(1)。Range = [1,30];

OptimizeHyperparametersの値として参数个数を渡します。

既定では,コマンドラインに反復表示が表示され,最適化のハイパーパラメーターの個数に従ってプロットが表示されます。最適化とプロットにおける目的関数は,回帰の場合はLog(1 +交叉验证损失),分類の場合は誤分類率です。反復表示を制御するには,名前と値のペアの引数“HyperparameterOptimizationOptions”详细的フィ,ルドを設定します。プロットを制御するには,名前と値のペアの引数“HyperparameterOptimizationOptions”ShowPlotsフィ,ルドを設定します。

たとえば,回帰木の最適化を参照してください。

例:“汽车”

最適化のオプション。“HyperparameterOptimizationOptions”と構造体から構成されるコンマ区切りのペアとして指定します。この引数を指定すると,名前と値のペアの引数OptimizeHyperparametersの効果が変化します。この構造体のフィ,ルドは,すべてオプションです。

フィ,ルド名 既定の設定
优化器
  • “bayesopt”-ベie浏览器ズ最適化を使用。内部的にはbayesoptが呼び出されます。

  • “gridsearch”-次元ごとにNumGridDivisionsの値があるグリッド探索を使用。

  • “randomsearch”- - - - - -MaxObjectiveEvaluations個の点で無作為に探索。

“gridsearch”では,グリッドからの一様な非復元抽出により,無作為な順序で探索します。最適化後、sortrows (Mdl.HyperparameterOptimizationResults)コマンドを使用してグリッド順のテ,ブルを取得できます。

“bayesopt”
AcquisitionFunctionName

  • “expected-improvement-per-second-plus”

  • “expected-improvement”

  • “expected-improvement-plus”

  • “expected-improvement-per-second”

  • “lower-confidence-bound”

  • “probability-of-improvement”

オブジェクト関数のランタesc escムによって最適化が異なるので,名前に每秒が含まれている獲得関数は,再現性がある結果を生成しません。名前に+が含まれている獲得関数は,領域を過剰利用している場合に動作を変更します。詳細は,獲得関数のタ@ @プを参照してください。

“expected-improvement-per-second-plus”
MaxObjectiveEvaluations 目的関数評価の最大数。 “bayesopt”または“randomsearch”の場合は30.“gridsearch”の場合はグリッド全体
MaxTime

制限時間。正の実数を指定します。制限時間の単位は,抽搐tocによって測定される秒です。MaxTimeは関数評価を中断させないため,実行時間がMaxTimeを超える可能性があります。

NumGridDivisions “gridsearch”における各次元の値の個数。値は、各次元の値の個数を表す正の整数のベクトル、またはすべての次元に適用されるスカラーが可能です。カテゴリカル変数の場合、このフィールドは無視されます。 10
ShowPlots プロットを表示するかどうかを示す論理値。真正的の場合,最良の目的関数の値が反復回数に対してプロットされます。1,优化器“bayesopt”である場合,ShowPlotsはパラメ,タ,に対する目的関数のモデルのプロットも行います。 真正的
SaveIntermediateResults 优化器“bayesopt”である場合に結果を保存するかどうかを示す論理値。真正的の場合,“BayesoptResults”という名前のワ,クスペ,ス変数が反復ごとに上書きされます。この変数はBayesianOptimizationオブジェクトです。
详细的

コマンドラ@ @ンへの表示。

  • 0-反復表示なし

  • 1-反復表示あり

  • 2-追加情報付きで反復表示あり

詳細にいては,bayesoptの名前と値のペアの引数详细的を参照してください。

1
UseParallel ベ@ @ズ最適化を並列実行するかどうかを示す論理値。並列実行には并行计算工具箱™が必要です。並列でのタイミングに再現性がないため,並列ベイズ最適化で再現性のある結果が生成されるとは限りません。詳細にいては,並列ベ@ @ズ最適化を参照してください。
重新分区

反復ごとに交差検証を再分割するかどうかを示す論理値。の場合,オプティマ。

分割ノesc escズが考慮されるので,通常は真正的にすると最も確実な結果が得られます。ただし,真正的で良好な結果を得るには,2倍以上の関数評価が必要になります。

以下の3のフィルド名は1だけ使用できます。
CVPartition cvpartitionによって作成されるcvpartitionオブジェクト。 交差検証フィ,ルドが指定されていない場合“Kfold”,5
坚持 ホ,ルドアウトの比率を表す範囲(0,1)のスカラ。
Kfold 1より大きい整数。

例:“HyperparameterOptimizationOptions”、结构(MaxObjectiveEvaluations, 60)

デ,タ型:结构体

出力引数

すべて折りたたむ

回帰木。回帰木オブジェクトとして返します。“Crossval”“KFold”“坚持”“Leaveout”または“CVPartition”オプションを使用すると,クラスRegressionPartitionedModelのリが生成されます。予測に分割されたリは使用できないため,この種類のリには预测メソッドがありません。

それ以外の場合,のクラスはRegressionTreeで,预测メソッドを使用して予測を行うことができます。

詳細

すべて折りたたむ

曲率検定

"曲率検定"は,2の変数に関連性がないという帰無仮説を評価する統計検定です。

予測子変数xおよびyの間の曲率検定は,以下のプロセスを使用して実施されます。

  1. Xが連続である場合,四分位数に分割します。分割のどの部分に属するかに従って観測値をビン化するノミナル変数を作成します。欠損値がある場合は,そのための追加のビンを作成します。

  2. 分割した予測子の各レベルj = 1,…,Jと応答のクラスk = 1,…,Kについて、クラス k における観測値の加重比率を計算します。

    π j k 1 n y k w

    wは観測値我の重みで w 1 です。我はインジケーター関数、n は標本サイズです。すべての観測値の重みが同じである場合、 π j k n j k n になります。njkは,クラスkに属している予測子のレベルjの予測子のレベル< varname > j < / varname >の観測値の個数です。

  3. 検定統計量

    t n k 1 K j 1 J π j k π j + π + k 2 π j + π + k

    を計算します。 π j + k π j k は,レベルjで予測子が観測される周辺確率です。 π + k j π j k は,クラスkが観測される周辺確率です。nが十分に大きい場合、t は自由度が (K - 1)(J - 1) の χ2分布になります。

  4. この検定のp値が0.05未満である場合,xとyには関連性がないという帰無仮説が棄却されます。

標準购物车アルゴリズムには,各ノードにおける最適な分割予測子を決定するときに,レベル数の多い連続予測子を選択する傾向があります。このような選択は見せかけだけの場合があり,カテゴリカル予測子などのような,より少ないレベルのより重要な予測子を隠してしまう可能性があります。

標準购物车の代わりに曲率検定を適用して,各ノードにおける最適な分割予測子を決定することができます。この場合,最適な分割予測子変数は、各予測子と応答変数の間における曲率検定の有意な p 値 (0.05 未満) が最小になる変数です。このような選択は、各予測子のレベル数に対してロバストです。

曲率検定を回帰木の成長に適用する方法の詳細にいては,ノ,ド分割規則[3]を参照してください。

交互作用検定

"交互作用検定"は,予測子変数のペアと応答変数の間に交互作用がないという帰無仮説を評価する統計検定です。

Yに関して予測子変数x1およびx2の関連性を評価する交互作用検定は,以下のプロセスを使用して実施されます。

  1. x1またはx2が連続である場合,その変数を四分位数に分割します。分割のどの部分に属するかに従って観測値をビン化するノミナル変数を作成します。欠損値がある場合は,そのための追加のビンを作成します。

  2. x1およびx2のどのレベルに属しているかに従って▪▪ンデックスを観測値i, J = J1J2個のレベルがあるノミナル変数zを作成します。どの観測値にも対応しないレベルをzから削除します。

  3. Zとyの間で曲率検定を実施します。

決定木を成長させるときに,予測子のペア間に重要な交互作用があり,重要度が低い他の予測子がデータ内に多数あると,標準购物车は重要な交互作用を見逃す傾向があります。しかし,代わりに曲率検定と交互作用検定を実施して予測子を選択すると,重要な交互作用の検出が改善され,より正確な決定木が生成される可能性があります。

交互作用検定を決定木の成長に適用する方法の詳細にいては,曲率検定ノ,ド分割規則および[2]を参照してください。

関連性予測尺度

"関連性予測尺度"は,観測値を分割する決定規則間の類似度を示す値です。(木を成長させることによって求められる)最適な分割に対して比較される,可能なすべての決定分岐の中で,最適な代理決定分岐は関連性予測尺度が最大になります。2番目に最適な代理分岐は、関連性予測尺度が 2 番目に大きくなります。

xjとxkがそれぞれ予測子変数jおよびkであり,j≠kであるとします。ノドtにおける最適な分割x .j< uと代理分岐xk< vの間の関連性予測尺度は,次のようになります。

λ j k 最小值 P l P R 1 P l j l k P R j R k 最小值 P l P R

  • Plは,ノ,ドtにおいてx .j< uとなる観測値の比率です。添字Lは,ノドtの左の子を表します。

  • PRは,ノ,ドtにおいてx .j≥uとなる観測値の比率です。添字Rは,ノドtの右の子を表します。

  • P l j l k は,ノ,ドtにおいてx .j< uおよびxk< vとなる観測値の比率です。

  • P R j R k は,ノ,ドtにおいてx .j≥uおよびxk≥vとなる観測値の比率です。

  • xjまたはxkにいて欠損値がある観測値は,比率の計算に使用されません。

λjkは,(-∞,1]の値になります。λjk> 0である場合,xk< vはxj< uの代理分岐として価値があります。

代理決定分岐

"代理決定分岐"は,決定木の特定のノ,ドにおける最適な決定分岐の代わりになります。最適な分割は,木を成長させることによって求められます。代理分岐では,類似する予測子変数または相関関係がある予測子変数と分割基準を使用します。

ある観測値について最適な分割予測子の値が欠損している場合,その観測値は最適な代理予測子を使用して左または右の子ノードに送られます。観測値について最適な代理予測子の値も欠損している場合,その観測値は2番目に最適な代理予測子を使用して左または右の子ノードに送られます。3番目以降にいても同様です。分割候補は,関連性予測尺度の降順で並べ替えられます。

ヒント

  • 既定では修剪“上”です。ただし,この仕様は回帰木を枝刈りしません。学習させた回帰木を枝刈りするには,回帰木を修剪に渡します。

  • モデルに学習をさせた後で,新しいデタにいて応答を予測するc / c++コドを生成できます。C/ c++コ,ドの生成にはMATLAB编码器™が必要です。詳細については、コ,ド生成の紹介を参照してください。

アルゴリズム

すべて折りたたむ

ノ,ド分割規則

fitrtreeは,以下のプロセスを使用してノ,ドtの分割方法を決定します。

  • 標準cartの場合(まり,PredictorSelection“allpairs”である場合),すべての予測子x(i = 1,…,p)にいて以下を行います。

    1. fitrtreeは,次の式を使用してノ,ドtにおける応答の重み付き平均二乗誤差(MSE)を計算します。

      ε t j T w j y j y ¯ t 2

      wjは観測値jの重み,TはノドTにおけるすべての観測値のンデックスの集合です。权重を指定しない場合,wj= 1/nになります。Nは,標本サescズです。

    2. fitrtreeは,次の式を使用して,観測値がノ,ドtに含まれる確率を推定します。

      P T j T w j

    3. fitrtreeは,xを昇順で並べ替えます。並べ替えられた予測子の各要素は,分割候補または切り取り点です。fitrtreeは,欠損値に対応するインデックスを,分割されない集合TUに記録します。

    4. fitrtreeは,すべての分割候補でMSEの減少(ΔI)を最大化することにより,xを使用してノドtを分割する最適な方法を決定します。まり,xに含まれているすべての分割候補にいて,

      1. fitrtreeは,ノ,ドtに含まれている観測値を左と右の子ノ,ド(それぞれt .lおよびtR)に分割します。

      2. fitrtreeはΔiを計算します。特定の分割候補にいて,集合lおよびtR内の観測値のesc escンデックスがそれぞれlおよびtRに含まれていると仮定します。

        • xに欠損値が含まれていない場合,現在の分割候補におけるmseの減少は次のようになります。

          Δ P T ε t P T l ε t l P T R ε t R

        • xに欠損値が含まれている場合,観測値はランダムに欠損していると仮定され,MSEの減少は次のようになります。

          Δ U P T T U ε t P T l ε t l P T R ε t R

          T - TUは,ノ,ドtに含まれている,欠損していないすべての観測値の,ンデックスの集合です。

        • 代理決定分岐を使用する場合,次のようになります。

          1. fitrtreeは,決定分岐xj< uと可能なすべての決定分岐xk< v (j≠k)の間で関連性予測尺度を計算します。

          2. fitrtreeは,最適な分割となる関連性予測尺度の降順に,可能な代替決定分岐を並べ替えます。代理分岐は,尺度が最大になる決定分岐です。

          3. fitrtreeは,xにいて代理分岐を使用して,欠損値が含まれている観測値を子ノドに割り当てます。代理予測子にも欠損値が含まれている場合,fitrtreeは他の代理がなくなるまで,尺度が2番目に大きいものから順番に決定分岐を使用します。fitrtreeは,ノードtで2つの異なる代理分岐を使用して2つの異なる観測値を分割することができます。たとえば,ノ,ドtで予測子x .(i结果{1,2})にいて,予測子1およびx2がそれぞれ最適および2番目に最適な代理であるとします。予測子xの観測値mが欠損しており(まり,x心肌梗死が欠損),xm1は欠損していない場合,x1は観測値x心肌梗死の代理予測子になります。観測値x(m + 1) iとx(m + 1),1が欠損しており,x(m + 1) 2は欠損していない場合,x2は観測値m + 1の代理予測子になります。

          4. fitrtreeは,適切なmseの減少の式を使用します。まり,fitrtreeが代理分岐を使用して,ノードtに含まれているすべての欠損観測値を子ノードに割り当てることができない場合,MSEの減少はΔ我Uになります。それ以外の場合,fitrtreeはmseの減少にΔiを使用します。

      3. fitrtreeは,mseの減少が最大になる候補を選択します。

    fitrtreeは,mseの減少が最大になる切り取り点で予測子変数を分割します。

  • 曲率検定の場合(;PredictorSelection“弯曲”である場合)

    1. fitrtreeは,ノ,ドtのすべての観測値にいて残差 r t y t y ¯ t を計算します。 y ¯ t 1 w w y t は,ノ,ドtの応答の加重平均です。重みは,权重の観測値の重みです。

    2. fitrtreeは,対応する残差の符号に従って観測値を2のビンのいずれかに割り当てます。ztは,ノ,ドtの観測値に対するビンの割り当てを格納するノミナル変数であるとします。

    3. fitrtreeは,各予測子とztの間で曲率検定を実施します。回帰木の場合、K = 2 です。

      • すべてのp値が0.05以上である場合,fitrtreeはノドtを分割しません。

      • 最小のp値が存在する場合,fitrtreeは対応する予測子を選択してノドtを分割します。

      • アンダ,フロ,により複数のp値がゼロになる場合,fitrtreeは対応する予測子に標準cartを適用して分割予測子を選択します。

    4. fitrtreeは,分割予測子を選択した場合に,標準购物车を使用して切り取り点を選択します(標準购物车のプロセスの手順4を参照)。

  • 交互作用検定の場合(;PredictorSelection“interaction-curvature”である場合)

    1. fitrtreeは,ノ,ドtの観測値にいて,各予測子と応答の間で曲率検定を,予測子の各ペアと応答の間で交互作用検定を実施します。

      • すべてのp値が0.05以上である場合,fitrtreeはノドtを分割しません。

      • 曲率検定の結果により最小のp値が存在する場合,fitrtreeは対応する予測子を選択してノドtを分割します。

      • 交互作用検定の結果により最小のp値が存在する場合,fitrtreeは対応する予測子のペアに対して標準cartを使用して分割予測子を選択します。

      • アンダ,フロ,により複数のp値がゼロになる場合,fitrtreeは対応する予測子に標準cartを適用して分割予測子を選択します。

    2. fitrtreeは,分割予測子を選択した場合に,標準购物车を使用して切り取り点を選択します(標準购物车のプロセスの手順4を参照)。

木の深さの制御

  • MergeLeaves“上”およびPruneCriterionmse的(これらの名前と値のペアの引数の既定値)の場合,枝刈りはMSEを使用して葉のみに適用されます。このように指定すると,MSEが2つの葉のMSEの合計を超えない同じ親ノードから派生する葉がマージされます。

  • MaxNumSplitsに対応するため,fitrtreeは現在の“レヤ”に含まれているすべてのノ,ドを分割してから枝ノ,ドの数をカウントします。レ。枝ノ,ドの数がMaxNumSplitsを超えた場合,fitrtreeは以下の手順に従います。

    1. 現在のレヤに含まれている枝ノドが,最大でもMaxNumSplitsになるように,分割を解除する数を判断する。

    2. 不純度順に枝ノ,ドを並べ替える。

    3. 適切ではない分岐の分割を解除する。

    4. それまでに成長させた決定木を返す。

    この手順に従うと,バランスが最大の木が生成されます。

  • 次の条件のいずれかが満たされるまで、枝ノ、ドをレ、ヤ、単位で分割します。

    • MaxNumSplits個の枝ノ,ドが存在している。

    • 推奨されている分割を行うと,少なくとも1の枝ノドで観測値の数がMinParentSizeより少なくなる。

    • 推奨される分割を行うと,少なくとも1の葉ノドで観測値の数がMinLeafSizeより少なくなる。

    • レ▪▪ヤ▪▪内で適切な分割を検出できない。まり,現在の枝刈り基準(PruneCriterion参照)では,レ。すべてのノードが純粋 (ノード内のすべての観測値が同じクラス) になるのは特殊なケースです。

    • PredictorSelectionの値が“弯曲”または“interaction-curvature”の場合に,すべての検定でp値が0.05を超える。

    MaxNumSplitsMinLeafSizeは,既定値で行われる分割に影響を与えません。“MaxNumSplits”を設定した場合,MaxNumSplits回の分割が発生する前に,MinParentSizeの値が原因となって分割が停止することもあります。

並列化

デュアルコア以上のシステムの場合,fitrtreeでは英特尔®スレッディングビルディングブロック(tbb)を使用して決定木の学習を並列化します。英特尔TBBに化学键いての詳細は,https://software.intel.com/en-us/intel-tbbを参照してください。

参照

布莱曼,L.弗里德曼,R.奥尔申和C.斯通。分类和回归树。佛罗里达州博卡拉顿:CRC出版社,1984年。

[2] Loh, W.Y.,“无偏变量选择和交互检测的回归树”。中国统计,Vol. 12, 2002, pp. 361-386。

[3]罗永安、施永信。分类树的分割选择方法中国统计,Vol. 7, 1997, pp. 815-840。

拡張機能

R2014aで導入