このペ,ジの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。
回帰用のバ@ @ナリ決定木をあてはめる
は,表树
= fitrtree (资源描述
,ResponseVarName
)资源描述
内の入力変数(予測子,特徴量,属性とも呼ばれます)と资源描述。ResponseVarName
に格納されている出力(応答)に基づいて,回帰木を返します。返される树
は,资源描述
の列の値に基づいて各枝ノ,ドが分割される二分木です。
標本デ,タを読み込みます。
负载carsmall
標本デ,タを使用して回帰木を構築します。応答変数は,ガロンあたりの走行マaaplル数(mpg)です。
tree = fitrtree([重量,气缸],MPG,...“CategoricalPredictors”2,“MinParentSize”, 20岁,...“PredictorNames”, {' W ',“C”})
tree = RegressionTree PredictorNames: {'W' 'C'} ResponseName: 'Y' CategoricalPredictors: 2 ResponseTransform: 'none' NumObservations: 94属性,方法
4、6気筒数がおよび8で重さが約1.8吨(4000ポンド)の車の燃費を予測します。
MPG4Kpred = predict(tree,[4000 4;4000 6;4000 8])
MPG4Kpred =3×119.2778 19.2778 14.3889
既定では,fitrtree
は深い決定木を成長させます。モデルの複雑さや計算時間の削減のために,より浅い木を成長させることもできます。木の深さを制御するには,名前と値のペアの引数“MaxNumSplits”
、“MinLeafSize”
または“MinParentSize”
を使用します。
carsmall
デ,タセットを読み込みます。位移
、马力
および重量
が応答英里/加仑
の予測子であると考えます。
负载carsmallX =[排量马力重量];
回帰木を成長させる場合,木の深さの制御に関する既定値は次のとおりです。
MaxNumSplits
はN - 1
。n
は学習標本のサ@ @ズです。
MinLeafSize
は1
。
MinParentSize
は10
。
これらの既定値を使用すると,学習標本のサ。
木の深さの制御にいて既定値を使用して,回帰木を学習させます。10分割の交差検証をモデルに対して実行します。
rng (1);%用于再现性MdlDefault = fitrtree(X,MPG,“CrossVal”,“上”);
木に適用される分割数のヒストグラムを描画します。適用される分割数は,葉の数より1小さい値です。また,木の1を表示します。
numBranches = @(x)sum(x. isbranch);mdldefaultnumsplitting = cellfun(numBranches, MdlDefault.Trained);图;直方图(mdlDefaultNumSplits)
视图(MdlDefault。训练有素的{1},“模式”,“图”)
分割数の平均は14 ~ 15です。
既定の分割数を使用して学習させたものほど複雑ではない(深くない)回帰木が必要であるとします。最大分割数を7に設定して別の回帰木を学習させます。これにより,既定値を使用した回帰木の平均分割数の約半分になります。10分割の交差検証をモデルに対して実行します。
Mdl7 = fitrtree(X,MPG,“MaxNumSplits”7“CrossVal”,“上”);视图(Mdl7。Trained{1},“模式”,“图”)
モデルの交差検証平均二乗誤差(mse)を比較します。
mseDefault = kfoldLoss(MdlDefault)
mseDefault = 25.7383
mse7 = kfoldLoss(Mdl7)
Mse7 = 26.5748
Mdl7
は,MdlDefault
より大幅に単純化されており,性能は少しだけ低下します。
fitrtree
を使用してハパパラメタを自動的に最適化します。
carsmall
デ,タセットを読み込みます。
负载carsmall
重量
と马力
を英里/加仑
の予測子として使用します。自動的なハイパーパラメーター最適化を使用して,5分割交差検証損失を最小化するハイパーパラメーターを求めます。
再現性を得るために,乱数シ,ドを設定し,“expected-improvement-plus”
の獲得関数を使用します。
X =[重量,马力];Y = mpg;rng默认的Mdl = fitrtree(X,Y,“OptimizeHyperparameters”,“汽车”,...“HyperparameterOptimizationOptions”结构(“AcquisitionFunctionName”,...“expected-improvement-plus”))
|======================================================================================| | Iter | Eval |目的:| |目的BestSoFar | BestSoFar | MinLeafSize | | | |结果日志(1 +损失)运行时| | | (estim(观察) .) | | |======================================================================================| | 最好1 | | 3.2818 | 0.1699 | 3.2818 | 3.2818 | 28 | | 2 |接受| 3.4183 | 0.11828 | 3.2818 | 3.2888 | 1 | | 3 |最好| 3.1457 | 0.065404 | 3.1457 | 3.1628 | 4 | | 4 |最好| 2.9885 | 0.092914 | 2.9885 | 2.9885 | 9 | | 5 |接受| 2.9978 | 0.080405 | 2.9885 | 2.9885 | 7 | | 6 | |3.0203 | 0.041921 | 2.9885 | 3.0013 | 8 | | | 7日接受| 2.9885 | 0.075416 | 2.9885 | 2.9981 | 9 | | 8最好| | 2.9589 | 0.070072 | 2.9589 | 2.9589 | 10 | | | 9日接受| 3.078 | 0.051571 | 2.9589 | 2.9888 | 13 | | |接受10 | 4.1881 | 0.089992 | 2.9589 | 2.9592 | 50 | | | 11日接受| 3.4182 | 0.076825 | 2.9589 | 2.9592 | 2 | | | 12日接受| 3.0376 | 0.079266 | 2.9589 | 2.9591 | 6 | | | 13日接受| 3.1453 | 0.079221 | 2.9589 | 2.9591 | 20 | | | 14日接受| 2.9589 | 0.099112 | 2.9589 | 2.959 |15 |接受10 | | | 3.0123 | 0.082191 | 2.9589 | 2.9728 | 11 | | | 16日接受| 2.9589 | 0.064445 | 2.9589 | 2.9593 | 10 | | | 17日接受| 3.3055 | 0.066212 | 2.9589 | 2.9593 | 3 | | | 18日接受| 2.9589 | 0.040636 | 2.9589 | 2.9592 | 10 | | | 19日接受| 3.4577 | 0.084158 | 2.9589 | 2.9591 | 37 | | 20 |接受| 3.2166 | 0.089271 | 2.9589 | 2.959 | 16 | |======================================================================================| | Iter | Eval |目的:| |目的BestSoFar | BestSoFar | MinLeafSize | | | |结果日志(1 +损失)运行时| | | (estim(观察) .) | | |======================================================================================| | 21日|接受| 3.107 | 0.084533 | 2.9589 | 2.9591 | 5 | | | 22日接受| 3.2818 | 0.065828 | 2.9589 | 2.959 | 24 | | | 23日接受| 3.3226 | 0.06413 | 2.9589 | 2.959 | 32 | | | 24日接受| 4.1881 | 0.070911 | 2.9589 | 2.9589 | 43 | | | 25日接受| 3.1789 | 0.067735 | 2.9589 | 2.9589 | 18 | | |Accept | 3.0992 | 0.069118 | 2.9589 | 2.9589 | 14 | | 27 | Accept | 3.0556 | 0.087644 | 2.9589 | 2.9589 | 22 | | 28 | Accept | 3.0459 | 0.040306 | 2.9589 | 2.9589 | 12 | | 29 | Accept | 3.2818 | 0.062954 | 2.9589 | 2.9589 | 26 | | 30 | Accept | 3.4361 | 0.073935 | 2.9589 | 2.9589 | 34 |
__________________________________________________________ 优化完成。最大目标达到30个。总函数评估:30总运行时间:37.0627秒总目标函数评估时间:2.3043最佳观测可行点:MinLeafSize ___________ 10观测目标函数值= 2.9589估计目标函数值= 2.9589估计函数评估时间= 0.070072最佳估计可行点(根据模型):MinLeafSize ___________ 10估计目标函数值= 2.9589估计函数评估时间= 0.073581
Mdl = RegressionTree ResponseName: 'Y' CategoricalPredictors: [] ResponseTransform: 'none' NumObservations: 94 HyperparameterOptimizationResults: [1x1 BayesianOptimization] Properties, Methods
carsmall
デ,タセットを読み込みます。与えられた加速,気筒数,エンジン排気量,馬力,製造業者,モデル年および重量に対して自動車の燃費の平均を予測するモデルを考えます。气缸
、制造行业
およびModel_Year
はカテゴリカル変数であるとします。
负载carsmall圆柱=分类(圆柱);Mfg = categorical(cellstr(Mfg));Model_Year = categorical(Model_Year);X =表(加速度,气缸,排量,马力,制造,...Model_Year、重量、MPG);
カテゴリカル変数で表現されるカテゴリの個数を表示します。
numCylinders = number (categories(Cylinders))
numCylinders = 3
numMfg = nummel(类别(Mfg))
numMfg = 28
numModelYear = nummel(类别(Model_Year))
numModelYear = 3
气缸
とModel_Year
には3つしかカテゴリがないので,予測子分割アルゴリズムの標準购物车ではこの2つの変数よりも連続予測子が分割されます。
デ,タセット全体を使用して回帰木に学習をさせます。偏りの無い木を成長させるため,予測子の分割に曲率検定を使用するよう指定します。デ,タには欠損値が含まれているので,代理分岐を使用するよう指定します。
Mdl = fitrtree(X,“英里”,“PredictorSelection”,“弯曲”,“代孕”,“上”);
すべての予測子について分割によるリスク変動を合計し,この合計を枝ノード数で除算することにより,予測子の重要度の値を推定します。棒グラフを使用して推定を比較します。
imp = predictorImportance(Mdl);图;酒吧(imp);标题(“预测者重要性估计”);ylabel (“估计”);包含(“预测”);H = gca;h.XTickLabel = mld . predictornames;h.XTickLabelRotation = 45;h.TickLabelInterpreter =“没有”;
このケ,スでは,最も重要な予測子は位移
であり,次に重要なのは马力
です。
既定では,fitrtree
は深い決定木を成長させます。高配列の通過回数が少なくなる、より浅い木を構築します。名前と値のペアの引数“MaxDepth”
を使用して,最大の木の深さを制御します。
高配列に対する計算を実行する場合,MATLAB®は並列プール(并行计算工具箱™がある場合は既定)またはローカルのMATLABセッションを使用します。并行计算工具箱がある場合でもローカルのMATLABセッションを使用して例を実行するには,関数mapreduce
を使用してグロ,バルな実行環境を変更できます。
carsmall
デ,タセットを読み込みます。位移
、马力
および重量
が応答英里/加仑
の予測子であると考えます。
负载carsmallX =[排量马力重量];
ンメモリ配列X
および英里/加仑
を高配列に変換します。
tx =高(X);
使用“本地”配置文件启动并行池(parpool)…连接到并行池(工人数:6)。
ty = tall(MPG);
すべての観測値を使用して回帰木を成長させます。可能な最大の深さまで木が成長することを許可します。
再現性を得るため,rng
とtallrng
を使用して乱数発生器のシ,ドを設定します。高配列の場合,ワーカーの個数と実行環境によって結果が異なる可能性があります。詳細については、コ,ドの実行場所の制御を参照してください。
rng (“默认”) tallrng (“默认”) Mdl = fitrtree(tx,ty);
评估高表达式使用并行池“当地”:——通过1 2:在4.1秒完成,通过2 2:在0.71秒完成评估在6.7秒完成评估高表达式使用并行池“当地”:——通过1 7:在1.4秒完成,通过2 7:在0.29秒完成,通过3 7:在1.5秒完成,通过4 7:在3.3秒完成,通过5 7:在0.63秒完成,通过6 7:在1.2秒完成,通过7 7:在2.6秒完成评估在12秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.36秒完成,通过2 7:在0.27秒完成,通过3 7:在0.85秒完成,通过4 7:在2秒完成,通过5 7:在0.55秒完成,通过6 7:在0.92秒完成,通过7 7:在1.6秒完成评估在7.4秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.32秒完成,通过2 7:在0.29秒完成,通过3 7:在0.89秒完成,通过4 7:在1.9秒完成,通过5 7:在0.83秒完成,通过6 7:在1.2秒完成,通过7 7:在2.4秒完成评估在9秒完成评估高表达使用并行池“当地”:——通过1 7:在0.33秒完成,通过2 7:在0.28秒完成,通过3 7:在0.89秒完成,通过4 7:在2.4秒完成,通过5 7:在0.76秒完成,通过6 7:在1秒完成,通过7 7:在1.7秒完成评估在8.3秒完成评估高表达使用并行池“当地”:——通过1 7:在0.34秒完成,通过2 7:在0.26秒完成,通过3 7:在0.81秒完成,通过4 7:在1.7秒完成,通过5 7:在0.56秒完成,通过6 7:在1秒完成,通过7 7:在1.9秒完成评估在7.4秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.35秒完成,通过2 7:在0.28秒完成,通过3 7:在0.81秒完成,通过4 7:在1.8秒完成,通过5 7:在0.76秒完成,通过6 7:在0.96秒完成,通过7 7:在2.2秒完成评估在8秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.35秒完成,通过2 7:在0.32秒完成,通过3 7:在0.92秒完成,通过4 7:在1.9秒完成,通过5 7:在1秒完成,通过6 7:在1.5秒完成,通过7 7:在2.1秒完成评估在9.2秒完成评估高表达使用并行池“当地”:——通过1 7:在0.33秒完成,通过2 7:在0.28秒完成,通过3 7:在0.82秒完成,通过4 7:在1.4秒完成,通过5 7:在0.61秒内完成-通过7次中的第6次:在0.93秒内完成-通过7次中的第7次:在1.5秒内完成评估在6.6秒内完成
学習済みの木Mdl
を表示します。
视图(Mdl,“模式”,“图”)
Mdl
は,深さ8
の木です。
標本内平均二乗誤差を推定します。
MSE_Mdl =收集(丢失(Mdl,tx,ty))
使用并行池“本地”评估tall表达式:-通过1 / 1:在1.6秒内完成评估,在1.9秒内完成
MSE_Mdl = 4.9078
すべての観測値を使用して回帰木を成長させます。最大の木の深さとして4
を指定することにより,木の深さを制限します。
Mdl2 = fitrtree(tx,ty,“MaxDepth”4);
评估高表达式使用并行池“当地”:——通过1 2:在0.27秒完成,通过2 2:在0.28秒完成评估在0.84秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.36秒完成,通过2 7:在0.3秒完成,通过3 7:在0.95秒完成,通过4 7:在1.6秒完成,通过5 7:在0.55秒完成,通过6 7:在0.93秒完成,通过7 7:在1.5秒完成评估在7秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.34秒完成,通过2 7:在0.3秒完成,通过3 7:在0.95秒完成,通过4 7:在1.7秒完成,通过5 7:在0.57秒完成,通过6 7:在0.94秒完成,通过7 7:在1.8秒完成评估在7.7秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.34秒完成,通过2 7:在0.3秒完成,通过3 7:在0.87秒完成,通过4 7:在1.5秒完成,通过5 7:在0.57秒完成,通过6 7:在0.81秒完成,通过7 7:在1.7秒完成评估在6.9秒完成评估高表达使用并行池“当地”:——通过1 7:在0.32秒完成,通过2 7:在0.27秒完成,通过3 7:在0.85秒完成,通过4 7:在1.6秒完成,通过5 7:在0.63秒内完成-通过7次中的第6次:在0.9秒内完成-通过7次中的第7次:在1.6秒内完成评估在7秒内完成
学習済みの木Mdl2
を表示します。
视图(Mdl2,“模式”,“图”)
標本内平均二乗誤差を推定します。
MSE_Mdl2 =收集(丢失(Mdl2,tx,ty))
使用并行池“本地”评估tall表达式:-通过1 / 1:在0.73秒内完成评估在1秒内完成
MSE_Mdl2 = 9.3903
Mdl2
は,複雑度が低くなった深さ4の木であり,標本内平均二乗誤差がMdl
の平均二乗誤差より大きくなっています。
高配列を使用する回帰木のハ。標本デ,タセットはcarsmall
デ,タセットです。この例では,デ,タセットを高配列に変換して,最適化手順を実行するために使用します。
高配列に対する計算を実行する場合,MATLAB®は並列プール(并行计算工具箱™がある場合は既定)またはローカルのMATLABセッションを使用します。并行计算工具箱がある場合でもローカルのMATLABセッションを使用して例を実行するには,関数mapreduce
を使用してグロ,バルな実行環境を変更できます。
carsmall
デ,タセットを読み込みます。位移
、马力
および重量
が応答英里/加仑
の予測子であると考えます。
负载carsmallX =[排量马力重量];
ンメモリ配列X
および英里/加仑
を高配列に変換します。
tx =高(X);
使用“本地”配置文件启动并行池(parpool)…连接到并行池(工人数:6)。
ty = tall(MPG);
名前と値のペアの引数“OptimizeHyperparameters”
。ホ,ルドアウト交差検証損失が最小になる最適な“MinLeafSize”
の値を求めます(“汽车”
を指定すると“MinLeafSize”
が使用されます)。再現性を得るため,“expected-improvement-plus”
の獲得関数を使用し,rng
とtallrng
により乱数発生器のシ,ドを設定します。高配列の場合,ワーカーの個数と実行環境によって結果が異なる可能性があります。詳細については、コ,ドの実行場所の制御を参照してください。
rng (“默认”) tallrng (“默认”) [Mdl,FitInfo,HyperparameterOptimizationResults] = fitrtree(tx,ty,...“OptimizeHyperparameters”,“汽车”,...“HyperparameterOptimizationOptions”结构(“坚持”, 0.3,...“AcquisitionFunctionName”,“expected-improvement-plus”))
评估高表达式使用并行池“当地”:通过1对1:在4.4秒完成评估在6.2秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.97秒完成,通过2 4:在1.6秒完成,通过3 4:在3.6秒完成,通过4 4:在2.4秒完成评估在9.8秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.55秒完成,通过2 4:完成1.3秒-通过3 4:在2.7秒完成,通过4 4:在1.9秒完成评估在7.3秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.52秒完成,通过2 4:在1.3秒完成,通过3 4:完成在3秒-通过4 4:在2秒完成评估在8.1秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.55秒完成,通过2 4:完成1.4秒-通过3 4:在2.6秒完成,通过4 4:在2秒完成评估在7.3秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.61秒完成,通过2 4:在1.2秒完成,通过3 4:在2.1秒完成,通过4 4:在1.7秒完成评估在6.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.53秒完成,通过2 4:在1.2秒内完成-通过3 / 4:在2.4秒内完成-通过4 / 4:在1.6秒内完成评估在6.6秒内完成评估使用并行池“本地”的高表达式:-通过1 / 1:在1.4秒内完成评估在1.7秒内完成|======================================================================================| | Iter | Eval |目标:| |目的BestSoFar | BestSoFar | MinLeafSize | | | |结果日志(1 +损失)运行时| | | (estim(观察) .) | | |======================================================================================| | 最好1 | | 3.2007 | 69.013 | 3.2007 | 3.2007 | 2 |
评估高表达式使用并行池“当地”:通过1对1:在0.52秒完成评估在0.83秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.65秒完成,通过2 4:在1.2秒完成,通过3 4:完成在3秒-通过4 4:在2秒完成评估在8.3秒完成评估高表达式使用并行池“当地”:-通过1的1:完成在0.79秒评估完成在1秒| 2 |错误| NaN | 13.772 | NaN | 3.2007 | 46 |
评估高表达式使用并行池“当地”:通过1对1:在0.52秒完成评估在0.81秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.57秒完成,通过2 4:在1.3秒完成,通过3 4:在2.2秒完成,通过4 4:在1.7秒完成评估在6.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:完成1.2秒-通过3 4:在2.7秒完成,通过4 4:在1.7秒完成评估在6.9秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.47秒完成,通过2 4:在1.1秒完成,通过3 4:在2.1秒完成,通过4 4:在1.9秒完成评估在6.4秒完成评估高表达式使用并行池“当地”:-通过1的1:0.72秒完成评估0.99秒完成| 3 |最佳| 3.1876 | 29.091 | 3.1876 | 3.1884 | 18 |
评估高表达式使用并行池“当地”:通过1对1:在0.48秒完成评估在0.76秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:在1.2秒完成,通过3 4:在1.9秒完成,通过4 4:在1.4秒完成评估在5.8秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:完成1.1秒-通过3 4:完成2秒-通过4 4:在1.5秒完成评估在5.8秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.54秒完成,通过2 4:在1.1秒完成,通过3 4:在1.9秒完成,通过4 4:在1.4秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.46秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.5秒内完成评估使用并行池“本地”的高表达式:-通过1 / 1:在0.64秒内完成评估在0.92秒内完成| 4 |最佳| 2.9048 | 33.465 | 2.9048 | 2.9537 | 6 |
评估高表达式使用并行池“当地”:通过1对1:在0.44秒完成评估在0.71秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.46秒完成,通过2 4:在1.1秒完成,通过3 4:完成2秒-通过4 4:在1.5秒完成评估在5.9秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.47秒完成,通过2 4:完成1.1秒-通过3 4:在1.9秒完成,通过4 4:在1.5秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.9秒完成,通过4 4:在1.4秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:-通过1的1:0.66秒完成评估0.92秒完成| 5 |接受| 3.2895 | 25.902 | 2.9048 | 2.9048 | 15 |
评估高表达式使用并行池“当地”:通过1对1:在0.54秒完成评估在0.82秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.53秒完成,通过2 4:在1.2秒完成,通过3 4:完成2秒-通过4 4:在1.5秒完成评估在6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:完成1.1秒-通过3 4:在2.1秒完成,通过4 4:在1.9秒完成评估在6.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.49秒完成,通过2 4:在1.1秒完成,通过3 4:在1.9秒完成,通过4 4:在2秒完成评估在6.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在2秒内完成-通过4 / 4:在1.4秒内完成评估在5.8秒内完成评估使用并行池“local”来评估高表达式:-通过1 / 1:在0.68秒内完成评估在0.99秒内完成| 6 |接受| 3.1641 | 35.522 | 2.9048 | 3.1493 | 5 |
评估高表达式使用并行池“当地”:通过1对1:在0.51秒完成评估在0.79秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.67秒完成,通过2 4:在1.3秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在6.2秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:完成1.1秒-通过3 4:在1.9秒完成,通过4 4:在1.4秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:在1.4秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.8秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.46秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.6秒内完成评估使用并行池“本地”来评估高表达式:-通过1 / 1:在0.63秒内完成评估在0.89秒内完成| 7 |接受| 2.9048 | 33.755 | 2.9048 | 2.9048 | 6 |
评估高表达式使用并行池“当地”:通过1对1:在0.45秒完成评估在0.75秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.51秒完成,通过2 4:在1.2秒完成,通过3 4:在2.2秒完成,通过4 4:在1.5秒完成评估在6.1秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.49秒完成,通过2 4:完成1.1秒-通过3 4:在1.9秒完成,通过4 4:在1.4秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.46秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.3秒内完成评估在5.4秒内完成评估使用并行池“local”的高表达式:-通过1 / 1:在0.68秒内完成评估在0.97秒内完成| 8 |接受| 2.9522 | 33.362 | 2.9048 | 2.9048 | 7 |
评估高表达式使用并行池“当地”:通过1对1:在0.42秒完成评估在0.71秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:在1.1秒完成,通过3 4:在1.9秒完成,通过4 4:在1.5秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.49秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.5秒内完成评估使用并行池“local”的高表达式:-通过1 / 1:在0.64秒内完成评估在0.9秒内完成| 9 |接受| 2.9985 | 32.674 | 2.9048 | 2.9048 | 8 |
评估高表达式使用并行池“当地”:通过1对1:在0.43秒完成评估在0.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.47秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.56秒完成,通过2 4:完成1.2秒-通过3 4:完成2秒-通过4 4:在1.4秒完成评估在6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.5秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.47秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.6秒内完成评估在5.8秒内完成评估使用并行池“local”来评估高表达式:-通过1 / 1:在0.88秒内完成评估在1.2秒内完成| 10 |接受| 3.0185 | 33.922 | 2.9048 | 2.9048 | 10 |
评估高表达式使用并行池“当地”:通过1对1:在0.44秒完成评估在0.74秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.46秒完成,通过2 4:在1.2秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:完成1.2秒-通过3 4:完成2秒-通过4 4:在1.6秒完成评估在6.2秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.73秒完成,通过2 4:在1.2秒完成,通过3 4:完成2秒-通过4 4:在1.5秒完成评估在6.2秒完成评估高表达式使用并行池“当地”:-通过1的1:0.63秒完成评估0.88秒完成| 11 |接受| 3.2895 | 26.625 | 2.9048 | 2.9048 | 14 |
评估高表达式使用并行池“当地”:通过1对1:在0.48秒完成评估在0.78秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.51秒完成,通过2 4:在1.2秒完成,通过3 4:在1.9秒完成,通过4 4:在1.3秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:在1.2秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.5秒内完成评估使用并行池“local”的高表达式:-通过1 / 1:在0.65秒内完成评估在0.9秒内完成| 12 |接受| 3.4798 | 18.111 | 2.9048 | 2.9049 | 31 |
评估高表达式使用并行池“当地”:通过1对1:在0.44秒完成评估在0.71秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1.2秒内完成-通过3 / 4:在2秒内完成-通过4 / 4:在1.4秒内完成评估在5.7秒内完成评估使用并行池“local”来评估高表达式:-通过1 / 1:在0.64秒内完成评估在0.91秒内完成| 13 |接受| 3.2248 | 47.436 | 2.9048 | 2.9048 | 1 |
评估高表达式使用并行池“当地”:通过1对1:在0.46秒完成评估在0.74秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.6秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.57秒完成,通过2 4:在1.1秒完成,通过3 4:在2.6秒完成,通过4 4:在1.6秒完成评估在6.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.62秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.6秒完成评估在6.1秒完成评估高表达式使用并行池“当地”:-通过1的1:0.61秒完成评估0.88秒完成| 14 |接受| 3.1498 | 42.062 | 2.9048 | 2.9048 | 3 |
评估高表达式使用并行池“当地”:通过1对1:在0.46秒完成评估在0.76秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.67秒完成,通过2 4:在1.3秒完成,通过3 4:在2.3秒完成,通过4 4:在2.2秒完成评估在7.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.4秒内完成评估使用并行池“local”来评估高表达式:-通过1 / 1:在0.6秒内完成评估在0.86秒内完成| 15 |接受| 2.9048 | 34.3 | 2.9048 | 2.9048 | 6 |
评估高表达式使用并行池“当地”:通过1对1:在0.48秒完成评估在0.78秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:完成1.2秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在2秒内完成-通过4 / 4:在1.4秒内完成评估在5.7秒内完成评估使用并行池“local”来评估高表达式:-通过1 / 1:在0.62秒内完成评估在0.88秒内完成| 16 |接受| 2.9048 | 32.97 | 2.9048 | 2.9048 | 6 |
评估高表达式使用并行池“当地”:通过1对1:在0.43秒完成评估在0.73秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.47秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.3秒内完成评估在5.5秒内完成使用并行池“local”评估高表达式:-通过1 / 1:在0.62秒内完成评估在0.9秒内完成| 17 |接受| 3.1847 | 17.47 | 2.9048 | 2.9048 | 23 |
评估高表达式使用并行池“当地”:通过1对1:在0.43秒完成评估在0.72秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.68秒完成,通过2 4:完成1.4秒-通过3 4:在1.9秒完成,通过4 4:在1.4秒完成评估在6.3秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.4秒内完成评估使用并行池“local”的高表达式:-通过1 / 1:在0.62秒内完成评估在0.93秒内完成| 18 |接受| 3.1817 | 33.346 | 2.9048 | 2.9048 | 4 |
评估高表达式使用并行池“当地”:通过1对1:在0.43秒完成评估在0.72秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:-通过1的1:完成在0.62秒评估完成在0.86秒| 19 |错误| NaN | 10.235 | 2.9048 | 2.9048 | 38 |
评估高表达式使用并行池“当地”:通过1对1:在0.47秒完成评估在0.76秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.2秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.9秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.5秒内完成评估使用并行池“local”的高表达式:-通过1 / 1:在0.63秒内完成评估在0.89秒内完成| 20 |接受| 3.0628 | 32.459 | 2.9048 | 2.9048 | 12 |
评估高表达式使用并行池“当地”:通过1对1:在0.46秒完成评估在0.76秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.48秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.68秒完成,通过2 4:完成在1.7秒-通过3 / 4:完成在2.1秒-通过4 / 4:完成在1.4秒评估完成在6.8秒评估高表达式使用并行池“本地”:-通过1 / 1:完成在0.64秒评估完成在0.9秒|======================================================================================| | Iter | Eval |目标:| |目的BestSoFar | BestSoFar | MinLeafSize | | | |结果日志(1 +损失)运行时| | | (estim(观察) .) | | |======================================================================================| | 21日|接受| 3.1847 | 19.02 | 2.9048 | 2.9048 | | 27岁
评估高表达式使用并行池“当地”:通过1对1:在0.45秒完成评估在0.75秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.47秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.5秒完成,通过2 4:在1.6秒完成,通过3 4:在2.4秒完成,通过4 4:在1.5秒完成评估在6.8秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.5秒内完成评估在5.6秒内完成评估使用并行池“local”来评估高表达式:-通过1 / 1:在0.63秒内完成评估在0.89秒内完成| 22 |接受| 3.0185 | 33.933 | 2.9048 | 2.9048 | 9 |
评估高表达式使用并行池“当地”:通过1对1:在0.46秒完成评估在0.76秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:-通过1的1:0.64秒完成评估0.89秒完成| 23 |接受| 3.0749 | 25.147 | 2.9048 | 2.9048 | 20 |
评估高表达式使用并行池“当地”:通过1对1:在0.44秒完成评估在0.73秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.42秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.53秒完成,通过2 4:在1.4秒完成,通过3 4:在1.9秒完成,通过4 4:在1.4秒完成评估在5.9秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.4秒内完成评估在5.5秒内完成评估使用并行池“local”的高表达式:-通过1 / 1:在0.62秒内完成评估在0.88秒内完成| 24 |接受| 3.0628 | 32.764 | 2.9048 | 2.9048 | 11 |
评估高表达式使用并行池“当地”:通过1对1:在0.44秒完成评估在0.73秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.2秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:-通过1的1:完成在0.61秒评估完成在0.87秒| 25 |错误| NaN | 10.294 | 2.9048 | 2.9048 | 34 |
评估高表达式使用并行池“当地”:通过1对1:在0.44秒完成评估在0.73秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.3秒内完成评估在5.4秒内完成评估使用并行池“local”的高表达式:-通过1 / 1:在0.62秒内完成评估在0.87秒内完成| 26 |接受| 3.1847 | 17.587 | 2.9048 | 2.9048 | 25 |
评估高表达式使用并行池“当地”:通过1对1:在0.45秒完成评估在0.73秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.3秒完成评估高表达式使用并行池“当地”:-通过1的1:在0.66秒完成评估在0.96秒完成| 27 |接受| 3.2895 | 24.867 | 2.9048 | 2.9048 | 16 |
评估高表达式使用并行池“当地”:通过1对1:在0.44秒完成评估在0.74秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:完成1.1秒-通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.5秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.4秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:-通过1的1:0.6秒完成评估0.88秒完成| 28 |接受| 3.2135 | 24.928 | 2.9048 | 2.9048 | 13 |
评估高表达式使用并行池“当地”:通过1对1:在0.47秒完成评估在0.76秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.45秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.46秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.3秒内完成评估在5.5秒内完成使用并行池“local”评估高表达式:-通过1 / 1:在0.62秒内完成评估在0.87秒内完成| 29 |接受| 3.1847 | 17.582 | 2.9048 | 2.9048 | 21 |
评估高表达式使用并行池“当地”:通过1对1:在0.53秒完成评估在0.81秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.44秒完成,通过2 4:在1.1秒完成,通过3 4:在1.8秒完成,通过4 4:在1.3秒完成评估在5.4秒完成评估高表达式使用并行池“当地”:——通过1 4:在0.43秒完成,通过2 4:在1.1秒内完成-通过3 / 4:在1.8秒内完成-通过4 / 4:在1.3秒内完成评估在5.4秒内完成评估使用并行池“local”来评估高表达式:-通过1 / 1:在0.63秒内完成评估在0.88秒内完成| 30 |接受| 3.1827 | 17.597 | 2.9048 | 2.9122 | 29 |
__________________________________________________________ 优化完成。最大目标达到30个。总的函数计算:30总的运行时间:882.5668秒。总目标函数评估时间:859.2122最佳观测可行点:MinLeafSize ___________ 6观测目标函数值= 2.9048估计目标函数值= 2.9122函数评估时间= 33.4655最佳估计可行点(根据模型):MinLeafSize ___________ 6估计目标函数值= 2.9122估计函数评估时间= 33.6594使用并行池“本地”评估高表达式:-通过1 / 2:在0.26秒完成,通过2 2:在0.26秒完成评估在0.84秒完成评估高表达使用并行池“当地”:——通过1 7:在0.31秒完成,通过2 7:在0.25秒完成,通过3 7:在0.75秒完成,通过4 7:在1.2秒完成,通过5 7:在0.45秒完成,通过6 7:在0.69秒完成,通过7 7:在1.2秒完成评估在5.7秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.28秒完成,通过2 7:在0.24秒完成,通过3 7:在0.75秒完成,通过4 7:在1.2秒完成,通过5 7:在0.46秒完成,通过6 7:在0.67秒完成,通过7 7:在1.2秒完成评估在5.6秒完成评估高表达式使用并行池“当地”:——通过1 7:在0.32秒完成,通过2 7:在0.25秒完成,通过3 7:在0.71秒完成,通过4 7:在1.2秒完成,通过5 7:在0.47秒完成,通过6 7:在0.66秒完成,通过7 7:在1.2秒完成评估在5.6秒完成评估高表达使用并行池“当地”:——通过1 7:在0.29秒完成,通过2 7:在0.25秒完成,通过3 7:在0.73秒完成,通过4 7:在1.2秒完成,通过5 7:在0.46秒完成,通过6 7:在0.68秒完成,通过7 7:在1.2秒完成评估在5.5秒完成评估高表达使用并行池“当地”:——通过1 7:在0.27秒完成,通过2 7:在0.25秒完成,通过3 7:在0.75秒完成,通过4 7:在1.2秒完成,通过5 7:在0.47秒完成,通过6 7:在0.69秒完成,通过7 7:在1.2秒完成评估在5.6秒完成
Mdl = CompactRegressionTree ResponseName: 'Y' CategoricalPredictors: [] ResponseTransform: 'none'属性,方法
FitInfo =结构,不带字段。
HyperparameterOptimizationResults = BayesianOptimization with properties: ObjectiveFcn: @createObjFcn/tallObjFcn variabledescription: [3×1 optimizableVariable] Options: [1×1 struct] MinObjective: 2.9048 XAtMinObjective: [1×1 table] minestimatedobjobjective: 2.9122 xatminestimatedobjobjective: [1×1 table] numobjectiveevalues: 30 TotalElapsedTime: 882.5668 NextPoint: [1×1 table] XTrace: [30×1 table] ObjectiveTrace: [30×1 double] ConstraintsTrace: [] UserDataTrace:{30×1 cell} ObjectiveEvaluationTimeTrace: [30×1 double] IterationTimeTrace: [30×1 double] ErrorTrace: [30×1 double]可行性跟踪:[30×1 logical]可行性概率跟踪:[30×1 double] IndexOfMinimumTrace: [30×1 double] objectivminimumtrace: [30×1 double] estimatedobjectivminimumtrace: [30×1 double]
资源描述
- - - - - -標本デ,タモデルを学習させるために使用する標本デ,タ。テ,ブルとして指定します。资源描述
の各行は1の観測値に,各列は1。オプションとして,资源描述
に応答変数用の列を1追加できます。文字ベクトルのcell配列ではない cell 配列と複数列の変数は使用できません。
资源描述
に応答変数が含まれている場合に资源描述
内の他の変数をすべて予測子として使用するには,ResponseVarName
を使用して応答変数を指定します。
资源描述
に応答変数が含まれている場合に资源描述
内の他の変数の一部のみを予測子として使用するには,公式
を使用して式を指定します。
资源描述
に応答変数が含まれていない場合は,Y
を使用して応答変数を指定します。応答変数の長さと资源描述
の行数は等しくなければなりません。
デ,タ型:表格
公式
- - - - - -応答変数および予測子変数サブセットの説明モデル応答変数および予測子変数サブセットの説明モデル。“Y ~ x1 + x2 + x3”
という形式の文字ベクトルまたは字符串スカラ,を指定します。この形式では,Y
は応答変数を,x1
、x2
およびx3
は予測子変数を表します。
モデルに学習をさせるための予測子として资源描述
内の変数のサブセットを指定するには,式を使用します。式を指定した場合,公式
に現れない资源描述
内の変数は使用されません。
式の変数名は资源描述
の変数名(Tbl.Properties.VariableNames
)であり,有効なmatlab®識別子でなければなりません。関数isvarname
を使用して资源描述
の変数名を検証できます。変数名が有効でない場合,関数matlab.lang.makeValidName
を使用してそれらを変換できます。
デ,タ型:字符
|字符串
Y
- - - - - -応答デ,タ応答デ,タ。X
と同じ行数の数値列ベクトルとして指定します。Y
の各エントリはX
の対応する行に対する応答です。
Y
の南
値は欠損値と見なされます。fitrtree
は,Y
に欠損値がある観測値をあてはめで使用しません。
デ,タ型:单
|双
X
- - - - - -予測子デ,タ予測子デ,タ。数値行列として指定します。X
の各列が1の変数を表し,各行が1。
fitrtree
は,X
の南
値を欠損値として認識します。fitrtree
は,すべての欠損値のある観測をX
の近似に使用しません。fitrtree
は,これらの観測が有効な値をも場合に変数の分割を検出するために,一部の欠損値のある観測をX
に使用します。
デ,タ型:单
|双
オプションの名称,值
引数のコンマ区切りペアを指定します。的名字
は引数名で,价值
は対応する値です。的名字
は引用符で囲まなければなりません。Name1, Value1,…,的家
のように,複数の名前と値のペアの引数を,任意の順番で指定できます。
“CrossVal”,“上”、“MinParentSize”,30岁
は,枝ノドごとに最低30個の観測値をも交差検証回帰木を指定します。
メモ
交差検証の名前と値のペアの引数を名前と値のペアの引数“OptimizeHyperparameters”
と同時に使用することはできません。“OptimizeHyperparameters”
の場合の交差検証は,名前と値のペアの引数“HyperparameterOptimizationOptions”
を使用することのみによって変更できます。
CategoricalPredictors
- - - - - -カテゴリカル予測子のリスト“所有”
カテゴリカル予測子のリスト。次の表のいずれかの値として指定します。
値 | 説明 |
---|---|
正の整数のベクトル | ベクトルの各エントリは,カテゴリカル変数が含まれている予測子データの列に対応するインデックス値です。ンデックス値の範囲は1 ~
|
逻辑ベクトル |
|
文字行列 | 行列の各行は予測子変数の名前です。名前はPredictorNames のエントリに一致しなくてはなりません。文字行列の各行が同じ長さになるように、名前を余分な空白で埋めてください。 |
文字ベクトルのcell配列または字符串配列 | 配列の各要素は予測子変数の名前です。名前はPredictorNames のエントリに一致しなくてはなりません。 |
“所有” |
すべての予測子がカテゴリカルです。 |
既定では,予測子デ,タがテ,ブル(资源描述
)内にある場合,fitrtree
は,その変数が逻辑ベクトル,順序付けのない直言ベクトル,文字配列,字符串配列または文字ベクトルの细胞配列のいずれかである場合に,変数を直言であると見なします。予測子デタが行列(X
)である場合,fitrtree
はすべての予測子が連続的であると見なします。他の予測子をカテゴリカル予測子として指定するには,名前と値の引数“CategoricalPredictors”
を使用してそれらを指定します。
例:“CategoricalPredictors”、“所有”
デ,タ型:单
|双
|逻辑
|字符
|字符串
|细胞
MaxDepth
- - - - - -最大の木の深さ最大の木の深さ。“MaxDepth”
と正の整数から構成されるコンマ区切りのペアとして指定します。この引数の値を指定すると,レベル数が少なく,計算対象の高配列に対して必要な通過回数が少ない木が返されます。一般に,fitrtree
のアルゴリズムでは,デ:タを1回通過し,木の各レベルに対してさらに1回ず通過します。既定では,この関数は最大の木の深さを設定しません。
メモ
このオプションは,高配列に対してfitrtree
を使用する場合のみ適用されます。詳細にいては,高配列を参照してください。
MergeLeaves
- - - - - -葉マ,ジフラグ“上”
(既定値) |“关闭”
葉マ,ジフラグ。“MergeLeaves”
と“上”
または“关闭”
で構成されるコンマ区切りのペアとして指定します。
MergeLeaves
が“上”
の場合,fitrtree
は次のようにします。
同じ親ノードから派生する葉のうち,リスク値の合計が親ノードに関連付けられているリスク以上であるものをマージします。
枝刈りされた部分木の最適系列を推定しますが,回帰木は枝刈りしない
それ以外の場合,fitrtree
は葉をマ,ジしません。
例:“MergeLeaves”,“关闭”
MinParentSize
- - - - - -枝ノ,ドの観測値の最小数10
(既定値) |正の整数値枝ノ,ドの観測値の最小数。“MinParentSize”
と正の整数値で構成されるコンマ区切りのペアとして指定します。リの各枝ノドには少なくともMinParentSize
の観測値があります。MinParentSize
とMinLeafSize
の両方を指定した場合,fitrtree
では葉の数が多くなる方の設定を使用します。MinParentSize = max(MinParentSize,2*MinLeafSize)
例:“MinParentSize”,8
デ,タ型:单
|双
NumBins
- - - - - -数値予測子のビンの個数[]
(空)(既定値) |正の整数スカラ数値予測子のビンの個数。“NumBins”
と正の整数スカラ,から構成されるコンマ区切りのペアとして指定します。
“NumBins”
の値が空(既定)である場合,fitrtree
はどの予測子もビン化しません。
“NumBins”
の値として正の整数スカラ(numBins
)を指定した場合,fitrtree
は最大numBins
個の同確率のビンにすべての数値予測子をビン化し,元のデータではなくビンのインデックスに対して木が成長します。
予測子に含まれる一意の値がnumBins
より少なければ,ビンの数をnumBins
より少なくすることができます。
fitrtree
は,カテゴリカル予測子をビン化しません。
大規模な学習データセットを使用する場合,このビン化オプションを使用すると学習を高速化できますが,精度が低下する可能性があります。はじめに“NumBins”,50岁
を試してから,精度と学習速度に応じて値を変更できます。
学習済みのモデルでは,ビンのエッジはBinEdges
プロパティに格納されます。
例:“NumBins”,50岁
デ,タ型:单
|双
PredictorNames
- - - - - -予測子変数名予測子変数名。一意な名前の字符串配列または一意な文字ベクトルの单元格配列として指定します。PredictorNames
の機能は,学習デ,タの提供方法によって決まります。
X
とY
を指定した場合,PredictorNames
を使用してX
内の予測子変数に名前を割り当てることができます。
PredictorNames
内の名前の順序は,X
の列の順序に一致しなければなりません。まり,PredictorNames {1}
はX (: 1)
の名前,PredictorNames {2}
はX (:, 2)
の名前であり,他も同様です。また,大小(X, 2)
と元素个数(PredictorNames)
は等しくなければなりません。
既定ではPredictorNames
は{x1, x2,…}
です。
资源描述
を指定する場合,PredictorNames
を使用して学習に使用する予測子変数を選択できます。まり,fitrtree
は,学習中にPredictorNames
の予測子変数と応答変数のみを使用します。
PredictorNames
はTbl.Properties.VariableNames
のサブセットでなければならず,応答変数の名前を含めることはできません。
既定では,すべての予測子変数の名前がPredictorNames
に格納されます。
“PredictorNames”
と公式
の両方ではなく,いずれか一方を使用して学習用の予測子を指定することをお勧めします。
例:PredictorNames,{‘SepalLength’,‘SepalWidth’,‘PetalLength’,‘PetalWidth}
デ,タ型:字符串
|细胞
PredictorSelection
- - - - - -最適な分割予測子の選択に使用するアルゴリズム“allsplits”
(既定値) |“弯曲”
|“interaction-curvature”
各ノ,ドで最適な分割予測子の選択に使用するアルゴリズム。“PredictorSelection”
と次の表の値から構成されるコンマ区切りのペアとして指定します。
値 | 説明 |
---|---|
“allsplits” |
標準购物车——すべての予測子に対して可能なすべての分割について分割基準ゲインを最大化する分割予測子を選択します[1]。 |
“弯曲” |
曲率検定-各予測子と応答の間の独立性に対するカesc esc二乗検定のp値を最小化する分割予測子を選択します[2]。学習速度は標準cartと同等です。 |
“interaction-curvature” |
交互作用検定——各予測子と応答の間の独立性に対するカイ二乗検定のp値を最小化し(つまり,曲率検定を実施し),予測子の各ペアと応答の間の独立性に対するカイ二乗検定のp値を最小化する分割予測子を選択します[2]。学習速度は標準cartより遅くなる可能性があります。 |
“弯曲”
と“interaction-curvature”
では,すべての検定でp値が0.05を超える場合,fitrtree
はノ,ドの分割を停止します。
ヒント
標準购物车アルゴリズムには,相違する値が少ない分割予測子(カテゴリカル変数など)よりも,相違する値が多い分割予測子(連続変数など)を選択する傾向があります[3]。以下のいずれかに該当する場合は,曲率検定または交互作用検定の指定を検討してください。
相違する値の個数が他の予測子よりも比較的少ない予測子がある場合(予測子データセットが異種混合である場合など)。
予測子の重要度の分析が目標である場合。予測子の重要度推定の詳細にいては,predictorImportance
および特徴選択の紹介を参照してください。
標準购物车を使用して成長させた木は,予測子変数の交互作用の影響を受けません。また,多くの無関係な予測子が存在する状況では、このような木によって重要な変数が特定される可能性は、交互作用検定を適用した場合より低くなります。このため、予測子の交互作用を考慮し、重要度変数の特定を多くの無関係な変数が存在する状況で行うには、交互作用検定を指定します。
“PredictorSelection”
の値は,予測速度に影響を与えません。
fitrtree
が分割予測子を選択する方法の詳細にいては,ノ,ド分割規則と分割予測子選択手法の選択を参照してください。
例:“PredictorSelection”、“弯曲”
修剪
- - - - - -枝刈りされた部分木の最適シ,ケンスを推定するフラグ“上”
(既定値) |“关闭”
枝刈りされた部分木の最適なシ,ケンスを推定するフラグ。“删除”
と“上”
または“关闭”
で構成されるコンマ区切りのペアとして指定します。
修剪
が“上”
の場合,fitrtree
は回帰木を成長させ,枝刈りされた部分木の最適シ,ケンスを推定しますが,回帰木を枝刈りしません。それ以外の場合,fitrtree
は回帰木を成長させますが,枝刈りされた部分木の最適なシ,ケンスを推定しません。
学習させた回帰木を枝刈りするには,回帰木を修剪
に渡します。
例:“删除”,“关闭”
PruneCriterion
- - - - - -枝刈り条件mse的
(既定値)枝刈り条件。“PruneCriterion”
とmse的
で構成されるコンマ区切りのペアとして指定します。
QuadraticErrorTolerance
- - - - - -二次誤差の許容誤差1 e-6
(既定値) |正のスカラ,値ノ,ドあたりの二次誤差の許容誤差。“QuadraticErrorTolerance”
と正のスカラ,値で構成されるコンマ区切りのペアとして指定します。ノ,ドあたりの重み付き平均二乗誤差がQuadraticErrorTolerance *ε
より小さくなるとノ,ド分割が停止します。ここでε
は,決定木を成長させる前に計算された,n個の応答すべての重み付き平均二乗誤差です。
w我は,すべての観測値の重みの合計が1になる( )と仮定した場合の観測値我の重みです。
は,すべての応答の加重平均です。
ノド分割の詳細にいては,ノ,ド分割規則を参照してください。
例:“QuadraticErrorTolerance”,1的军医
可再生的
- - - - - -再現性を強制するためのフラグ假
(逻辑0
)(既定値) |真正的
(逻辑1
)モデルの学習の反復実行における再現性を強制するためのフラグ。“复制”
と假
または真正的
から構成されるコンマ区切りのペアとして指定します。
“NumVariablesToSample”
が“所有”
ではない場合,各分岐で予測子が無作為に選択されます。無作為な選択を再現するには,“重现”,真的
を指定し,rng
を使用して乱数発生器のシ,ドを設定しなければなりません。“复制”
を真正的
に設定すると学習速度が低下する可能性があることに注意してください。
例:“重现”,真的
デ,タ型:逻辑
ResponseName
- - - - - -応答変数名“Y”
(既定値) |文字ベクトル|字符串スカラ応答変数名。文字ベクトルまたは字符串スカラ,として指定します。
Y
を指定した場合,“ResponseName”
を使用して応答変数の名前を指定できます。
ResponseVarName
または公式
を指定した場合,“ResponseName”
を使用することはできません。
例:“ResponseName”、“响应”
デ,タ型:字符
|字符串
ResponseTransform
- - - - - -応答の変換“没有”
(既定値) |関数ハンドル応答の変換。“没有”
または関数ハンドルのいずれかとして指定します。既定の設定は“没有”
です。これは@ (y) y
,まり変換なしを表します。MATLAB関数またはユーザー定義関数の場合は、応答変換用の関数ハンドルを使用します。関数ハンドルは、ベクトル (元の応答値) を受け入れて同じサイズのベクトル (変換した応答値) を返さなければなりません。
例:Myfunction = @(y)exp(y)
を使用して,指数変換を入力ベクトルに適用する関数のハンドルを作成するとします。この場合,応答変換としてmyfunction ResponseTransform,
を指定できます。
デ,タ型:字符
|字符串
|function_handle
SplitCriterion
- - - - - -分割条件MSE的
(既定値)分割条件。“SplitCriterion”
とMSE的
(平均二乗誤差)で構成されるコンマ区切りのペアとして指定します。
例:“SplitCriterion”、“MSE的
代理
- - - - - -代理決定分岐フラグ“关闭”
(既定値) |“上”
|“所有”
|正の整数代理決定分岐フラグ。“代孕”
と“上”
、“关闭”
、“所有”
または正の整数から構成されるコンマ区切りのペアとして指定します。
“上”
のときは,fitrtree
は各枝ノドで最大10の代理分岐を探します。
正の整数が設定された場合,fitrtree
は指定された数までの代理分岐を各枝ノ,ドで検出します。
“所有”
に設定すると,fitrtree
は各枝ノ,ドですべての代理分岐を検出します。“所有”
に設定すると,処理時間およびメモリ使用量が増加する可能性があります。
代理分岐を使用すると,欠損値をもデタの予測精度が改善されます。また,予測子同士の関連性予測尺度も計算できます。
例:“代孕”,“上”
デ,タ型:单
|双
|字符
|字符串
权重
- - - - - -観測値の重み(大小(X, 1), 1)
(既定値) |スカラ,値のベクトル|资源描述
内の変数の名前観測値の重み。“重量”
とスカラ,値のベクトルまたは资源描述
内の変数の名前から構成されるコンマ区切りのペアとして指定します。X
または资源描述
の各行に含まれている観測値には,权重
の対応する値で重みが付けられます。权重
のサ电子邮箱ズは,X
または资源描述
の行数と同じでなければなりません。
入力デ,タをテ,ブル资源描述
として指定した場合,权重
は数値ベクトルが含まれている资源描述
内の変数の名前にすることができます。この場合,权重
には文字ベクトルまたは字符串スカラ,を指定しなければなりません。たとえば,重みのベクトルW
が资源描述。W
として格納されている場合,' W '
として指定します。それ以外の場合,モデルを学習させるときに、资源描述
の列はW
を含めてすべて予測子として扱われます。
fitrtree
は,合計が1になるように权重
の値を正規化します。
デ,タ型:单
|双
|字符
|字符串
CrossVal
- - - - - -交差検証フラグ“关闭”
(既定値) |“上”
交差検証フラグ。“CrossVal”
と,“上”
または“关闭”
で構成されるコンマ区切りのペアとして指定します。
“上”
の場合は,fitrtree
が10分割交差検証決定木を成長させます。“KFold”
、“坚持”
、“Leaveout”
または“CVPartition”
名前と値のペアの引数のいずれかを使用してこの交差検証の設定をオバラドできます。交差検証木を作成する場合,一度に使用できるのは4のオプション(“KFold”
、“坚持”
、“Leaveout”
および“CVPartition”
)のいずれか1のみです。
または,crossval
メソッドを使用して,後で树
に交差検証を実施します。
例:“CrossVal”,“上”
CVPartition
- - - - - -交差検証木の分割cvpartition
オブジェクト交差検証木で使用する分割。“CVPartition”
と,cvpartition
を使用して作成されるオブジェクトで構成される,コンマ区切りのペアとして指定されます。
“CVPartition”
を使用する場合は,“KFold”
、“坚持”
または“Leaveout”
名前と値のペアの引数のいずれも使用できません。
坚持
- - - - - -ホ,ルドアウト検証の対象デ,タの比率0
(既定値) |[0, 1]
の範囲のスカラ,値ホ,ルドアウト検証に使用されるデ,タの比率。“坚持”
と,[0, 1]
の範囲内のスカラ,値から成るコンマ区切りのペアとして指定します。ホ,ルドアウト検証は,デ,タの指定部分をテストし,デ,タの残りの部分を学習に使用します。
“坚持”
を使用する場合は,“CVPartition”
、“KFold”
または“Leaveout”
名前と値のペアの引数のいずれも使用できません。
例:“坚持”,0.1
デ,タ型:单
|双
KFold
- - - - - -分割の数10
(既定値) |1より大きい正の整数交差検証木で使用する分割の数。“KFold”
と1より大きい正の整数値から構成されるコンマ区切りのペアとして指定します。
“KFold”
を使用する場合は,“CVPartition”
、“坚持”
または“Leaveout”
名前と値のペアの引数のいずれも使用できません。
例:“KFold”,8
デ,タ型:单
|双
Leaveout
- - - - - -放过一个法の交差検証のフラグ“关闭”
(既定値) |“上”
放过一个法の交差検証のフラグ。“Leaveout”
と“上”
または的假
で構成されるコンマ区切りのペアとして指定します。“上”
に設定すると,留下一个法の交差検証を使用します。
“Leaveout”
を使用する場合は,“CVPartition”
、“坚持”
または“KFold”
名前と値のペアの引数のいずれも使用できません。
例:“Leaveout”,“上”
MaxNumSplits
- - - - - -決定分岐の最大数size(X,1) - 1
(既定値) |正の整数決定分岐(枝ノ,ド)の最大数。“MaxNumSplits”
と正の整数をコンマ区切りのペアとして指定します。fitrtree
では,枝ノ,ドの数がMaxNumSplits
以下になるように分割します。分割の動作にいての詳細は,木の深さの制御を参照してください。
例:“MaxNumSplits”,5
デ,タ型:单
|双
MinLeafSize
- - - - - -葉ノ,ドの観測値の最小数1
(既定値) |正の整数値葉ノ,ドの観測値の最小数。“MinLeafSize”
と正の整数値で構成されるコンマ区切りのペアとして指定します。各葉には少なくともリ葉あたりMinLeafSize
の観測値があります。MinParentSize
とMinLeafSize
の両方を指定した場合,fitrtree
では葉の数が多くなる方の設定を使用します。MinParentSize = max(MinParentSize,2*MinLeafSize)
。
例:“MinLeafSize”,3
デ,タ型:单
|双
NumVariablesToSample
- - - - - -各分割にいてランダムに選択する予測子の数“所有”
(既定値) |正の整数値分割ごとにランダムに選択する予測子の数。“NumVariablesToSample”
と正の整数値で構成されるコンマ区切りのペアとして指定します。また,“所有”
を指定すると,使用可能なすべての予測子が使用されます。
多数の予測子が学習デ,タに含まれている場合に予測子の重要度を分析するには,“NumVariablesToSample”
として“所有”
を指定します。このようにしないと,重要度が過小評価されて一部の予測子が選択されない可能性があります。
無作為な選択を再現するには,rng
を使用して乱数発生器のシ,ドを設定し,“重现”,真的
を指定しなければなりません。
例:“NumVariablesToSample”,3
デ,タ型:字符
|字符串
|单
|双
OptimizeHyperparameters
- - - - - -最適化するパラメタ“没有”
(既定値) |“汽车”
|“所有”
|使用可能パラメ,タ,名のstring配列またはcell配列|optimizableVariable
オブジェクトのベクトル最適化するパラメタ。“OptimizeHyperparameters”
と次のいずれかから構成されるコンマ区切りのペアとして指定します。
“没有”
-最適化を行いません。
“汽车”
- - - - - -{' MinLeafSize '}
を使用します。
“所有”
—すべての使用可能パラメタを最適化します。
使用可能パラメ,タ,名のstring配列またはcell配列。
optimizableVariable
オブジェクトのベクトル。通常はhyperparameters
の出力です。
最適化では,パラメ,タ,を変化させることにより,fitrtree
の交差検証損失(誤差)を最小化しようとします。交差検証のタイプおよびその他の最適化の側面を制御するには、名前と値のペアHyperparameterOptimizationOptions
を使用します。
メモ
“OptimizeHyperparameters”
の値は,他の名前と値のペアの引数を使用して設定した値より優先されます。たとえば,“OptimizeHyperparameters”
を“汽车”
に設定すると,“汽车”
の値が適用されます。
fitrtree
では,以下のパラメ,タ,を使用できます。
MaxNumSplits
- - - - - -fitrtree
は,既定では範囲NumObservations-1[1,马克斯(2))
の対数スケ,ルで,整数を探索します。
MinLeafSize
- - - - - -fitrtree
は,既定では範囲[1,马克斯(2楼(NumObservations / 2)))
の対数スケ,ルで,整数を探索します。
NumVariablesToSample
- - - - - -fitrtree
。NumVariablesToSample
をパラメ,タ,名として渡しても,fitrtree
はすべての予測子を使用するだけです。ただし,fitrensemble
はこのハ▪▪パ▪▪パラメ▪タ▪に▪▪いて最適化を行います。
既定以外のパラメ,タ,を設定するには,既定以外の値が含まれているoptimizableVariable
オブジェクトのベクトルを渡します。たとえば,以下のようにします。
负载carsmallParams =超参数(“fitrtree”(功率、重量),MPG);参数(1)。Range = [1,30];
OptimizeHyperparameters
の値として参数个数
を渡します。
既定では,コマンドラインに反復表示が表示され,最適化のハイパーパラメーターの個数に従ってプロットが表示されます。最適化とプロットにおける目的関数は,回帰の場合はLog(1 +交叉验证损失),分類の場合は誤分類率です。反復表示を制御するには,名前と値のペアの引数“HyperparameterOptimizationOptions”
の详细的
フィ,ルドを設定します。プロットを制御するには,名前と値のペアの引数“HyperparameterOptimizationOptions”
のShowPlots
フィ,ルドを設定します。
たとえば,回帰木の最適化を参照してください。
例:“汽车”
HyperparameterOptimizationOptions
- - - - - -最適化のオプション最適化のオプション。“HyperparameterOptimizationOptions”
と構造体から構成されるコンマ区切りのペアとして指定します。この引数を指定すると,名前と値のペアの引数OptimizeHyperparameters
の効果が変化します。この構造体のフィ,ルドは,すべてオプションです。
フィ,ルド名 | 値 | 既定の設定 |
---|---|---|
优化器 |
|
“bayesopt” |
AcquisitionFunctionName |
オブジェクト関数のランタesc escムによって最適化が異なるので,名前に |
“expected-improvement-per-second-plus” |
MaxObjectiveEvaluations |
目的関数評価の最大数。 | “bayesopt” または“randomsearch” の場合は30. 、“gridsearch” の場合はグリッド全体 |
MaxTime |
制限時間。正の実数を指定します。制限時間の単位は, |
正 |
NumGridDivisions |
“gridsearch” における各次元の値の個数。値は、各次元の値の個数を表す正の整数のベクトル、またはすべての次元に適用されるスカラーが可能です。カテゴリカル変数の場合、このフィールドは無視されます。 |
10 |
ShowPlots |
プロットを表示するかどうかを示す論理値。真正的 の場合,最良の目的関数の値が反復回数に対してプロットされます。1,优化器 が“bayesopt” である場合,ShowPlots はパラメ,タ,に対する目的関数のモデルのプロットも行います。 |
真正的 |
SaveIntermediateResults |
优化器 が“bayesopt” である場合に結果を保存するかどうかを示す論理値。真正的 の場合,“BayesoptResults” という名前のワ,クスペ,ス変数が反復ごとに上書きされます。この変数はBayesianOptimization オブジェクトです。 |
假 |
详细的 |
コマンドラ@ @ンへの表示。
詳細にいては, |
1 |
UseParallel |
ベ@ @ズ最適化を並列実行するかどうかを示す論理値。並列実行には并行计算工具箱™が必要です。並列でのタイミングに再現性がないため,並列ベイズ最適化で再現性のある結果が生成されるとは限りません。詳細にいては,並列ベ@ @ズ最適化を参照してください。 | 假 |
重新分区 |
反復ごとに交差検証を再分割するかどうかを示す論理値。 分割ノesc escズが考慮されるので,通常は |
假 |
以下の3のフィルド名は1だけ使用できます。 | ||
CVPartition |
cvpartition によって作成されるcvpartition オブジェクト。 |
交差検証フィ,ルドが指定されていない場合“Kfold”,5 |
坚持 |
ホ,ルドアウトの比率を表す範囲(0,1) のスカラ。 |
|
Kfold |
1より大きい整数。 |
例:“HyperparameterOptimizationOptions”、结构(MaxObjectiveEvaluations, 60)
デ,タ型:结构体
树
-回帰木回帰木。回帰木オブジェクトとして返します。“Crossval”
、“KFold”
、“坚持”
、“Leaveout”
または“CVPartition”
オプションを使用すると,クラスRegressionPartitionedModel
のリが生成されます。予測に分割されたリは使用できないため,この種類のリには预测
メソッドがありません。
それ以外の場合,树
のクラスはRegressionTree
で,预测
メソッドを使用して予測を行うことができます。
"曲率検定"は,2の変数に関連性がないという帰無仮説を評価する統計検定です。
予測子変数xおよびyの間の曲率検定は,以下のプロセスを使用して実施されます。
Xが連続である場合,四分位数に分割します。分割のどの部分に属するかに従って観測値をビン化するノミナル変数を作成します。欠損値がある場合は,そのための追加のビンを作成します。
分割した予測子の各レベルj = 1,…,Jと応答のクラスk = 1,…,Kについて、クラス k における観測値の加重比率を計算します。
w我は観測値我の重みで です。我はインジケーター関数、n は標本サイズです。すべての観測値の重みが同じである場合、 になります。njkは,クラスkに属している予測子のレベルjの予測子のレベル< varname > j < / varname >の観測値の個数です。
検定統計量
を計算します。 は,レベルjで予測子が観測される周辺確率です。 は,クラスkが観測される周辺確率です。nが十分に大きい場合、t は自由度が (K - 1)(J - 1) の χ2分布になります。
この検定のp値が0.05未満である場合,xとyには関連性がないという帰無仮説が棄却されます。
標準购物车アルゴリズムには,各ノードにおける最適な分割予測子を決定するときに,レベル数の多い連続予測子を選択する傾向があります。このような選択は見せかけだけの場合があり,カテゴリカル予測子などのような,より少ないレベルのより重要な予測子を隠してしまう可能性があります。
標準购物车の代わりに曲率検定を適用して,各ノードにおける最適な分割予測子を決定することができます。この場合,最適な分割予測子変数は、各予測子と応答変数の間における曲率検定の有意な p 値 (0.05 未満) が最小になる変数です。このような選択は、各予測子のレベル数に対してロバストです。
"交互作用検定"は,予測子変数のペアと応答変数の間に交互作用がないという帰無仮説を評価する統計検定です。
Yに関して予測子変数x1およびx2の関連性を評価する交互作用検定は,以下のプロセスを使用して実施されます。
x1またはx2が連続である場合,その変数を四分位数に分割します。分割のどの部分に属するかに従って観測値をビン化するノミナル変数を作成します。欠損値がある場合は,そのための追加のビンを作成します。
x1およびx2のどのレベルに属しているかに従って▪▪ンデックスを観測値i, J = J1J2個のレベルがあるノミナル変数zを作成します。どの観測値にも対応しないレベルをzから削除します。
Zとyの間で曲率検定を実施します。
決定木を成長させるときに,予測子のペア間に重要な交互作用があり,重要度が低い他の予測子がデータ内に多数あると,標準购物车は重要な交互作用を見逃す傾向があります。しかし,代わりに曲率検定と交互作用検定を実施して予測子を選択すると,重要な交互作用の検出が改善され,より正確な決定木が生成される可能性があります。
"関連性予測尺度"は,観測値を分割する決定規則間の類似度を示す値です。(木を成長させることによって求められる)最適な分割に対して比較される,可能なすべての決定分岐の中で,最適な代理決定分岐は関連性予測尺度が最大になります。2番目に最適な代理分岐は、関連性予測尺度が 2 番目に大きくなります。
xjとxkがそれぞれ予測子変数jおよびkであり,j≠kであるとします。ノドtにおける最適な分割x .j< uと代理分岐xk< vの間の関連性予測尺度は,次のようになります。
Plは,ノ,ドtにおいてx .j< uとなる観測値の比率です。添字Lは,ノドtの左の子を表します。
PRは,ノ,ドtにおいてx .j≥uとなる観測値の比率です。添字Rは,ノドtの右の子を表します。
は,ノ,ドtにおいてx .j< uおよびxk< vとなる観測値の比率です。
は,ノ,ドtにおいてx .j≥uおよびxk≥vとなる観測値の比率です。
xjまたはxkにいて欠損値がある観測値は,比率の計算に使用されません。
λjkは,(-∞,1]の値になります。λjk> 0である場合,xk< vはxj< uの代理分岐として価値があります。
"代理決定分岐"は,決定木の特定のノ,ドにおける最適な決定分岐の代わりになります。最適な分割は,木を成長させることによって求められます。代理分岐では,類似する予測子変数または相関関係がある予測子変数と分割基準を使用します。
ある観測値について最適な分割予測子の値が欠損している場合,その観測値は最適な代理予測子を使用して左または右の子ノードに送られます。観測値について最適な代理予測子の値も欠損している場合,その観測値は2番目に最適な代理予測子を使用して左または右の子ノードに送られます。3番目以降にいても同様です。分割候補は,関連性予測尺度の降順で並べ替えられます。
fitrtree
は,以下のプロセスを使用してノ,ドtの分割方法を決定します。
標準cartの場合(まり,PredictorSelection
が“allpairs”
である場合),すべての予測子x我(i = 1,…,p)にいて以下を行います。
fitrtree
は,次の式を使用してノ,ドtにおける応答の重み付き平均二乗誤差(MSE)を計算します。
wjは観測値jの重み,TはノドTにおけるすべての観測値のンデックスの集合です。权重
を指定しない場合,wj= 1/nになります。Nは,標本サescズです。
fitrtree
は,次の式を使用して,観測値がノ,ドtに含まれる確率を推定します。
fitrtree
は,x我を昇順で並べ替えます。並べ替えられた予測子の各要素は,分割候補または切り取り点です。fitrtree
は,欠損値に対応するインデックスを,分割されない集合TUに記録します。
fitrtree
は,すべての分割候補でMSEの減少(ΔI)を最大化することにより,x我を使用してノドtを分割する最適な方法を決定します。まり,x我に含まれているすべての分割候補にいて,
fitrtree
は,ノ,ドtに含まれている観測値を左と右の子ノ,ド(それぞれt .lおよびtR)に分割します。
fitrtree
はΔiを計算します。特定の分割候補にいて,集合lおよびtR内の観測値のesc escンデックスがそれぞれlおよびtRに含まれていると仮定します。
x我に欠損値が含まれていない場合,現在の分割候補におけるmseの減少は次のようになります。
x我に欠損値が含まれている場合,観測値はランダムに欠損していると仮定され,MSEの減少は次のようになります。
T - TUは,ノ,ドtに含まれている,欠損していないすべての観測値の,ンデックスの集合です。
代理決定分岐を使用する場合,次のようになります。
fitrtree
は,決定分岐xj< uと可能なすべての決定分岐xk< v (j≠k)の間で関連性予測尺度を計算します。
fitrtree
は,最適な分割となる関連性予測尺度の降順に,可能な代替決定分岐を並べ替えます。代理分岐は,尺度が最大になる決定分岐です。
fitrtree
は,x我にいて代理分岐を使用して,欠損値が含まれている観測値を子ノドに割り当てます。代理予測子にも欠損値が含まれている場合,fitrtree
は他の代理がなくなるまで,尺度が2番目に大きいものから順番に決定分岐を使用します。fitrtree
は,ノードtで2つの異なる代理分岐を使用して2つの異なる観測値を分割することができます。たとえば,ノ,ドtで予測子x .我(i结果{1,2})にいて,予測子1およびx2がそれぞれ最適および2番目に最適な代理であるとします。予測子x我の観測値mが欠損しており(まり,x心肌梗死が欠損),xm1は欠損していない場合,x1は観測値x心肌梗死の代理予測子になります。観測値x(m + 1) iとx(m + 1),1が欠損しており,x(m + 1) 2は欠損していない場合,x2は観測値m + 1の代理予測子になります。
fitrtree
は,適切なmseの減少の式を使用します。まり,fitrtree
が代理分岐を使用して,ノードtに含まれているすべての欠損観測値を子ノードに割り当てることができない場合,MSEの減少はΔ我Uになります。それ以外の場合,fitrtree
はmseの減少にΔiを使用します。
fitrtree
は,mseの減少が最大になる候補を選択します。
fitrtree
は,mseの減少が最大になる切り取り点で予測子変数を分割します。
曲率検定の場合(;PredictorSelection
が“弯曲”
である場合)
fitrtree
は,ノ,ドtのすべての観測値にいて残差
を計算します。
は,ノ,ドtの応答の加重平均です。重みは,权重
の観測値の重みです。
fitrtree
は,対応する残差の符号に従って観測値を2のビンのいずれかに割り当てます。ztは,ノ,ドtの観測値に対するビンの割り当てを格納するノミナル変数であるとします。
fitrtree
は,各予測子とztの間で曲率検定を実施します。回帰木の場合、K = 2 です。
すべてのp値が0.05以上である場合,fitrtree
はノドtを分割しません。
最小のp値が存在する場合,fitrtree
は対応する予測子を選択してノドtを分割します。
アンダ,フロ,により複数のp値がゼロになる場合,fitrtree
は対応する予測子に標準cartを適用して分割予測子を選択します。
fitrtree
は,分割予測子を選択した場合に,標準购物车を使用して切り取り点を選択します(標準购物车のプロセスの手順4を参照)。
交互作用検定の場合(;PredictorSelection
が“interaction-curvature”
である場合)
fitrtree
は,ノ,ドtの観測値にいて,各予測子と応答の間で曲率検定を,予測子の各ペアと応答の間で交互作用検定を実施します。
すべてのp値が0.05以上である場合,fitrtree
はノドtを分割しません。
曲率検定の結果により最小のp値が存在する場合,fitrtree
は対応する予測子を選択してノドtを分割します。
交互作用検定の結果により最小のp値が存在する場合,fitrtree
は対応する予測子のペアに対して標準cartを使用して分割予測子を選択します。
アンダ,フロ,により複数のp値がゼロになる場合,fitrtree
は対応する予測子に標準cartを適用して分割予測子を選択します。
fitrtree
は,分割予測子を選択した場合に,標準购物车を使用して切り取り点を選択します(標準购物车のプロセスの手順4を参照)。
MergeLeaves
が“上”
およびPruneCriterion
がmse的
(これらの名前と値のペアの引数の既定値)の場合,枝刈りはMSEを使用して葉のみに適用されます。このように指定すると,MSEが2つの葉のMSEの合計を超えない同じ親ノードから派生する葉がマージされます。
MaxNumSplits
に対応するため,fitrtree
は現在の“レヤ”に含まれているすべてのノ,ドを分割してから枝ノ,ドの数をカウントします。レ。枝ノ,ドの数がMaxNumSplits
を超えた場合,fitrtree
は以下の手順に従います。
現在のレヤに含まれている枝ノドが,最大でもMaxNumSplits
になるように,分割を解除する数を判断する。
不純度順に枝ノ,ドを並べ替える。
適切ではない分岐の分割を解除する。
それまでに成長させた決定木を返す。
この手順に従うと,バランスが最大の木が生成されます。
次の条件のいずれかが満たされるまで、枝ノ、ドをレ、ヤ、単位で分割します。
MaxNumSplits
個の枝ノ,ドが存在している。
推奨されている分割を行うと,少なくとも1の枝ノドで観測値の数がMinParentSize
より少なくなる。
推奨される分割を行うと,少なくとも1の葉ノドで観測値の数がMinLeafSize
より少なくなる。
レ▪▪ヤ▪▪内で適切な分割を検出できない。まり,現在の枝刈り基準(PruneCriterion
参照)では,レ。すべてのノードが純粋 (ノード内のすべての観測値が同じクラス) になるのは特殊なケースです。
PredictorSelection
の値が“弯曲”
または“interaction-curvature”
の場合に,すべての検定でp値が0.05を超える。
MaxNumSplits
とMinLeafSize
は,既定値で行われる分割に影響を与えません。“MaxNumSplits”
を設定した場合,MaxNumSplits
回の分割が発生する前に,MinParentSize
の値が原因となって分割が停止することもあります。
デュアルコア以上のシステムの場合,fitrtree
では英特尔®スレッディングビルディングブロック(tbb)を使用して決定木の学習を並列化します。英特尔TBBに化学键いての詳細は,https://software.intel.com/en-us/intel-tbbを参照してください。
布莱曼,L.弗里德曼,R.奥尔申和C.斯通。分类和回归树。佛罗里达州博卡拉顿:CRC出版社,1984年。
[2] Loh, W.Y.,“无偏变量选择和交互检测的回归树”。中国统计,Vol. 12, 2002, pp. 361-386。
[3]罗永安、施永信。分类树的分割选择方法中国统计,Vol. 7, 1997, pp. 815-840。
使用上の注意事項および制限事項:
以下の構文がサポ,トされます。
tree = fitrtree(Tbl,Y)
树= fitrtree(X,Y)
tree = fitrtree(___,名称,值)
[tree,FitInfo,HyperparameterOptimizationResults] = fitrtree(___,Name,Value)
-名前と値のペアの引数“OptimizeHyperparameters”
が指定された場合,fitrtree
は追加の出力引数FitInfo
およびHyperparameterOptimizationResults
を返します。
树
はCompactRegressionTree
オブジェクトなので,回帰木の学習で使用したデ,タは含まれていません。
出力引数FitInfo
は,現在は将来の使用のために予約されている空の構造体配列です。
出力引数HyperparameterOptimizationResults
は,ハイパーパラメーターの交差検証最適化を記述する値が関連付けられているハイパーパラメーターの表またはBayesianOptimization
オブジェクトです。
モデルの作成時に名前と値のペアの引数“OptimizeHyperparameters”
が空以外であった場合,“HyperparameterOptimizationResults”
は空以外になります。“HyperparameterOptimizationResults”
の値は,モデルの作成時に名前と値のペアの引数“HyperparameterOptimizationOptions”
にいて指定した値に依存します。
“bayesopt”
(既定)を指定した場合,HyperparameterOptimizationResults
はBayesianOptimization
クラスのオブジェクトになります。
“gridsearch”
または“randomsearch”
を指定した場合,HyperparameterOptimizationResults
は表になり,使用したハイパーパラメーター,観測された目的関数の値(交差検証損失),および最低(最良)から最高(最悪)までの観測値の順位が格納されます。
以下の名前と値のペアの引数がサポ,トされます。
“CategoricalPredictors”
“HyperparameterOptimizationOptions”
-交差検証として,高最適化では“坚持”
検証のみがサポ,トされます。既定では,データの 20% がホールドアウト検証データとして選択されて確保され、残りのデータがモデルの学習に使用されます。この引数を使用してホールドアウトの比率に別の値を指定できます。たとえば、データの 30% を検証データとして確保するには“HyperparameterOptimizationOptions”、结构(“抵抗”,0.3)
と指定します。
“MaxNumSplits”
-高最適化の場合,fitrtree
は範囲[1,马克斯(2分钟(10000年,NumObservations-1)))
の(既定では)対数スケルで整数を探索します。
“MergeLeaves”
“MinLeafSize”
-高最適化の場合,fitrtree
は範囲[1,马克斯(2楼(NumObservations / 2)))
の(既定では)対数スケルで整数を探索します。
“MinParentSize”
“NumVariablesToSample”
-高最適化の場合,fitrtree
は範囲NumPredictors[1,马克斯(2))
の整数を探索します。
“OptimizeHyperparameters”
“PredictorNames”
“QuadraticErrorTolerance”
“ResponseName”
“ResponseTransform”
“SplitCriterion”
“重量”
以下は,高配列専用の追加の名前と値のペアの引数です。
“MaxDepth”
-出力される木の最大の深さを指定する正の整数。この引数の値を指定すると,レベル数が少なく,計算対象の高配列に対して必要な通過回数が少ない木が返されます。一般に,fitrtree
のアルゴリズムでは,デ:タを1回通過し,木の各レベルに対してさらに1回ず通過します。既定では,この関数は最大の木の深さを設定しません。
詳細は,高配列を参照してください。
ハパパラメタの最適化を並列実行するには,この関数を呼び出すときに名前と値の引数“HyperparameterOptimizationOptions”、结构(UseParallel,真的)
を指定します。
並列的なハ▪▪パ▪▪パラメ▪タ▪の最適化の詳細に▪▪いては並列ベ@ @ズ最適化を参照してください。
並列計算の全般的な情報にいては,自動並列サポトを使用したmatlab関数の実行(并行计算工具箱)を参照してください。
次のmatlabコマンドに対応するリンクがクリックされました。
コマンドをmatlabコマンドウィンドウに入力して実行してください。Webブラウザ,はMATLABコマンドをサポ,トしていません。
您也可以从以下列表中选择一个网站:
选择中国站点(中文或英文)以获得最佳站点性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。