主要内容

このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。

RegressionKernel

ランダムな特徴量拡張を使用したガウスカーネル回帰モデル

説明

RegressionKernelは,ランダムな特徴量拡張を使用した,ガウスカーネル回帰モデルの学習済みモデルオブジェクトです。RegressionKernelは,大規模な学習セットが含まれているビッグデータ事例への適用の方がより有用ですが,メモリに収まる小規模なデータセットにも適用できます。

他の回帰モデルとは異なり,また,メモリ消費を節約するため,RegressionKernelモデルオブジェクトには学習データが格納されません。ただし,拡張空間の次元,カーネルスケールパラメーター,正則化強度などの情報は格納されます。

学習済みのRegressionKernelモデルを使用すると,学習データによる学習の続行,新しいデータに対する応答の予測,および平均二乗誤差やイプシロン不感応損失の計算を行うことができます。詳細については,的简历预测および损失を参照してください。

作成

関数fitrkernelを使用してRegressionKernelオブジェクトを作成します。この関数は,低次元空間のデータを高次元空間にマッピングしてから、正則化された目的関数を最小化することによって高次元空間で線形モデルをあてはめます。高次元空間で線形モデルを取得することは、低次元空間におけるモデルへのガウス カーネルの適用と等価です。使用可能な線形回帰モデルには、正則化されたサポート ベクター マシン (SVM) と最小二乗回帰モデルがあります。

プロパティ

すべて展開する

カーネル回帰のプロパティ

イプシロン不感応区間の幅の半分。非負のスカラーを指定します。

学习者“支持向量机”ではない場合,εは空の文字列([])です。

データ型:|

線形回帰モデルのタイプ。“leastsquares”または“支持向量机”を指定します。

次の表では f x T x β + b です。

  • xはp個の予測子変数による観測値(行ベクトル)です。

  • T · は特徴量を拡張するための観測値(行ベクトル)の変換です。T (x) p のxを高次元空間( )にマッピングします。

  • βはm個の係数のベクトルです。

  • bはスカラーバイアスです。

アルゴリズム 損失関数 FittedLossの値
“leastsquares” 通常の最小二乗による線形回帰 平均二乗誤差(MSE): y f x 1 2 y f x 2 mse的
“支持向量机” サポートベクターマシン回帰 イプシロン不感応: y f x 马克斯 0 | y f x | ε “epsiloninsensitive”

拡張空間の次元数。正の整数を指定します。

データ型:|

カーネルスケールパラメーター。正のスカラーを指定します。

データ型:|

ボックス制約。正のスカラーを指定します。

データ型:|

正則化項の強度。非負のスカラーを指定します。

データ型:|

線形モデルのあてはめに使用する損失関数。“epsiloninsensitive”またはmse的を指定します。

アルゴリズム 損失関数 学习者の値
“epsiloninsensitive” サポートベクターマシン回帰 イプシロン不感応: y f x 马克斯 0 | y f x | ε “支持向量机”
mse的 通常の最小二乗による線形回帰 平均二乗誤差(MSE): y f x 1 2 y f x 2 “leastsquares”

複雑度ペナルティのタイプ。“套索(L1)”または“岭(L2)”を指定します。

最小化のための目的関数は,平均損失関数(FittedLossを参照)と次の表の正則化値を加算することにより作成されます。

説明
“套索(L1)” 套索(l1)ペナルティ: λ j 1 p | β j |
“岭(L2)” リッジ(l2)ペナルティ: λ 2 j 1 p β j 2

λは,正則化項の強度を規定します(λを参照)。

バイアス項(β0)は正則化ペナルティから除外されます。

他の回帰のプロパティ

カテゴリカル予測子のインデックス。正の整数のベクトルを指定します。CategoricalPredictorsには,カテゴリカル予測子が含まれている予測子データの列に対応するインデックス値を格納します。どの予測子もカテゴリカルではない場合,このプロパティは空([])になります。

データ型:|

RegressionKernelモデルに学習をさせるために使用したパラメーター。構造体を指定します。

ModelParametersのフィールドにはドット表記でアクセスします。たとえば,線形係数およびバイアス項の相対許容誤差にアクセスするにはMdl.ModelParameters.BetaToleranceを使用します。

データ型:结构体

予測子データに現れる順序で並んでいる予測子名。文字ベクトルの细胞配列として指定します。PredictorNamesの長さは,学習データXまたは资源描述で予測子変数として使用される列の数と等しくなります。

データ型:细胞

展開された予測子名。文字ベクトルの细胞配列を指定します。

モデルがカテゴリカル変数用のエンコーディングを使用している場合,ExpandedPredictorNamesには展開された変数を表す名前が格納されます。それ以外の場合,ExpandedPredictorNamesPredictorNamesと同じです。

データ型:细胞

応答変数名。文字ベクトルを指定します。

データ型:字符

予測された応答に適用する応答変換関数。“没有”または関数ハンドルを指定します。

カーネル回帰モデルで応答変換前の場合,観測値x(行ベクトル)について予測される応答は f x T x β + b です。

  • T · は特徴量を拡張するための観測値の変換です。

  • βはMdl。βに対応します。

  • bはMdl。偏见に対応します。

MATLAB®関数やユーザー定義関数の場合は,関数ハンドルを入力します。たとえば,Mdl。ResponseTransform = @functionを入力できます。ここで函数は,元の応答の数値ベクトルを受け入れ,変換した応答が格納されている同じサイズの数値ベクトルを返します。

データ型:字符|function_handle

オブジェクト関数

石灰 本地可解释模型不可知解释(LIME)
损失 ガウスカーネル回帰モデルの回帰損失
partialDependence 部分従属の計算
plotPartialDependence 部分依存プロット(PDP)および個別条件付き期待値(ICE)プロットの作成
预测 ガウスカーネル回帰モデルの応答を予測
的简历 ガウスカーネル回帰モデルの学習の再開
沙普利 シャープレイ値

すべて折りたたむ

SVMを使用して,高配列についてカーネル回帰モデルに学習をさせます。

高配列に対する計算を実行する場合,MATLAB®は並列プール(并行计算工具箱™がある場合は既定)またはローカルのMATLABセッションを使用します。并行计算工具箱がある場合にローカルのMATLABセッションを使用して例を実行するには,関数mapreduceを使用してグローバルな実行環境を変更します。

mapreduce (0)

データがあるフォルダーの場所を参照するデータストアを作成します。データは,単一のファイル,ファイルの集まり,またはフォルダー全体のどれに含まれていてもかまいません。数据存储によって値に置き換えられるようにするため,“NA”値を欠損データとして扱います。使用する変数のサブセットを選択します。データストアの先頭に高表を作成します。

varnames = {“ArrTime”“DepTime”“ActualElapsedTime”};ds =数据存储(“airlinesmall.csv”“TreatAsMissing”“NA”...“SelectedVariableNames”, varnames);t =高(ds);

予測子変数 (X)としてDepTimeArrTimeを,応答変数(Y)としてActualElapsedTimeを指定します。ArrTimeDepTimeより遅い観測値を選択します。

白天= t.ArrTime > t.DepTime;Y = t.ActualElapsedTime(白天);%响应数据X = t{白天,{“DepTime”“ArrTime”}};%的预测数据

予測子変数を標準化します。

Z = zscore (X);%标准化数据

標準化された予測子を使用して,既定のガウスカーネル回帰モデルに学習をさせます。あてはめの要約を抽出して,最適化アルゴリズムによりモデルがどの程度適切にデータにあてはめられたかを判断します。

(Mdl FitInfo] = fitrkernel (Z, Y)
发现6块。|========================================================================= | 解算器/客观| | |迭代梯度|β相对| | |数据通过| | |大小改变  | |========================================================================= | INIT | 0/1 | 4.307833 e + 01 | 4.345788 e-02 |南| | LBFGS | 0 / 2 e + 01 | | 3.7057131.577301 e-02 e-01 | 9.988252 | | LBFGS | 1 / 3 e + 01 | 3.704022 | 3.082836 e-02 | 1.338410 e 03 | | LBFGS | 2 / 4 e + 01 | 3.701398 | 3.006488 e-02 | 1.116070 e 03 | | LBFGS | | 2/5 3.698797 e + 01 | 2.870642 e-02 | 2.234599 e 03 | | LBFGS | | 2/6 3.693687 e + 01 | 2.625581 e-02 | 4.479069 e 03 | | LBFGS | | 2/7 3.683757 e + 01 | 2.239620 e-02 | 8.997877 e 03 | |LBFGS | 2/8 | 3.665038 e + 01 e-02 | 1.782358 | 1.815682 e-02 | | LBFGS | 3/9 | 3.473411 e + 01 e-02 | 4.074480 | 1.778166 e-01 | | LBFGS | 4/10 | 3.684246 e + 01 e-01 | 1.608942 | 3.294968 e-01 | | LBFGS | 4/11 | 3.441595 e + 01 e-02 | 8.587703 | 1.420892 e-01 | | LBFGS | 5/12 | 3.377755 e + 01 e-02 | 3.760006 | 4.640134 e-02 | | LBFGS e + 01 | | | 6/13 3.3577321.912644 e-02 e-02 | 3.842057 | | LBFGS | | 7/14 3.334081 e + 01 | 3.046709 e-02 | 6.211243 e-02 | | LBFGS | | 8/15 3.309239 e + 01 | 3.858085 e-02 | 6.411356 e-02 | | LBFGS | | 9/16 3.276577 e + 01 | 3.612292 e-02 | 6.938579 e-02 | | LBFGS | | 10/17 3.234029 e + 01 | 2.734959 e-02 | 1.144307 e-01 | | LBFGS | | 11/18 3.205763 e + 01 | 2.545990 e-02 e-02 | 7.323180| | LBFGS | 12/19 | 3.183341 e + 01 e-02 | 2.472411 | 3.689625 e-02 | | LBFGS | 13/20 | 3.169307 e + 01 e-02 | 2.064613 | 2.998555 e-02  | |========================================================================= | 解算器/客观| | |迭代梯度|β相对| | |数据通过| | | |大小变化|========================================================================= | LBFGS | 14/21 | 3.146896 e + 01 e-02 | 1.788395 | 5.967293 e-02 | | LBFGS | 15/22 | 3.118171 e + 01 e-02 | 1.660696 | 1.124062 e-01 | | LBFGS | 16/23 | 3.106224 e + 01 e-02 | 1.506147 | 7.947037 e-02 | | LBFGS | 17/24 | 3.098395 e + 01 e-02 | 1.564561 | 2.678370 e-02 | | LBFGS | 18 /25 | 3.096029 e + 01 e-02 | 4.464104 | 4.547148 e-02 | | LBFGS | 19/26 | 3.085475 e + 01 e-02 | 1.442800 | 1.677268 e-02 | | LBFGS | 20/27 | 3.078140 e + 01 e-02 | 1.906548 | 2.275185 e-02  | |========================================================================|
Mdl = RegressionKernel PredictorNames: {'x1' 'x2'} ResponseName: 'Y' Learner: 'svm' NumExpansionDimensions: 64 KernelScale: 1 Lambda: 8.5385e-06 BoxConstraint: 1 Epsilon: 5.9303属性,方法
FitInfo =结构体字段:Solver: 'LBFGS-tall' LossFunction: 'epsiloninsensitive' Lambda: 8.5385e-06 betaterance: 1.0000e-03 GradientTolerance: 1.0000e-05 objectivvalue: 30.7814 GradientMagnitude: 0.0191 RelativeChangeInBeta: 0.0228 FitTime: 46.4676 History: [1x1 struct]

MdlRegressionKernelモデルです。回帰誤差を調べるには、Mdlと学習データまたは新しいデータを関数损失に渡すことができます。または,Mdlと新しい予測子データを関数预测に渡して,新しい観測値の応答を予測することができます。また,Mdlと学習データを関数的简历に渡して学習を続行することもできます。

FitInfoは,最適化情報が格納されている構造体配列です。最適化終了時の結果が満足できるものであるかどうかを判断するには,FitInfoを使用します。

精度を向上させるため,fitrkernelの名前と値のペアの引数を使用して,最適化反復の最大回数(“IterationLimit”)を増やしたり,許容誤差の値(“BetaTolerance”および“GradientTolerance”)を小さくしたりすることができます。このようにすると,FitInfoObjectiveValueRelativeChangeInBetaなどの尺度が向上します。名前と値のペアの引数“OptimizeHyperparameters”を使用してモデルパラメーターを最適化することもできます。

反復回数を増やしてガウスカーネル回帰モデルの学習を再開し,回帰損失を向上させます。

carbigデータセットを読み込みます。

负载carbig

予測子変数 (X)と応答変数(Y)を指定します。

X =(加速、气缸、位移、马力、重量);Y = MPG;

配列XおよびYから,それぞれの配列で値が含まれている行を削除します。値が含まれている行を削除してからデータをfitrkernelに渡すと,学習が高速化され,メモリ使用量が少なくなります。

R = rmmissing([X Y]);%删除缺失条目的数据X = R (:, 1:5);Y = R(:,结束);

観測値の10%をホールドアウト標本として予約します。学習インデックスとテストインデックスを分割の定義から抽出します。

rng (10)%的再现性N =长度(Y);本量利= cvpartition (N,“坚持”, 0.1);idxTrn =培训(cvp);%训练集指标idxTest =测试(cvp);%测试集指标

学習データを標準化し,カーネル回帰モデルに学習をさせます。反復制限を5回に設定し,“详细”,1を指定して診断情報を表示します。

Xtrain = X (idxTrn:);Ytrain = Y (idxTrn);[Ztrain, tr_mu tr_sigma] = zscore (Xtrain);将培训数据标准化tr_sigma (tr_sigma = = 0) = 1;Mdl = fitrkernel (Ztrain Ytrain,“IterationLimit”5,“详细”, 1)
|=================================================================================================================| | 解算器| | | | |通过迭代目标一步梯度相对| |总和(β~ = 0 ) | | | | | | | 级|改变β| ||=================================================================================================================| | LBFGS | 1 | 0 | 5.691016 e + 00 e + 00 | 0.000000 | 5.852758 e-02 | | 0 | | LBFGS | 1 | 1 | 5.086537 e + 00 e + 00 | 8.000000 | 5.220869 e-02 e-02 9.846711 | | 256 | | LBFGS | 1 | 2 | 3.862301 e + 00 e-01 | 5.000000 | 3.796034 e-01 e-01 | 5.998808 | 256人||lBFGS | 1 | 3 | 3.460613e+00 | 1.000000e+00 | 3.257790e-01 | 1.615091e-01 | 256 | | LBFGS | 1 | 4 | 3.136228e+00 | 1.000000e+00 | 2.832861e-02 | 8.006254e-02 | 256 | | LBFGS | 1 | 5 | 3.063978e+00 | 1.000000e+00 | 1.475038e-02 | 3.314455e-02 | 256 | |=================================================================================================================|
Mdl = RegressionKernel ResponseName: 'Y'学习者:'svm' NumExpansionDimensions: 256 KernelScale: 1 Lambda: 0.0028 BoxConstraint: 1 Epsilon: 0.8617属性,方法

MdlRegressionKernelモデルです。

学習データの列と同じ平均および標準偏差を使用して検定データを標準化します。検定セットについてイプシロン不感応誤差を推定します。

Xtest = X (idxTest:);中兴通讯= (Xtest-tr_mu)。/ tr_sigma;将测试数据标准化欧美= Y (idxTest);L =损失(Mdl,中兴通讯,欧美,“LossFun”“epsiloninsensitive”
L = 2.0674

的简历を使用して,モデルの学習を続行します。この関数は,Mdlの学習に使用したものと同じ学習オプションによって学習を続行します。

UpdatedMdl =简历(Mdl Ztrain Ytrain);
|===========================================================================================================================解算器|通过|迭代|目标|步骤|梯度|和|第四方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方第第第第第第第第四方方方方方方方方第第第第第第第第第第第二方方方方方方方第第第第第第第第第第=======================================================================================================================================第第第第第第第====================================================================================第第第第第第第第第第第=====================================================================第第第第第第第第第第第第第第=================================1.475038e-02 | 256 | LBFGS | 1 | 1 | 3.007822e+00 | 8.000000e+00 | 1.391637e-02 | 2.603966e-02 | 256 | LBFGS | 1 | 2 | 2.8171E+00 |5.0亿E-0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0| 1 | 5 | 2.767821e+00 | 1.000000e+00 | 6.154419e-03 | 2.468903e-02 | 256 | LBFGS | 1 | 6 | 2.738163e+00 | 1.000000e+00|5.949.9.9.949008 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8.9 9 9 9 9 9.9 9 9 9 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8.9 9 9 9 9 9 9 9 9 9 9 9.9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 8 8 8 8 8 8 8 8 8 9 9 9 9 9 9 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 8 8 8 8 8 8 8 8 8 8 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5;2.701162e+00 | 1.000000e+00 | 5.665722e-03 | 9.401466e-03 | 256 | LBFGS | 1 | 10 | 2.695341e+00 | 5.000000e-01 |3.1161477 7 7.1161477 E-0 0 0 0 0 0 0 0 0 0 4 4 4 4.6 6 6 6 7 7 7 7 7 7 7 7 7 7 7 7 7 7 6 6 6 6 6 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 7 7 7 7 7 7 7 7 5 5 5 5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 124; 2.688979e+00 | 1.000000e+00 | 1.416431e-02 | 6.606316e-03 | 256 | LBFGS | 1 | 14 | 2.687787e+00 | 1.000000e+00 |1.6.6.1956年1.6.1956年5.6 6.6.1956年E-3 0 0 0 0 0 0 0 5 5 5 5 5 5 5 5 5 6.6 6 6.5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5.5 5 5 5 5 5 5 5 5-3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0亿E+1.000000e+1.000000e+0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 E+1.e+E+12 4 4 4;1.1.1.0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 E+E+E+E+12 12 12 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4;2.685021e+00 | 5.000000e-01 | 1.133144e-02 | 2.104248e-02 | 256 | LBFGS | 1 | 18 | 2.684002e+00 | 1.000000e+00 |2.838 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 7 E+0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0===============================================================================================================================================================解算器|通过|迭代|目标|阶跃|梯度|相对|和(β=0)第四方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第2.832861e-03 | 2.587726e-03 | 256 | LBFGS | 1 | 22 | 2.682682e+00 | 1.000000e+00 | 2.832861e-03 | 2.587726e-03 | 256 | LBFGS | 1 | 23|2.682424858 E-0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2.953648e-3 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 E-3 E-3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2.8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8;256 | LBFGS | 1 | 26 | 2.681867e+00 | 5.000000e-01 | 1.031085e-03 | 3.638352e-03 | 256 | LBFGS | 1 | 27 |1.51511999 E-03 | 1.51511999 E-03 | 1.51515 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 LBFGS | 1 | 30 | 2.681594e+00 | 5.000000e-01 | 2.832861e-03 | 8.704875e-04 | 256 | LBFGS | 1 | 31 |8.498584e-03 | 3.934768e-04 | 2561244|1244よ2561244|1244|;;1244|; 4 4 4 4 4 4 4.5 5.8 8.8.8 8.8 8.8.8 8 8.8 8 8.8 8 8 8.85858484848 E-03“3”3”3 3.3.3.3.3.6 6 6 8 8 8 8 E-04 E-04 E-3 3 3 3 3 3 3 3 3 3 3.3.3.3.3.3.3.3.6 6 6 8 8 8 8 E-4 E-4 E-2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004年,4 E-4个E-4个E-4 4个E-4 4四四四四四四四四四四四四四四四四四四四四四个“256 | LBFGS | 1 | 34 | 2.681541e+00 | 5.000000e-01 | 8.498584e-03 | 6.635528e-04 | 256 | LBFGS | 1 | 35 |6.194735e-04| 6.194735 5 E-04|; 2561244||;;124|;124|;124|124|||||;;;1244 4 4 4 5.6814 14.14.14.14.14.14.14.9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0|LBFGS | 1 | 38 | 2.681469e+00 | 1.000000e+00 | 5.665722e-03 | 1.069722e-03 | 256 | LBFGS | 1 | 39 |1.28282861E-03;8.501930e-04;8.501930e-04;256124|124|124|124|124124|124124124|124124|124124|124124124124124124|124124124124124124124124124|;;)LBFGFGS124124124124124124124124124124124124124124124124124124124124124124124124|;;;)))LBfffffffffffffffffffffffffffFGFG124124124124124124124124124124124124124124================================================解算器|通过|迭代|目标|步长|梯度|相对|和(beta~=0)第四方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第E+00 | 2.832861e-03 | 8.763251e-04 | 256 | LBFGS | 1 | 42 | 2.681413e+00 | 5.000000e-01 | 2.832861e-03 | 4.101888e-04 | 256 | LBFGS | 1 | 43|2.6.7 7 7.7 7 7 9 E-04よ2.7 7.7 7 9 E-04よ256よ1244よ12441244|1244よ;1244|; 2.6.6.6.3 3 3 3 3.3 3 3 3 3 3.3 E+3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 256 | LBFGS | 1 | 46 | 2.681374e+00|1.000000e+00 | 8.498584e-03 | 5.771001e-04 | 256 | | LBFGS | 1 | 47 | 2.681353e+00 | 1.000000e+00 | 2.832861e-03 | 3.160871e-04 | 256 | | LBFGS | 1 | 48 | 2.681334e+00 | 5.000000e-01 | 8.498584e-03 | 1.045502e-03 | 256 | | LBFGS | 1 | 49 | 2.681314e+00 | 1.000000e+00 | 7.878714e-04 | 1.505118e-03 | 256 | | LBFGS | 1 | 50 | 2.681306e+00 | 1.000000e+00 | 2.832861e-03 | 4.756894e-04 | 256 | | LBFGS | 1 | 51 | 2.681301e+00 | 1.000000e+00 | 1.133144e-02 | 3.664873e-04 | 256 | | LBFGS | 1 | 52 | 2.681288e+00 | 1.000000e+00 | 2.832861e-03 | 1.449821e-04 | 256 | | LBFGS | 1 | 53 | 2.681287e+00 | 2.500000e-01 | 1.699717e-02 | 2.357176e-04 | 256 | | LBFGS | 1 | 54 | 2.681282e+00 | 1.000000e+00 | 5.665722e-03 | 2.046663e-04 | 256 | | LBFGS | 1 | 55 | 2.681278e+00 | 1.000000e+00 | 2.832861e-03 | 2.546349e-04 | 256 | | LBFGS | 1 | 56 | 2.681276e+00 | 2.500000e-01 | 1.307940e-03 | 1.966786e-04 | 256 | | LBFGS | 1 | 57 | 2.681274e+00 | 5.000000e-01 | 1.416431e-02 | 1.005310e-04 | 256 | | LBFGS | 1 | 58 | 2.681271e+00 | 5.000000e-01 | 1.118892e-03 | 1.147324e-04 | 256 | | LBFGS | 1 | 59 | 2.681269e+00 | 1.000000e+00 | 2.832861e-03 | 1.332914e-04 | 256 | | LBFGS | 1 | 60 | 2.681268e+00 | 2.500000e-01 | 1.132045e-03 | 5.441369e-05 | 256 | |=================================================================================================================|

更新されたモデルを使用して,検定セットについてイプシロン不感応誤差を推定します。

UpdatedL =损失(UpdatedMdl,中兴通讯,欧美,“LossFun”“epsiloninsensitive”
UpdatedL = 1.8933

反復回数を増やして的简历で回帰モデルを更新すると,約0.08倍だけ回帰誤差が減少します。

R2018aで導入