このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。
ランダムな特徴量拡張を使用したガウスカーネル回帰モデル
RegressionKernel
は,ランダムな特徴量拡張を使用した,ガウスカーネル回帰モデルの学習済みモデルオブジェクトです。RegressionKernel
は,大規模な学習セットが含まれているビッグデータ事例への適用の方がより有用ですが,メモリに収まる小規模なデータセットにも適用できます。
他の回帰モデルとは異なり,また,メモリ消費を節約するため,RegressionKernel
モデルオブジェクトには学習データが格納されません。ただし,拡張空間の次元,カーネルスケールパラメーター,正則化強度などの情報は格納されます。
学習済みのRegressionKernel
モデルを使用すると,学習データによる学習の続行,新しいデータに対する応答の予測,および平均二乗誤差やイプシロン不感応損失の計算を行うことができます。詳細については,的简历
、预测
および损失
を参照してください。
関数fitrkernel
を使用してRegressionKernel
オブジェクトを作成します。この関数は,低次元空間のデータを高次元空間にマッピングしてから、正則化された目的関数を最小化することによって高次元空間で線形モデルをあてはめます。高次元空間で線形モデルを取得することは、低次元空間におけるモデルへのガウス カーネルの適用と等価です。使用可能な線形回帰モデルには、正則化されたサポート ベクター マシン (SVM) と最小二乗回帰モデルがあります。
ε
- - - - - -イプシロン不感応区間の幅の半分イプシロン不感応区間の幅の半分。非負のスカラーを指定します。
学习者
が“支持向量机”
ではない場合,ε
は空の文字列([]
)です。
データ型:单
|双
学习者
- - - - - -線形回帰モデルのタイプ“支持向量机”
(既定値) |“leastsquares”
線形回帰モデルのタイプ。“leastsquares”
または“支持向量机”
を指定します。
次の表では です。
xはp個の予測子変数による観測値(行ベクトル)です。
は特徴量を拡張するための観測値(行ベクトル)の変換です。T (x)は のxを高次元空間( )にマッピングします。
βはm個の係数のベクトルです。
bはスカラーバイアスです。
値 | アルゴリズム | 損失関数 | FittedLoss の値 |
---|---|---|---|
“leastsquares” |
通常の最小二乗による線形回帰 | 平均二乗誤差(MSE): | mse的 |
“支持向量机” |
サポートベクターマシン回帰 | イプシロン不感応: | “epsiloninsensitive” |
NumExpansionDimensions
- - - - - -拡張空間の次元数拡張空間の次元数。正の整数を指定します。
データ型:单
|双
KernelScale
- - - - - -カーネルスケールパラメーターカーネルスケールパラメーター。正のスカラーを指定します。
データ型:单
|双
BoxConstraint
- - - - - -ボックス制約ボックス制約。正のスカラーを指定します。
データ型:双
|单
λ
- - - - - -正則化項の強度正則化項の強度。非負のスカラーを指定します。
データ型:单
|双
FittedLoss
- - - - - -線形モデルのあてはめに使用する損失関数“epsiloninsensitive”
|mse的
線形モデルのあてはめに使用する損失関数。“epsiloninsensitive”
またはmse的
を指定します。
値 | アルゴリズム | 損失関数 | 学习者 の値 |
---|---|---|---|
“epsiloninsensitive” |
サポートベクターマシン回帰 | イプシロン不感応: | “支持向量机” |
mse的 |
通常の最小二乗による線形回帰 | 平均二乗誤差(MSE): | “leastsquares” |
正则化
- - - - - -複雑度ペナルティのタイプ“套索(L1)”
|“岭(L2)”
複雑度ペナルティのタイプ。“套索(L1)”
または“岭(L2)”
を指定します。
最小化のための目的関数は,平均損失関数(FittedLoss
を参照)と次の表の正則化値を加算することにより作成されます。
値 | 説明 |
---|---|
“套索(L1)” |
套索(l1)ペナルティ: |
“岭(L2)” |
リッジ(l2)ペナルティ: |
λは,正則化項の強度を規定します(λ
を参照)。
バイアス項(β0)は正則化ペナルティから除外されます。
CategoricalPredictors
- - - - - -カテゴリカル予測子のインデックスカテゴリカル予測子のインデックス。正の整数のベクトルを指定します。CategoricalPredictors
には,カテゴリカル予測子が含まれている予測子データの列に対応するインデックス値を格納します。どの予測子もカテゴリカルではない場合,このプロパティは空([]
)になります。
データ型:单
|双
ModelParameters
- - - - - -モデルに学習をさせるために使用されたパラメーターRegressionKernel
モデルに学習をさせるために使用したパラメーター。構造体を指定します。
ModelParameters
のフィールドにはドット表記でアクセスします。たとえば,線形係数およびバイアス項の相対許容誤差にアクセスするにはMdl.ModelParameters.BetaTolerance
を使用します。
データ型:结构体
PredictorNames
- - - - - -予測子名予測子データに現れる順序で並んでいる予測子名。文字ベクトルの细胞配列として指定します。PredictorNames
の長さは,学習データX
または资源描述
で予測子変数として使用される列の数と等しくなります。
データ型:细胞
ExpandedPredictorNames
- - - - - -展開された予測子名展開された予測子名。文字ベクトルの细胞配列を指定します。
モデルがカテゴリカル変数用のエンコーディングを使用している場合,ExpandedPredictorNames
には展開された変数を表す名前が格納されます。それ以外の場合,ExpandedPredictorNames
はPredictorNames
と同じです。
データ型:细胞
ResponseName
- - - - - -応答変数名応答変数名。文字ベクトルを指定します。
データ型:字符
ResponseTransform
- - - - - -予測された応答に適用する応答変換関数“没有”
|関数ハンドル予測された応答に適用する応答変換関数。“没有”
または関数ハンドルを指定します。
カーネル回帰モデルで応答変換前の場合,観測値x(行ベクトル)について予測される応答は です。
は特徴量を拡張するための観測値の変換です。
βはMdl。β
に対応します。
bはMdl。偏见
に対応します。
MATLAB®関数やユーザー定義関数の場合は,関数ハンドルを入力します。たとえば,Mdl。ResponseTransform = @function
を入力できます。ここで函数
は,元の応答の数値ベクトルを受け入れ,変換した応答が格納されている同じサイズの数値ベクトルを返します。
データ型:字符
|function_handle
石灰 |
本地可解释模型不可知解释(LIME) |
损失 |
ガウスカーネル回帰モデルの回帰損失 |
partialDependence |
部分従属の計算 |
plotPartialDependence |
部分依存プロット(PDP)および個別条件付き期待値(ICE)プロットの作成 |
预测 |
ガウスカーネル回帰モデルの応答を予測 |
的简历 |
ガウスカーネル回帰モデルの学習の再開 |
沙普利 |
シャープレイ値 |
SVMを使用して,高配列についてカーネル回帰モデルに学習をさせます。
高配列に対する計算を実行する場合,MATLAB®は並列プール(并行计算工具箱™がある場合は既定)またはローカルのMATLABセッションを使用します。并行计算工具箱がある場合にローカルのMATLABセッションを使用して例を実行するには,関数mapreduce
を使用してグローバルな実行環境を変更します。
mapreduce (0)
データがあるフォルダーの場所を参照するデータストアを作成します。データは,単一のファイル,ファイルの集まり,またはフォルダー全体のどれに含まれていてもかまいません。数据存储
によって南
値に置き換えられるようにするため,“NA”
値を欠損データとして扱います。使用する変数のサブセットを選択します。データストアの先頭に高表を作成します。
varnames = {“ArrTime”,“DepTime”,“ActualElapsedTime”};ds =数据存储(“airlinesmall.csv”,“TreatAsMissing”,“NA”,...“SelectedVariableNames”, varnames);t =高(ds);
予測子変数 (X
)としてDepTime
とArrTime
を,応答変数(Y
)としてActualElapsedTime
を指定します。ArrTime
がDepTime
より遅い観測値を選択します。
白天= t.ArrTime > t.DepTime;Y = t.ActualElapsedTime(白天);%响应数据X = t{白天,{“DepTime”“ArrTime”}};%的预测数据
予測子変数を標準化します。
Z = zscore (X);%标准化数据
標準化された予測子を使用して,既定のガウスカーネル回帰モデルに学習をさせます。あてはめの要約を抽出して,最適化アルゴリズムによりモデルがどの程度適切にデータにあてはめられたかを判断します。
(Mdl FitInfo] = fitrkernel (Z, Y)
发现6块。|========================================================================= | 解算器/客观| | |迭代梯度|β相对| | |数据通过| | |大小改变 | |========================================================================= | INIT | 0/1 | 4.307833 e + 01 | 4.345788 e-02 |南| | LBFGS | 0 / 2 e + 01 | | 3.7057131.577301 e-02 e-01 | 9.988252 | | LBFGS | 1 / 3 e + 01 | 3.704022 | 3.082836 e-02 | 1.338410 e 03 | | LBFGS | 2 / 4 e + 01 | 3.701398 | 3.006488 e-02 | 1.116070 e 03 | | LBFGS | | 2/5 3.698797 e + 01 | 2.870642 e-02 | 2.234599 e 03 | | LBFGS | | 2/6 3.693687 e + 01 | 2.625581 e-02 | 4.479069 e 03 | | LBFGS | | 2/7 3.683757 e + 01 | 2.239620 e-02 | 8.997877 e 03 | |LBFGS | 2/8 | 3.665038 e + 01 e-02 | 1.782358 | 1.815682 e-02 | | LBFGS | 3/9 | 3.473411 e + 01 e-02 | 4.074480 | 1.778166 e-01 | | LBFGS | 4/10 | 3.684246 e + 01 e-01 | 1.608942 | 3.294968 e-01 | | LBFGS | 4/11 | 3.441595 e + 01 e-02 | 8.587703 | 1.420892 e-01 | | LBFGS | 5/12 | 3.377755 e + 01 e-02 | 3.760006 | 4.640134 e-02 | | LBFGS e + 01 | | | 6/13 3.3577321.912644 e-02 e-02 | 3.842057 | | LBFGS | | 7/14 3.334081 e + 01 | 3.046709 e-02 | 6.211243 e-02 | | LBFGS | | 8/15 3.309239 e + 01 | 3.858085 e-02 | 6.411356 e-02 | | LBFGS | | 9/16 3.276577 e + 01 | 3.612292 e-02 | 6.938579 e-02 | | LBFGS | | 10/17 3.234029 e + 01 | 2.734959 e-02 | 1.144307 e-01 | | LBFGS | | 11/18 3.205763 e + 01 | 2.545990 e-02 e-02 | 7.323180| | LBFGS | 12/19 | 3.183341 e + 01 e-02 | 2.472411 | 3.689625 e-02 | | LBFGS | 13/20 | 3.169307 e + 01 e-02 | 2.064613 | 2.998555 e-02 | |========================================================================= | 解算器/客观| | |迭代梯度|β相对| | |数据通过| | | |大小变化|========================================================================= | LBFGS | 14/21 | 3.146896 e + 01 e-02 | 1.788395 | 5.967293 e-02 | | LBFGS | 15/22 | 3.118171 e + 01 e-02 | 1.660696 | 1.124062 e-01 | | LBFGS | 16/23 | 3.106224 e + 01 e-02 | 1.506147 | 7.947037 e-02 | | LBFGS | 17/24 | 3.098395 e + 01 e-02 | 1.564561 | 2.678370 e-02 | | LBFGS | 18 /25 | 3.096029 e + 01 e-02 | 4.464104 | 4.547148 e-02 | | LBFGS | 19/26 | 3.085475 e + 01 e-02 | 1.442800 | 1.677268 e-02 | | LBFGS | 20/27 | 3.078140 e + 01 e-02 | 1.906548 | 2.275185 e-02 | |========================================================================|
Mdl = RegressionKernel PredictorNames: {'x1' 'x2'} ResponseName: 'Y' Learner: 'svm' NumExpansionDimensions: 64 KernelScale: 1 Lambda: 8.5385e-06 BoxConstraint: 1 Epsilon: 5.9303属性,方法
FitInfo =结构体字段:Solver: 'LBFGS-tall' LossFunction: 'epsiloninsensitive' Lambda: 8.5385e-06 betaterance: 1.0000e-03 GradientTolerance: 1.0000e-05 objectivvalue: 30.7814 GradientMagnitude: 0.0191 RelativeChangeInBeta: 0.0228 FitTime: 46.4676 History: [1x1 struct]
Mdl
はRegressionKernel
モデルです。回帰誤差を調べるには、Mdl
と学習データまたは新しいデータを関数损失
に渡すことができます。または,Mdl
と新しい予測子データを関数预测
に渡して,新しい観測値の応答を予測することができます。また,Mdl
と学習データを関数的简历
に渡して学習を続行することもできます。
FitInfo
は,最適化情報が格納されている構造体配列です。最適化終了時の結果が満足できるものであるかどうかを判断するには,FitInfo
を使用します。
精度を向上させるため,fitrkernel
の名前と値のペアの引数を使用して,最適化反復の最大回数(“IterationLimit”
)を増やしたり,許容誤差の値(“BetaTolerance”
および“GradientTolerance”
)を小さくしたりすることができます。このようにすると,FitInfo
のObjectiveValue
やRelativeChangeInBeta
などの尺度が向上します。名前と値のペアの引数“OptimizeHyperparameters”
を使用してモデルパラメーターを最適化することもできます。
反復回数を増やしてガウスカーネル回帰モデルの学習を再開し,回帰損失を向上させます。
carbig
データセットを読み込みます。
负载carbig
予測子変数 (X
)と応答変数(Y
)を指定します。
X =(加速、气缸、位移、马力、重量);Y = MPG;
配列X
およびY
から,それぞれの配列で南
値が含まれている行を削除します。南
値が含まれている行を削除してからデータをfitrkernel
に渡すと,学習が高速化され,メモリ使用量が少なくなります。
R = rmmissing([X Y]);%删除缺失条目的数据X = R (:, 1:5);Y = R(:,结束);
観測値の10%をホールドアウト標本として予約します。学習インデックスとテストインデックスを分割の定義から抽出します。
rng (10)%的再现性N =长度(Y);本量利= cvpartition (N,“坚持”, 0.1);idxTrn =培训(cvp);%训练集指标idxTest =测试(cvp);%测试集指标
学習データを標準化し,カーネル回帰モデルに学習をさせます。反復制限を5回に設定し,“详细”,1
を指定して診断情報を表示します。
Xtrain = X (idxTrn:);Ytrain = Y (idxTrn);[Ztrain, tr_mu tr_sigma] = zscore (Xtrain);将培训数据标准化tr_sigma (tr_sigma = = 0) = 1;Mdl = fitrkernel (Ztrain Ytrain,“IterationLimit”5,“详细”, 1)
|=================================================================================================================| | 解算器| | | | |通过迭代目标一步梯度相对| |总和(β~ = 0 ) | | | | | | | 级|改变β| ||=================================================================================================================| | LBFGS | 1 | 0 | 5.691016 e + 00 e + 00 | 0.000000 | 5.852758 e-02 | | 0 | | LBFGS | 1 | 1 | 5.086537 e + 00 e + 00 | 8.000000 | 5.220869 e-02 e-02 9.846711 | | 256 | | LBFGS | 1 | 2 | 3.862301 e + 00 e-01 | 5.000000 | 3.796034 e-01 e-01 | 5.998808 | 256人||lBFGS | 1 | 3 | 3.460613e+00 | 1.000000e+00 | 3.257790e-01 | 1.615091e-01 | 256 | | LBFGS | 1 | 4 | 3.136228e+00 | 1.000000e+00 | 2.832861e-02 | 8.006254e-02 | 256 | | LBFGS | 1 | 5 | 3.063978e+00 | 1.000000e+00 | 1.475038e-02 | 3.314455e-02 | 256 | |=================================================================================================================|
Mdl = RegressionKernel ResponseName: 'Y'学习者:'svm' NumExpansionDimensions: 256 KernelScale: 1 Lambda: 0.0028 BoxConstraint: 1 Epsilon: 0.8617属性,方法
Mdl
はRegressionKernel
モデルです。
学習データの列と同じ平均および標準偏差を使用して検定データを標準化します。検定セットについてイプシロン不感応誤差を推定します。
Xtest = X (idxTest:);中兴通讯= (Xtest-tr_mu)。/ tr_sigma;将测试数据标准化欧美= Y (idxTest);L =损失(Mdl,中兴通讯,欧美,“LossFun”,“epsiloninsensitive”)
L = 2.0674
的简历
を使用して,モデルの学習を続行します。この関数は,Mdl
の学習に使用したものと同じ学習オプションによって学習を続行します。
UpdatedMdl =简历(Mdl Ztrain Ytrain);
|===========================================================================================================================解算器|通过|迭代|目标|步骤|梯度|和|第四方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方第第第第第第第第四方方方方方方方方第第第第第第第第第第第二方方方方方方方第第第第第第第第第第=======================================================================================================================================第第第第第第第====================================================================================第第第第第第第第第第第=====================================================================第第第第第第第第第第第第第第=================================1.475038e-02 | 256 | LBFGS | 1 | 1 | 3.007822e+00 | 8.000000e+00 | 1.391637e-02 | 2.603966e-02 | 256 | LBFGS | 1 | 2 | 2.8171E+00 |5.0亿E-0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0| 1 | 5 | 2.767821e+00 | 1.000000e+00 | 6.154419e-03 | 2.468903e-02 | 256 | LBFGS | 1 | 6 | 2.738163e+00 | 1.000000e+00|5.949.9.9.949008 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8.9 9 9 9 9 9.9 9 9 9 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8.9 9 9 9 9 9 9 9 9 9 9 9.9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 8 8 8 8 8 8 8 8 8 9 9 9 9 9 9 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 8 8 8 8 8 8 8 8 8 8 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5;2.701162e+00 | 1.000000e+00 | 5.665722e-03 | 9.401466e-03 | 256 | LBFGS | 1 | 10 | 2.695341e+00 | 5.000000e-01 |3.1161477 7 7.1161477 E-0 0 0 0 0 0 0 0 0 0 4 4 4 4.6 6 6 6 7 7 7 7 7 7 7 7 7 7 7 7 7 7 6 6 6 6 6 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 7 7 7 7 7 7 7 7 5 5 5 5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 124; 2.688979e+00 | 1.000000e+00 | 1.416431e-02 | 6.606316e-03 | 256 | LBFGS | 1 | 14 | 2.687787e+00 | 1.000000e+00 |1.6.6.1956年1.6.1956年5.6 6.6.1956年E-3 0 0 0 0 0 0 0 5 5 5 5 5 5 5 5 5 6.6 6 6.5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5.5 5 5 5 5 5 5 5 5-3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0亿E+1.000000e+1.000000e+0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 E+1.e+E+12 4 4 4;1.1.1.0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 E+E+E+E+12 12 12 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4;2.685021e+00 | 5.000000e-01 | 1.133144e-02 | 2.104248e-02 | 256 | LBFGS | 1 | 18 | 2.684002e+00 | 1.000000e+00 |2.838 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 7 E+0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0===============================================================================================================================================================解算器|通过|迭代|目标|阶跃|梯度|相对|和(β=0)第四方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第2.832861e-03 | 2.587726e-03 | 256 | LBFGS | 1 | 22 | 2.682682e+00 | 1.000000e+00 | 2.832861e-03 | 2.587726e-03 | 256 | LBFGS | 1 | 23|2.682424858 E-0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2.953648e-3 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 E-3 E-3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2.8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8;256 | LBFGS | 1 | 26 | 2.681867e+00 | 5.000000e-01 | 1.031085e-03 | 3.638352e-03 | 256 | LBFGS | 1 | 27 |1.51511999 E-03 | 1.51511999 E-03 | 1.51515 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 LBFGS | 1 | 30 | 2.681594e+00 | 5.000000e-01 | 2.832861e-03 | 8.704875e-04 | 256 | LBFGS | 1 | 31 |8.498584e-03 | 3.934768e-04 | 2561244|1244よ2561244|1244|;;1244|; 4 4 4 4 4 4 4.5 5.8 8.8.8 8.8 8.8.8 8 8.8 8 8.8 8 8 8.85858484848 E-03“3”3”3 3.3.3.3.3.6 6 6 8 8 8 8 E-04 E-04 E-3 3 3 3 3 3 3 3 3 3 3.3.3.3.3.3.3.3.6 6 6 8 8 8 8 E-4 E-4 E-2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004 2004年,4 E-4个E-4个E-4 4个E-4 4四四四四四四四四四四四四四四四四四四四四四个“256 | LBFGS | 1 | 34 | 2.681541e+00 | 5.000000e-01 | 8.498584e-03 | 6.635528e-04 | 256 | LBFGS | 1 | 35 |6.194735e-04| 6.194735 5 E-04|; 2561244||;;124|;124|;124|124|||||;;;1244 4 4 4 5.6814 14.14.14.14.14.14.14.9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0|LBFGS | 1 | 38 | 2.681469e+00 | 1.000000e+00 | 5.665722e-03 | 1.069722e-03 | 256 | LBFGS | 1 | 39 |1.28282861E-03;8.501930e-04;8.501930e-04;256124|124|124|124|124124|124124124|124124|124124|124124124124124124|124124124124124124124124124|;;)LBFGFGS124124124124124124124124124124124124124124124124124124124124124124124124|;;;)))LBfffffffffffffffffffffffffffFGFG124124124124124124124124124124124124124124================================================解算器|通过|迭代|目标|步长|梯度|相对|和(beta~=0)第四方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方方第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第第E+00 | 2.832861e-03 | 8.763251e-04 | 256 | LBFGS | 1 | 42 | 2.681413e+00 | 5.000000e-01 | 2.832861e-03 | 4.101888e-04 | 256 | LBFGS | 1 | 43|2.6.7 7 7.7 7 7 9 E-04よ2.7 7.7 7 9 E-04よ256よ1244よ12441244|1244よ;1244|; 2.6.6.6.3 3 3 3 3.3 3 3 3 3 3.3 E+3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 256 | LBFGS | 1 | 46 | 2.681374e+00|1.000000e+00 | 8.498584e-03 | 5.771001e-04 | 256 | | LBFGS | 1 | 47 | 2.681353e+00 | 1.000000e+00 | 2.832861e-03 | 3.160871e-04 | 256 | | LBFGS | 1 | 48 | 2.681334e+00 | 5.000000e-01 | 8.498584e-03 | 1.045502e-03 | 256 | | LBFGS | 1 | 49 | 2.681314e+00 | 1.000000e+00 | 7.878714e-04 | 1.505118e-03 | 256 | | LBFGS | 1 | 50 | 2.681306e+00 | 1.000000e+00 | 2.832861e-03 | 4.756894e-04 | 256 | | LBFGS | 1 | 51 | 2.681301e+00 | 1.000000e+00 | 1.133144e-02 | 3.664873e-04 | 256 | | LBFGS | 1 | 52 | 2.681288e+00 | 1.000000e+00 | 2.832861e-03 | 1.449821e-04 | 256 | | LBFGS | 1 | 53 | 2.681287e+00 | 2.500000e-01 | 1.699717e-02 | 2.357176e-04 | 256 | | LBFGS | 1 | 54 | 2.681282e+00 | 1.000000e+00 | 5.665722e-03 | 2.046663e-04 | 256 | | LBFGS | 1 | 55 | 2.681278e+00 | 1.000000e+00 | 2.832861e-03 | 2.546349e-04 | 256 | | LBFGS | 1 | 56 | 2.681276e+00 | 2.500000e-01 | 1.307940e-03 | 1.966786e-04 | 256 | | LBFGS | 1 | 57 | 2.681274e+00 | 5.000000e-01 | 1.416431e-02 | 1.005310e-04 | 256 | | LBFGS | 1 | 58 | 2.681271e+00 | 5.000000e-01 | 1.118892e-03 | 1.147324e-04 | 256 | | LBFGS | 1 | 59 | 2.681269e+00 | 1.000000e+00 | 2.832861e-03 | 1.332914e-04 | 256 | | LBFGS | 1 | 60 | 2.681268e+00 | 2.500000e-01 | 1.132045e-03 | 5.441369e-05 | 256 | |=================================================================================================================|
更新されたモデルを使用して,検定セットについてイプシロン不感応誤差を推定します。
UpdatedL =损失(UpdatedMdl,中兴通讯,欧美,“LossFun”,“epsiloninsensitive”)
UpdatedL = 1.8933
反復回数を増やして的简历
で回帰モデルを更新すると,約0.08
倍だけ回帰誤差が減少します。
次のMATLABコマンドに対応するリンクがクリックされました。
コマンドをMATLABコマンドウィンドウに入力して実行してください。WebブラウザーはMATLABコマンドをサポートしていません。
你也可以从以下列表中选择一个网站:
选择中国网站(中文或英文)以获得最佳网站性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。