改装
クラス:FeatureSelectionNCARegression
回帰用の近傍成分分析(nca)モデルの再当てはめ
構文
mdlrefit = refit(mdl,名称,值)
入力引数
mdl
- - - - - -回帰用の近傍成分分析モデル
FeatureSelectionNCARegression
オブジェクト
分類用の近傍成分分析モデル。FeatureSelectionNCARegression
オブジェクトとして指定します。
名前と値の引数
オプションの引数のペアをName1 = Value1,…,以=家
として指定します。ここで的名字
は引数名,价值
は対応する値です。名前と値の引数は他の引数の後ろにする必要がありますが、ペアの順序は関係ありません。
R2021aより前では,名前と値をそれぞれコンマを使って区切り,的名字
を引用符で囲みます。
FitMethod
- - - - - -モデルの当てはめ方式
mdl。FitMethod
(既定値) |“准确”
|“没有”
|“平均”
モデルの当てはめ方式。“FitMethod”
と次のいずれかから構成されるコンマ区切りのペアとして指定します。
“准确”
—すべてのデタを使用して当てはめを実行します。“没有”
-当てはめを行いません。fsrnca
を呼び出すときに指定した特徴量の重みの初期値を使用してNCAモデルの汎化誤差を評価する場合に,このオプションを使用します。“平均”
-デタをサブセットに分割し,确切的
法を使用して各分割を当てはめ,特徴量の重みの平均を返します。名前と値のペアの引数NumPartitions
を使用して分割数を指定できます。
例:“FitMethod”、“没有”
λ
- - - - - -正則化パラメタ
mdl。λ
(既定値) |非負のスカラ,値
正則化パラメタ。“λ”
と非負のスカラ,値から構成されるコンマ区切りのペアとして指定します。
n個の観測値がある場合,NCAモデルの汎化誤差を最小化する最良のλ
の値は1/nの整数倍であると考えられます。
例:“λ”,0.01
デ,タ型:双
|单
解算器
- - - - - -ソルバのタプ
mdl。解算器
(既定値) |“lbfgs”
|“sgd”
|“minibatch-lbfgs”
特徴量の重みを推定するソルバのタプ。“规划求解”
と次のいずれかから構成されるコンマ区切りのペアとして指定します。
“lbfgs”
——メモリ制限蓄热(Broyden-Fletcher-Goldfarb-Shanno)アルゴリズム(LBFGSアルゴリズム)“sgd”
-確率的勾配降下法“minibatch-lbfgs”
- LBFGSアルゴリズムをミニバッチに適用した確率的勾配降下
例:“规划求解”、“minibatch-lbfgs”
InitialFeatureWeights
- - - - - -特徴量の重みの初期値
mdl。InitialFeatureWeights
(既定値) |正の実数スカラ,値によるp行1列のベクトル
特徴量の重みの初期値。“InitialFeatureWeights”
と正の実数スカラー値によるp行1列のベクトルから構成されるコンマ区切りのペアとして指定します。
デ,タ型:双
|单
详细的
- - - - - -詳細レベルのンジケタ
mdl。详细的
(既定値) |0|1|> 1
収束概要表示の詳細レベルのンジケタ。“详细”
と次のいずれかから構成されるコンマ区切りのペアとして指定します。
0 -収束概要なし
1 -反復回数,勾配のノルム,目的関数の値を含む収束概要。
1より大きい値-当てはめたアルゴリズムに応じたより多くの収束情報
ソルバ
“minibatch-lbfgs”
を使用する場合に詳細レベルを1より大きい値にすると,中間的なミニバッチLBFGSの当てはめによる反復ログが収束情報に含まれます。
例:“详细”,2
デ,タ型:双
|单
GradientTolerance
- - - - - -収束の相対許容誤差
mdl。GradientTolerance
(既定値) |正の実数スカラ,値
ソルバ,がlbfgs
である場合の,勾配ノルムに対する収束の相対許容誤差。“GradientTolerance”
と正の実数スカラ,値から構成されるコンマ区切りのペアとして指定します。
例:“GradientTolerance”,0.00001
デ,タ型:双
|单
InitialLearningRate
- - - - - -ソルバ,がsgd
である場合の初期学習率
mdl。InitialLearningRate
(既定値) |正の実数スカラ,値
ソルバ,がsgd
である場合の初期学習率。“InitialLearningRate”
と正のスカラ,値から構成されるコンマ区切りのペアとして指定します。
ソルバタプとして“sgd”
を使用する場合,学習率は“InitialLearningRate”
で指定された値から始まって反復ごとに減衰します。
例:“InitialLearningRate”,0.8
デ,タ型:双
|单
PassLimit
- - - - - -ソルバ,が“sgd”
である場合の最大通過回数
mdl。PassLimit
(既定値) |正の整数値
ソルバ,が“sgd”
(確率的勾配降下)である場合の通過の最大回数。“PassLimit”
と正の整数から構成されるコンマ区切りのペアとして指定します。1回通過するごとに,尺寸(mdl.X, 1)
個の観測値が処理されます。
例:“PassLimit”,10
デ,タ型:双
|单
IterationLimit
- - - - - -最大反復回数
mdl。IterationLimit
(既定値) |正の整数値
最大反復回数。“IterationLimit”
と正の整数で構成されるコンマ区切りのペアとして指定します。
例:“IterationLimit”,250年
デ,タ型:双
|单
出力引数
mdlrefit
-回帰用の近傍成分分析モデル
FeatureSelectionNCARegression
オブジェクト
分類用の近傍成分分析モデル。FeatureSelectionNCARegression
オブジェクトとして返されます。結果を新しいモデルとして保存するか,mdl = refit(mdl,Name,Value)
として既存のモデルを更新することができます。
例
設定を修正した回帰用のncaモデルの再当てはめ
標本デ,タを読み込みます。
负载(“robotarm.mat”)
robotarm
データセット(pumadyn32nm)はロボットアームシミュレータを使用して作成されており,7168個の学習観測値,1024個のテスト観測値,32個の特徴量が含まれています[1],[2]。これは,オリジナルのデ,タセットを前処理したものです。デ,タの前処理では,線形回帰近似を除外してから,すべての特徴量を単位分散に対して正規化しています。
特徴選択を行わずに汎化誤差を計算します。
nca = fsrnca(Xtrain,ytrain,“FitMethod”,“没有”,“标准化”1);L =损失(nca,Xtest,ytest)
L = 0.9017
次に,この問題に特徴選択が必要であるかどうかを判断するため,モデルを再度当てはめ,
= 0(正則化項なし)で特徴選択を行って予測損失を計算し,前の損失値と比較します。変更しない設定にいては,改装
は初期モデルnca
の設定を使用します。たとえば,nca
に含まれている特徴量の重みが特徴量の重みの初期値として使用されます。
Nca2 =改装nca,“FitMethod”,“准确”,“λ”, 0);L2 =损失(nca2,Xtest,ytest)
L2 = 0.1088
損失が小さくなったので,特徴選択が必要であることがわかります。
特徴量の重みをプロットします。
图()图(nca2。FeatureWeights,“罗”)
通常は,正則化パラメ,タ,を調整すると結果が改善されます。回帰用のncaの正則化パラメ,タ,の調整で説明されているように交差検証を使用して
を調整した結果,最良の
の値が0.0035になったとします。この
の値と,ソルバ,として確率的勾配降下を使用して,nca
モデルを再度当てはめます。予測損失を計算します。
Nca3 =改装(nca2,“FitMethod”,“准确”,“λ”, 0.0035,...“规划求解”,“sgd”);L3 = loss(nca3,Xtest,ytest)
L3 = 0.0573
特徴量の重みをプロットします。
图()图(nca3。FeatureWeights,“罗”)
正則化パラメーターを調整した結果,損失がさらに小さくなり,4つの特徴量が関連することが識別されました。
参考文献
[1]拉斯穆森,C. E.尼尔,G. E.欣顿,D.范坎普,M. Revow, Z. Ghahramani, R. Kustra和R. Tibshirani。DELVE手册,1996,https://mlg.eng.cam.ac.uk/pub/pdf/RasNeaHinetal96.pdf
バ,ジョン履歴
R2016bで導入
Matlabコマンド
次のmatlabコマンドに対応するリンクがクリックされました。
コマンドをmatlabコマンドウィンドウに入力して実行してください。Webブラウザ,はMATLABコマンドをサポ,トしていません。
您也可以从以下列表中选择一个网站:
如何获得最佳的网站性能
选择中国站点(中文或英文)以获得最佳站点性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。