このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。
高品質の回帰モデルを構築するには,正しい特徴量(予測子)の選択,ハイパーパラメーター(データへのあてはめを行わないモデルパラメーター)の調整,残差診断によるモデル仮定の評価を行うことが重要です。
ハイパーパラメーターの値の選択とモデルの交差検証を繰り返すことにより,ハイパーパラメーターを調整できます。このプロセスでは複数のモデルが生成されますが,推定された汎化誤差が最小になるものが最適なモデルであると考えることができます。たとえば,SVMモデルを調整するには,一連のボックス制約およびカーネルスケールを選択し,値の各ペアについてモデルを交差検証して,10分割交差検証の平均二乗誤差の推定値を比較します。
统计和机器学习工具箱™の一部のノンパラメトリック回帰関数では,ベイズ最適化,グリッド探索またはランダム探索による自動的なハイパーパラメーター調整が追加で提供されます。ただし,ベイズ最適化を実装するための中心的な関数であるbayesopt
は,他の多くの用途にも応用が利きます。詳細は,ベイズ最適化のワークフローを参照してください。
調整されたハイパーパラメーターでモデルを自動的に選択するには,fitrauto
を使用します。この関数は,回帰モデルのタイプの選択をさまざまなハイパーパラメーターの値で試し,適切に実行されることが期待される最終モデルを返します。データに最適な回帰モデルのタイプがわからない場合は,fitrauto
を使用します。
回帰モデルの構築と評価を対話的に行うには,回帰学習器アプリを使用します。
回帰モデルを解釈するために,石灰
、沙普利
およびplotPartialDependence
を使用できます。
回帰学習器 | 教師あり機械学習を使用して,データを予測するように回帰モデルに学習をさせる |
自動,手動および並列学習など,回帰モデルの学習,比較および改善を行うためのワークフローです。
回帰学習器で,選択したモデルに自動的に学習をさせ,線形回帰モデル,回帰木,サポートベクターマシン,ガウス過程回帰モデル,回帰木のアンサンブルおよび回帰ニューラルネットワークのオプションを比較および調整します。
プロットを使用して有用な予測子を識別し,含める特徴量を手動で選択し,回帰学習器でPCAを使用して特徴量を変換します。
モデルの統計量を比較し,結果を可視化します。
特徴選択アルゴリズムについて学び,特徴選択に使用できる関数を確認します。
このトピックでは,逐次特徴選択の基本を説明し,カスタム基準と関数sequentialfs
を使用して逐次的に特徴量を選択する例を示します。
近傍成分分析(NCA)は,特徴量を選択するためのノンパラメトリックな手法であり,回帰および分類アルゴリズムの予測精度を最大化することを目的とします。
カスタムなロバスト損失関数をNCAで使用して,外れ値に対してロバストな特徴選択を実行します。
交互作用検定アルゴリズムを使用してランダムフォレストの分割予測子を選択します。
fitrauto
を使用し,指定した学習予測子と応答データに基づいてさまざまなハイパーパラメーターの値をもつ回帰モデルのタイプの選択を自動的に試行。
近似関数を使用するかbayesopt
を直接呼び出してベイズ最適化を実行します。
ベイズ最適化用の変数を作成します。
ベイズ最適化の目的関数を作成します。
ベイズ最適化に対してさまざまな種類の制約を設定します。
アンサンブル回帰の交差検証損失を最小化します。
ベイズ最適化を視覚的に監視します。
ベイズ最適化を監視します。
ベイズ最適化の基となるアルゴリズムについて理解します。
並列ベイズ最適化はどのように機能するか。
石灰
、沙普利
およびplotPartialDependence
を使用してモデル予測を説明する。
kernelSHAPとkernelSHAPの拡張機能の2つのアルゴリズムを使用して,機械学習モデルのシャープレイ値を計算する。
線形回帰の出力統計を表示および解釈します。
線形回帰モデルをあてはめ,結果を調べます。
交互作用効果がある線形回帰モデルを作成および分析し,結果を解釈します。
モデルのプロパティとオブジェクト関数を使用して,あてはめたモデルを評価する。
線形回帰におけるF統計量は,分散分析(方差分析)手法で使用される検定統計量です。これにより,モデルまたはモデルの成分の有意性を検定できます。t統計量は,回帰係数に関する推定を行うために役立ちます。
決定係数(平方)は線形回帰モデルの独立変数Xで説明される応答変数yの変化に比例する量を表します。
推定された係数の分散と共分散から,回帰係数の推定値の精度がわかります。
残差はyの外れ値を検出し,回帰モデルの誤差項に関する線形回帰仮定を確認する場合に便利です。
ダービン・ワトソン検定は,時系列データの残差間の自己相関の有無を評価します。
クックの距離はXの値(予測子変数の観測数)から外れ値を特定する場合に便利です。
ハット行列を使用するとてこ比を測定できます。
1標本を取り除いたときの共分散の変化(CovRatio
)により,回帰近似に影響を与える観測値が特定されます。