このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。
高品質の予測分類モデルを構築するには,正しい特徴量(予測子)の選択とハイパーパラメーター(推定されないモデルパラメーター)の調整を行うことが重要です。
特定のモデルのハイパーパラメーターを調整するには,ハイパーパラメーターの値を選択し,この値を使用してモデルを交差検証します。たとえば,SVMモデルを調整するには,一連のボックス制約およびカーネルスケールを選択し,値の各ペアについてモデルを交差検証します。统计和机器学习工具箱™ の一部の分類関数では、ベイズ最適化、グリッド探索またはランダム探索による自動的なハイパーパラメーター調整が提供されます。ただし、ベイズ最適化を実装するために使用される中心的な関数であるbayesopt
は,他の用途にも応用が利きます。ベイズ最適化のワークフローを参照してください。
特徴選択とハイパーパラメーター調整により複数のモデルが生成されます。k分割誤分類率、受信者動作特性(ROC)曲線または混同行列をモデル間で比較できます。または、統計的検定を実施して、ある分類モデルの性能が他の分類モデルに対して有意に優れているかどうかを調べます。
調整されたハイパーパラメーターでモデルを自動的に選択するには,fitcauto
を使用します。この関数は,分類モデルのタイプの選択をさまざまなハイパーパラメーターの値で試し,新しいデータで適切に実行されることが期待される最終モデルを返します。データに最適な分類器のタイプがわからない場合は,fitcauto
を使用します。
分類モデルの構築と評価を対話的に行うには,分類学習器アプリを使用します。
分享到を解釈するにに,酸橙
またはplotPartialDependence
を使用できます。
分類学習器 | 教師あり機械学習を使用して,データを分類するようにモデルを学習させる |
自動,手動および並列学習など,分類モデルの学習,比較および改善を行うためのワークフローです。
プロットを使用して有用な予測子を識別し,含める特徴量を手動で選択し,分類学習器でPCAを使用して特徴量を変換します。
特徴選択アルゴリズムについて学び,特徴選択に使用できる関数を確認します。
このトピックでは,逐次特徴選択の基本を説明し,カスタム基準と関数sequentialfs
を使用して逐次的に特徴量を選択する例を示します。
近傍成分分析(NCA)は,特徴量を選択するためのノンパラメトリックな手法であり,回帰および分類アルゴリズムの予測精度を最大化することを目的とします。
分類にNCAを使用して特徴量を判別するための正則化パラメーターの調整
この例では,交差検証を使用してfscnca
の正則化パラメーターを調整する方法を示します。
モデルの予測力を損なわずに予測子を削除して,よりロバストで簡潔なモデルを作成します。
この例では,高次元データを分類するための特徴量を選択する方法を示します。
fitcauto
を使用し,指定した学習予測子と応答データに基づいてさまざまなハイパーパラメーターの値をもつ分類モデルのタイプの選択を自動的に試します。
近似关节を使使かbayesopt
を直接呼び出し呼び出してベイズベイズ适适をを実実しし
ベイズ最適化用の変数を作成します。
ベイズベイズ适化物相关的关联作物成因。
ベイズ最適化に対してさまざまな種類の制約を設定します。
ベイズ最適化を使用して交差検証損失を最小化します。
近似関数で名前と値のペアOptimizeParameters
を使用して交差検証損失を最小化します。
ベイズ最適化を視覚的に監視します。
ベイズ最適化を監視します。
ベイズ最適化の基となるアルゴリズムについて理解します。
並列ベイズ最適化はどのように機能するか。