主要内容

このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。

モデルの作成と評価

特徴選択,モデル選択,ハイパーパラメーターの最適化,交差検証,予測性能の評価,および分類精度の比較検定

高品質の予測分類モデルを構築するには,正しい特徴量(予測子)の選択とハイパーパラメーター(推定されないモデルパラメーター)の調整を行うことが重要です。

特定のモデルのハイパーパラメーターを調整するには,ハイパーパラメーターの値を選択し,この値を使用してモデルを交差検証します。たとえば,SVMモデルを調整するには,一連のボックス制約およびカーネルスケールを選択し,値の各ペアについてモデルを交差検証します。统计和机器学习工具箱™ の一部の分類関数では、ベイズ最適化、グリッド探索またはランダム探索による自動的なハイパーパラメーター調整が提供されます。ただし、ベイズ最適化を実装するために使用される中心的な関数であるbayesoptは,他の用途にも応用が利きます。ベイズ最適化のワークフローを参照してください。

特徴選択とハイパーパラメーター調整により複数のモデルが生成されます。k分割誤分類率、受信者動作特性(ROC)曲線または混同行列をモデル間で比較できます。または、統計的検定を実施して、ある分類モデルの性能が他の分類モデルに対して有意に優れているかどうかを調べます。

調整されたハイパーパラメーターでモデルを自動的に選択するには,fitcautoを使用します。この関数は,分類モデルのタイプの選択をさまざまなハイパーパラメーターの値で試し,新しいデータで適切に実行されることが期待される最終モデルを返します。データに最適な分類器のタイプがわからない場合は,fitcautoを使用します。

分類モデルの構築と評価を対話的に行うには,分類学習器アプリを使用します。

分享到を解釈するにに,酸橙またはplotPartialDependenceを使用できます。

アプリ

分類学習器 教師あり機械学習を使用して,データを分類するようにモデルを学習させる

関数

すべて展開する

FSCCHI2. カイ二乗検定を使用した分類に向けた一変量の特徴量ランク付け
FSCMRMR. 最小冗余最大相关性(MRMR)アルゴリズムを使用した分類用の特徴量のランク付け
fscnca 分類に近傍成分分析を使用する特徴選択
oobPermutedPredictorImportance 分類木のランダムフォレストに対するout-of-bag予測子の並べ替えによる予測子の重要度の推定
predictorImportance 分類木の予測子の重要度の推定
predictorImportance 決定木の分類アンサンブルに関する予測子の重要度の推定
sequentialfs カスタム基準を使用した逐次特徴選択
refieff. ReliefFまたはRReliefFアルゴリズムを使用した予測子の重要度のランク付け
fitcauto 最適化されたハイパーパラメーターをもつ分類モデルの自動選択
bayesopt ベイズ最適化を使用した最適な機械学習のハイパーパラメーターの選択
普遍存在 近似関数を最適化するための変数の説明
optimizableVariable bayesoptまたはその他のオプティマイザーの変数の説明
crossval 交差検証を使用した損失の推定
cvpartition 交差検証用のデータの分割
重新分区 交差検証のための再分割データ
测试 交差検証用の検定インデックス
培训 交差検証用の学習インデックス

本地可解释模型不可知解释(LIME)

酸橙 本地可解释模型不可知解释(LIME)
适合 本地可Model-agnostic解释(石灰)の単純モデルのあてはめ
情节 本地可解释模型 - 不可知的解释(石灰)の结果のプロット

部分従属

partialDependence 部分従属の計算
plotPartialDependence 部分従属プロット(PDP)および個別条件付き期待値(ICE)プロットの作成
confusionchart 分類問題用の混同行列チャートの作成
confusionmat 分類問題用の混同行列の計算
perfcurve 分析器の助力用途の信牌动作特性(ROC)曲曲またはまたは他の曲
testcholdout 2つの分類モデルの予測精度を比較
testckfold 交差検証の反復により2つの分類モデルの精度を比較

オブジェクト

すべて展開する

FeatureSelectionNCAClassification 近傍成分分析(NCA)を使用する分類用の特徴選択
贝叶斯偏见 ベイズ最適化の結果

トピック

分類学習器アプリ

分類学習器アプリにおける分類モデルの学習

自動,手動および並列学習など,分類モデルの学習,比較および改善を行うためのワークフローです。

分類学習器における分類器の性能評価



分類学習器アプリの使用による特徴選択と特徴変換

プロットを使用して有用な予測子を識別し,含める特徴量を手動で選択し,分類学習器でPCAを使用して特徴量を変換します。

特徴選択

特徴選択の紹介

特徴選択アルゴリズムについて学び,特徴選択に使用できる関数を確認します。

逐次特徴選択

このトピックでは,逐次特徴選択の基本を説明し,カスタム基準と関数sequentialfsを使用して逐次的に特徴量を選択する例を示します。

近傍成分分类(NCA)特价选択

近傍成分分析(NCA)は,特徴量を選択するためのノンパラメトリックな手法であり,回帰および分類アルゴリズムの予測精度を最大化することを目的とします。

分類にNCAを使用して特徴量を判別するための正則化パラメーターの調整

この例では,交差検証を使用してfscncaの正則化パラメーターを調整する方法を示します。

判別分析分類器の正則化

モデルの予測力を損なわずに予測子を削除して,よりロバストで簡潔なモデルを作成します。

高次元のデータを分類する特徴量の選択

この例では,高次元データを分類するための特徴量を選択する方法を示します。

自動モデル選択

ベイズ最適化による分類器の自動選択

fitcautoを使用し,指定した学習予測子と応答データに基づいてさまざまなハイパーパラメーターの値をもつ分類モデルのタイプの選択を自動的に試します。

ハイパーパラメーターの最適化

ベイズ最適化のワークフロー

近似关节を使使かbayesoptを直接呼び出し呼び出してベイズベイズ适适をを実実しし

ベイズ最適化用の変数

ベイズ最適化用の変数を作成します。

ベイズベイズ适化の目的关词

ベイズベイズ适化物相关的关联作物成因。

ベイズ最適化の制約

ベイズ最適化に対してさまざまな種類の制約を設定します。

bayesoptを使用した交差検証済みSVM分類器の最適化

ベイズ最適化を使用して交差検証損失を最小化します。

ベイズ最適化の使用によるSVM分類器のあてはめの最適化

近似関数で名前と値のペアOptimizeParametersを使用して交差検証損失を最小化します。

ベイズ最適化のプロット関数

ベイズ最適化を視覚的に監視します。

ベイズ最適化の出力関数

ベイズ最適化を監視します。

ベイズ最適化のアルゴリズム

ベイズ最適化の基となるアルゴリズムについて理解します。

并列并列最适化

並列ベイズ最適化はどのように機能するか。

交差検証

並列計算を使用する交差検証の実装

並列計算を使用して交差検証を高速化します。

分類性能の評価

性能曲線

受信徒动作特性曲曲曲てて,特点,特色のデータセットに対する类アルゴリズム性能を调べ。