分類学習器アプリの使用による特徴選択と特徴変換
这是一个很好的例子
分類学習器では,異なる予測子のペアを散布図にプロットすることにより,クラスを十分に分類する予測子を特定します。中文:,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,。
。分類器に学習をさせた後では、モデルの予測結果が散布図に表示されます。プロットをデータのみに切り替えるには、[]のコントロールで[]? ? ? ?
[予測子]の[X]と[Y]。
★★★★★★★★,
fisheriris
のデータをプロットすると,がく片の長さとがく片の幅によりクラスの1つ(setosa
)(中文:)(中文:)。★★★★★★★★[表示]。
プロットしたクラスのスタックの順番を変更するには,[font =宋体]でクラスを選択してから[英文翻译]。
中文:。ズームまたは移動は,散布図上にマウスを移動させ,プロットの右上隅に表示されるツールバーの対応するボタンをクリックすることで有効になります。
★★★★★★★★★★★★★[特徴選択]。你说得对。
。■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■■分類器の結果のプロット。
你说得对
。。データの収集が高価または困難な場合,一部の予測子がなくても十分に機能するモデルが好ましい可能性があります。
。アプリで特徴ランク付けアルゴリズムを選択すると、特徴の重要度スコアに応じて並べ替えられたプロットが表示されます。スコアが高いほど (正
。。
分類学習器アプリで特徴ランク付けアルゴリズムを使用するには,[分類学習器]タブの[]セクションで[特徴選択]。アプリで[中文]。
特徴ランク付けアルゴリズム | サポートされるデータ型 | 説明 |
---|---|---|
MRMR | 绝对的 | ★★★★★★ |
Chi2 | 绝对的 | 個々のカイ二乗検定を使用して各予測子変数が応答変数から独立しているかどうかを調べた後,カイ二乗検定統計量のp値を使用して特徴量をランク付けします。スコアは日志(p)? ? ? ? ★★★★★★ |
ReliefF | 分类的,分类的 | ReliefF。これは,観測値間のペアワイズ距離を使用して応答を予測する距離ベースの教師ありモデルにおいて特徴量の重要度を推定するのに最適なアルゴリズムです。 ★★★★★★ |
方差分析 | 绝对的 | クラス別にグループされた各予測子変数に対して1因子分散分析を実行した後,p値を使用して特徴量をランク付けします。それぞれの予測子変数について,アプリは,応答クラス別にグループ化された予測子の値が,平均が同じである複数の母集団から抽出されたという仮説を,母集団の平均はすべて同じではないという対立仮説に対して検定します。スコアは日志(p)? ? ? ? ★★★★★★ |
Kruskal沃利斯 | 绝对的 | クラスカル・ワリス検定。それぞれの予測子変数について,アプリは,応答クラス別にグループ化された予測子の値が,中央値が同じである複数の母集団から抽出されたという仮説を,母集団の中央値はすべて同じではないという対立仮説に対して検定します。スコアは日志(p)? ? ? ? ★★★★★★ |
() () () () () () ()
検証メトリクスのバイアスを回避するには,[翻译]? ? ? ?,交差検証方式を使用する場合は、学習分割ごとに、モデルの学習前にアプリが特徴選択を行います。異なる分割では、最高ランクの特徴として異なる予測子を選択できます。
モデルの学習に特定の特徴量を含めるには,[中文]:? ? ? ?。
【中文】:【中文】。那是什么意思[]ペインのすべてのドラフトモデルに影響し,[分類学習器]タブの[]。
。[]ペインでモデルをクリックし,(必要に応じて)モデルの[概要]。[概要]【翻译[特徴選択]。
モデルに学習させた後,モデルの[概要]タブの[特徴選択]セクションに,完全なモデル(つまり,学習データと検証データを使用して学習させたモデル)の学習に使用された特徴のリストが表示されます。分類学習器が特徴選択をデータに適用する方法についてさらに学ぶには,学習済みの分類器についてコードを生成します。
★★★★★★★★【中文】。
中文:中文:中文
主成分分析(PCA)を使用すると,予測子空間の次元を減らすことができます。★★★★★★★★★★★★★★★★★★★★★★★★★★★★★PCAは,冗長な次元を削除するために予測子を線形的に変換して,主成分と呼ばれる新しい一連の変数を生成します。
[分類学習器]タブの[],(PCA)? ? ? ?
【中文翻译】【中文翻译】[英文翻译]チェックボックスを選択して【中文】。
【翻译】[]ペインの既存のすべてのドラフトモデルに変更が適用され,[分類学習器]タブの[]。
次に[中文]ボタンを使用してモデルに学習させるとき,分類器に学習させる前に,選択した特徴量が関数
主成分分析
> > > > > > >。説明する分散の比率は、[既定の PCA オプション] ダイアログ ボックスの[説明分散]() () () () ()値を大きくすると過適合のリスクが生じますが,値を小さくすると有用な次元が削除されるリスクが生じます。
★★★★★★★★★★[qh]リストで
[中文]
? ? ? ?[中文]() () ()整整齐齐!整整齐齐!整整齐齐!整整齐齐!。
学習済みモデルのPCAのオプションは,[概要]タブの(PCA)。[]ペインで学習済みモデルをクリックし,(必要に応じて)モデルの[概要]。这是一个很好的例子。
PCA保留了足够的成分来解释95%的方差。训练结束后,保留2个组件。每个成分的解释方差(按顺序):92.5%,5.3%,1.7%,0.5%
分類学習器がPCAをデータに適用する方法についてさらに学ぶには,学習済みの分類器についてコードを生成します。★★★★★★★★★★★★主成分分析
。
我的意思是,我的意思是,我的意思是
中文:中文:。1 .中文:1 .中文:1 .中文:1 .中文:1 .中文:1 .中文:1 .中文:1 .中文:1 .中文:。。分類器の結果をプロットすると,誤分類点が破線になります。
[分類学習器]タブの[]。次に[検証結果]グループの[平行座標]。
。。
プロットする予測子を指定するには,[予測子]。。データに多数の予測子が含まれている場合,既定の設定では最初の10個の予測子がプロットに表示されます。
。[]。
[qh]
。[範囲]
。[z]
。[au:]
では,それぞれの座標ルーラーに沿って平均値が0になるようにセンタリングされたデータが表示されます。[単位分散]
。[l2]
。
★★★★★★★★★★★★★[特徴選択]。你说得对。
fisheriris
。
★★★★★★parallelplot
。