主要内容

このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。

ClassIciationneuralNetwork.

分類用のニューラルネットワークモデル

    说明

    ClassIciationneuralNetwork.オブジェクトは,分享用の全全の习习済みフィードニューラルネットワークネットワークネットワーク。ニューラルニューラルネットワークの最初のの全全全全全ネットワークネットワーク重(X)からの結合があり,後続の各層には前の層からの結合があります。各全結合層では,入力に重み行列(层次重量)が乗算されてからバイアスベクトル(百分比)が加入さますます。各各掺入层の后に活性活性活性活性活性活性活性活性激活およびOutputLayerActivation)が続きます。最終全結合層とそれに続くソフトマックス活性化関数によってネットワークの出力,つまり分類スコア(事後確率)および予測ラベルが生成されます。詳細については,ニューラルネットワークの構造を参照してください。

    作成

    ClassIciationneuralNetwork.オブジェクトの作成にはFitcnet.を使用します。

    プロパティ

    すべて展開する

    ニューラルネットワークのプロパティ

    このプロパティは読み取り専用です。

    ニューラルネットワークモデル内の全结合层のサイズ。正の整数ベクトルとして返されます。LayerSizesの我番目の要素は,ニューラルネットワークモデルの我番目の全結合層の出力数です。

    LayerSizesにには最终全全れれのサイズはは含まれこの层层の重数はkで,kはy内のクラス数。

    データ型:|

    このプロパティは読み取り専用です。

    全结合层のの习済みのの重み.Cell配列として返されます.Cell配列内のi番目番目エントリは,我番目の全结层の层のmdl.layerweights {1}は,モデルMdlの最初の全結合層についての重みを返します。

    层次重量には最终全结合层の重みが含まれます。

    データ型:细胞

    このプロパティは読み取り専用です。

    全结合层のの习済みののバイアス.Cell配列として返されます.Cell配列内のi番目番目エントリは,我番目の全结层の层のMdl。LayerBiases {1}は,モデルMdlの最初の全結合層についてのバイアスを返します。

    百分比には最終全結合層のバイアスが含まれます。

    データ型:细胞

    このプロパティは読み取り専用です。

    ニューラルネットワークモデルの全結合層の活性化関数。次の表の値をもつ文字ベクトルまたは文字ベクトルの细胞配列として返されます。

    说明
    “relu”

    正規化線形ユニット(ReLU)関数——各入力要素に対して,0より小さい値については0に設定するという次のしきい値演算を実行します。

    F X 的) = { X X 0. 0. X < 0.

    'tanh'

    双曲線正接(双曲正切)関数——各入力要素に関数塔尼を适适し。

    'sigmoid'

    シグモイド関数——各入力要素に対して次の演算を実行します。

    F X 的) = 1 1 + E. X

    '没有任何'

    恒等関数——変換を実行せずに,各入力要素を次のようにそのまま返します。f(x)= x

    • 激活にに析关关数が1つだけ含まれているいるは,ニューラルニューラルネットワークモデルの最终全全全层除くすべてすべての全全层活性活性活性关最终なり最终全结层层活性活性ますますますます活性活性ます常にソフトソフト(OutputLayerActivation)です。

    • 激活が活性化関数の配列の場合は,我番目の要素がニューラルネットワークモデルの我番目の層の活性化関数になります。

    データ型:字符|细胞

    このプロパティは読み取り専用です。

    最終全結合層の活性化関数。“softmax”として返されます。关键词は力x一世を取り,各入力について次を返します.Kは応答変数内のクラスの数です。

    F X 一世 的) = 经验值 X 一世 的) j = 1 K. 经验值 X j 的)

    结果は予测分类スコア(または事后确率)に対応します。

    このプロパティは読み取り専用です。

    ClassIciationneuralNetwork.モデルの学習に使用されたパラメーター値。NeuralNetworkParamsオブジェクトとして返されます。ModelParameters.には,ニューラルニューラル分类器材

    ModelParameters.のプロパティにアクセスするには,ドット表記を使用します。たとえば,モデルMdlのの结合层层の重みののに用する关键词Mdl.ModelParameters.LayerWeightsInitializerを使用します。

    收束制御のプロパティ

    このプロパティは読み取り専用です。

    収束情報。構造体配列として返されます。

    フィールド 说明
    迭代 ニューラルネットワークモデルの学習に使用された学習反復の数
    培训俱乐部 返されたモデルのの习クロス损失(モデルMdlresubLoss (Mdl LossFun, crossentropy)的)
    梯度 返されたモデルに対応する反復における重みとバイアスに関する損失関数の勾配
    一步 返されたモデルに対応する反復におけるステップサイズ
    时间 すべての反復に費やした合計時間(秒)
    验证录 返さ返されたモデルモデルの検证エントロピーエントロピー
    ValidationChecks 検证损失が连続で検证损失の最小値以上になっ最大数
    ConvergenceCriterion 収束の基準
    历史 TrainingHistoryを参照

    データ型:塑造

    このプロパティは読み取り専用です。

    学習履歴。表として返されます。

    说明
    迭代 学校习
    培训俱乐部 このこの反复におけるモデルモデルのの习クロスエントロピー
    梯度 この反復における重みとバイアスに関する損失関数の勾配
    一步 この反复におけるステップサイズ
    时间 このこの反复に费费やし时间(秒)
    验证录 このこの反复におけるモデルモデルの検证エントロピーエントロピー
    ValidationChecks 検証損失が検証損失の最小値以上になっている現在までの回数

    データ型:桌子

    このプロパティは読み取り専用です。

    ニューラルネットワークモデルの学习に使用されたソルバー。'lbfgs'として返されます。Fitcnet.によるClassIciationneuralNetwork.モデルの作成では,メモリ制限Broyden-Fletcher-Goldfarb-Shanno準ニュートンアルゴリズム(LBFGS)が損失関数の最小化手法として使用され,クロスエントロピー損失が最小化されます。

    予测子のプロパティ

    このプロパティは読み取り専用です。

    予测子数量名称。文件ベクトルの细胞配列として返されます。PredictorNamesの要素の順序は,予測子名が学習データに現れる順序に対応します。

    データ型:细胞

    このプロパティは読み取り専用です。

    カテゴリカル予測子のインデックス。正の数量のベクトルとして返されます。予測子データの行に観測値が含まれていると仮定すると,CategoricalPredictorsには,カテゴリカル予測子が含まれている予測子データの列に対応するインデックス値が格納されます。どの予測子もカテゴリカルではない場合,このプロパティは空([])になります。

    データ型:

    このプロパティは読み取り専用です。

    展開された予測子名。文件ベクトルの细胞配列として返されます。モデルがカテゴリカル変数用のエンコーディングを使用している場合,ExpandedPredictorNamesには展開された変数を表す名前が格納されます。それ以外の場合,ExpandedPredictorNamesPredictorNamesと同じです。

    データ型:细胞

    このプロパティは読み取り専用です。

    ニューラルネットワークモデルの学習に使用された標準化されていない予測子。数値行列または表として返されます。XではFitcnet.を呼び出したときの名前と値の数ObservationsInの値に応じて,元の向きで行または列に観測値が格納されます。

    データ型:||桌子

    応答のプロパティ

    このプロパティは読み取り専用です。

    学習に使用された一意のクラス名。数値ベクトル那分类ベクトル那逻辑ベクトル那文字配列那または文字ベクトルの细胞配列として返されます。Classnames.のデータ型はクラスラベルyと同じです。(字符串配列は文字ベクトルの细胞配列として扱われます)。Classnames.はクラスの順序も決定します。

    データ型:||分类|逻辑|字符|细胞

    このプロパティは読み取り専用です。

    応答変数名。文字ベクトルとして返されます。

    データ型:字符

    このプロパティは読み取り専用です。

    モデルの学习にににれクラスラベルラベル。数码ベクトル,分类ベクトル,逻辑ベクトル,文档配列,または文字の细胞配列として返さます。yのデータ型はモデルの学習に使用された応答変数と同じです。(字符串配列は文字ベクトルの细胞配列として扱われます)。

    yの各行は,Xの対応する観测値の分类を表します。

    データ型:||分类|逻辑|字符|细胞

    その他のデータのプロパティ

    このプロパティは読み取り専用です。

    Xおよびyに格納されている学習データ内の観測値の個数。正の数値スカラーとして返されます。

    データ型:

    このプロパティは読み取り専用です。

    モデルれた元の习の行l l lベクトルますます。

    データ型:逻辑

    このプロパティは読み取り専用です。

    モデルの学習に使用された観測値の重み。n行1列の数値ベクトルとして返されます。nは観測値の個数(numobservations.)です。

    特定のクラスにおけるW.の要素の合計がそのクラスの事前確率になるように,名前と値の引数重量で指定された観测値の重みが正规化されます。

    データ型:|

    他の分類のプロパティ

    このプロパティは読み取り専用です。

    分公司コスト。数码正方行列として返され。成本(i,j)は,真のクラスが一世である结合にに点ををjに分類するコストです。コスト行列は,我〜= jの場合は成本(i,j)= 1我= J.の場合は成本(i,j)= 0という形式に必ずなり。行は真のに,列は予测するクラスに対応ますますます。成本の行と列の顺序は,Classnames.のクラスの顺序に対応ますます。

    データ型:

    このプロパティは読み取り専用です。

    各クラスの事前確率。数値ベクトルとして返されます。之前の要素の顺序はClassnames.の要素に対応します。

    データ型:

    スコア変换。文字ベクトルまたは关数ハンドルを指定します。ScoreTransformは,組み込みの変換関数または予測した分類スコアを変換する関数のハンドルを表します。

    スコア変换关键词函数などに変更するには,ドット表記を使用します。

    • 組み込み関数の場合は,文字ベクトルを入力します。

      mdl.scoretransform ='功能';

      次の表は,使用可能な組み込み関数の一覧です。

      说明
      “doublelogit” 1 / (1 + e2 x的)
      “invlogit” 日志(x /(1 - x))
      “ismax” 最大のスコアをもつクラスのスコアを1に設定し,他のすべてのクラスのスコアを0に設定する
      'logit' 1 / (1 + e- x的)
      '没有任何'または“身份” x(変換なし)
      “标志” x <0のとき-1
      x = 0のとき0
      x > 0のとき1
      “对称” 2 x - 1
      “symmetricismax” 最大ののスコアををもつのスコアをををを设定ししししし设定设定ししスコアスコアスコアのの设定设定のスコア-1に设定する
      “symmetriclogit” 2 / (1 + e- x) - 1

    • MATLAB®関数やユーザー定義関数の場合は,関数ハンドルを入力します。

      Mdl。ScoreTransform = @function;

      函数は,行列(元のスコア)を受け入れて同じサイズの行列(変換したスコア)を返さなければなりません。

    データ型:字符|function_handle.

    オブジェクト关节

    紧凑的 機械学習モデルのサイズの縮小
    CompareSheut. 新しいデータを使用して2つの分類モデルの精度を比較
    横梁 机械学习モデルの交差検证
    边缘 ニューラルネットワーク分類器の分類エッジ
    损失 ニューラルネットワーク分类器材の分享损失
    保证金 ニューラルネットワーク分类器材の分享マージン
    部分竞争 部分従属の計算
    plotPartialDependence 部分依存プロット(PDP)および個別条件付き期待値(ICE)プロットの作成
    预测 ニューラルネットワーク分類器を使用した観測値の分類
    重新提交 再代入分類エッジ
    resubloss. 再代入分類損失
    resubMargin 再代入分類マージン
    重新预订 学習済み分類器を使用した学習データの分類

    すべて折りたたむ

    ニューラルネットワーク分類器に学習させ,検定セットで分類器の性能を評価します。

    標本ファイルCreditRating_Historical.datを表に読み取ります。予測子データは,法人顧客リストの財務比率と業種の情報で構成されます。応答変数は,格付機関が割り当てた格付けから構成されます。データセットの最初の数行をプレビューします。

    信用=可读性(“CreditRating_Historical.dat”);头(信用)
    ans =8×8表ID WC_TA RE_TA EBIT_TA MVE_BVTD S_TA行业评级  _____ ______ ______ _______ ________ _____ ________ _______ 62394 0.013 0.104 0.036 0.447 0.142 3{“BB”}48608 0.232 0.335 0.062 1.969 0.281 8 {A} 42444 0.311 0.367 0.074 1.935 0.366 1 {A} 48631 0.194 0.263 0.062 1.017 0.228 - 4 {BBB的}43768 0.121 0.413 0.057 3.647 0.466 39255 {' AAA '}-0.117 - 0.118 0.01 0.179 0.082 4 {' ccc '} 62236 0.087 0.158 0.049 0.816 0.324 2 {' bbb '} 39354 0.005 0.181 0.034 2.597 0.388 7 {' aa '}

    IDの各値は一意の顾客顾客ため(つまり,长度(唯一(信用)))creditratingに含まれる観測値の数に等しい),変数IDは予測子としては適切ではありません。変IDを表から削除し,変数行业分类変数に変換します。

    creditrating = removevars (creditrating,“ID”);creditrating。行业=分类(creditrating。行业);

    応答変数评分を順序分类変数に変換します。

    creditrating。评分=分类(creditrating。评级,...[“AAA”“aa”“一个”" BBB "“bb”“B”“CCC”],“序数”,真正的);

    データを学習セットと検定セットに分割します。観測値の約80%をニューラルネットワークモデルの学習に使用し,観測値の約20%を学習済みモデルの新しいデータでの性能の検定に使用します。CVPartition.をを用してデータををししし。

    rng (“默认”的)分区再现性的%c = cvpartition (creditrating。评级,“坚持”, 0.20);trainingIndices =培训(c);%训练集指标testIndices =测试(c);测试集的%索引CreditTrain =信用(培训,:);抵押债权=信用(testindices,:);

    学習データcreditTrainを关节Fitcnet.に渡して,ニューラルネットワーク分類器に学習させます。

    Mdl = fitcnet (creditTrain,“评级”的)
    Mdl = ClassificationNeuralNetwork PredictorNames:{‘WC_TA’‘RE_TA’‘EBIT_TA’‘MVE_BVTD’‘S_TA’‘工业’}ResponseName:“评级”CategoricalPredictors: 6类名:(AAA AA BBB BB B CCC) ScoreTransform:“没有一个”NumObservations: 3146 LayerSizes: 10激活:“relu”OutputLayerActivation:“softmax”解算器:“LBFGS”ConvergenceInfo:[1×1 struct] TrainingHistory: [1000×7 table]属性,方法

    Mdlは学習させたClassIciationneuralNetwork.分類器です。ドット表記を使用してMdlののプロパティにアクセスできできたとえば,Mdl。TrainingHistoryと指定すると,ニューラルネットワークモデルの学習履歴についての詳細情報を取得できます。

    検定列て,検定セットでて。

    testAccuracy = 1 - loss(Mdl,creditTest,“评级”...“lockfun”“classiferror”的)
    testaccuracy = 0.8003
    ConfusionChart(抵押,预测(MDL,抵押))

    全结合层のサイズなど,ニューラルネットワーク分类器の构造を指定します。

    レーダー信号のデータを含む电离层データセットを読み込みます。Xにに子データが格式されて,応答応答数のy信号が好(“g”)か不宜(“b”)かを表す値が格式されます。

    加载电离层

    層化ホールドアウト分割を使用して,データを学習データ(XTrainおよびYTrain)と検定データ(XTestおよびytest.)に分割します。観測値の約30%を検定用に予約し,残りの観測値を学習に使用します。

    rng (“默认”的)分区再现性的%cvp = cvpartition(y,“坚持”, 0.3);XTrain = X(培训(cvp):);YTrain = Y(培训(cvp));XTest = X(测试(cvp):);欧美= Y(测试(cvp));

    ニューラルネットワーク分類器に学習させます。最初の全結合層の出力数を35岁2番目の全結合層の出力数を20に指定します。既定では,どちらの層でも正規化線形ユニット(ReLU)活性化関数が使用されます。全結合層の活性化関数は,名前と値の引数激活をを用して変更できます。

    Mdl = fitcnet (XTrain YTrain,...“LayerSizes”20 [35])
    mdl = classificationneuralnetwork ractoryname:'y'pationoricalpricictors:[] classnames:{'b'g'} scoreTransform:'none'numobservations:246 dlyersizes:[35 20]激活:'relu'outputlayerastivation:'softmax'求解器:'lbfgs'ConvergenceInfo:[1×1结构]培训厅:[47×7表]属性,方法

    Mdl层次重量プロパティと百分比プロパティを使用して,学習させた分類器の全結合層の重みとバイアスにアクセスします。各プロパティの最初の2つの要素が最初の2つの全結合層の値に対応し,3番目の要素が分類用のソフトマックス活性化関数をもつ最終全結合層の値に対応します。たとえば2番目の全結合層の重みとバイアスを表示します。

    mdl.layerweights {2}
    ANS =.20×35.0.0481 0.2501 -0.1535 -0.0934 0.0760 -0.0579 -0.2465 1.0411 0.3712 -1.2007 1.1162 0.4296 0.4045 0.5005 0.8839 0.4624 -0.3154 0.3454 -0.0487 0.2648 0.0732 0.5773 0.4286 0.0881 0.9468 0.2981 0.5534 1.0518 -0.0224 0.6894 0.5527 0.7045 -0.6124 0.2145 -0.0790 -0.9489 -1.8343 0.5510 -0.5751 -0.8726 0.8815 0.0203 -1.6379 2.0315 1.4153 -1.4335-1.1638 -0.1715 - 0.1439 -0.7661 1.1230 -1.1982 -0.5409 -0.5821 -0.0627 -0.7038 -0.0817 -1.5773 -1.4671 0.2053 -0.7931 -1.6201 -0.1737 -0.7762 -0.3063 -0.8771 1.5134 -0.4611 -0.0649 -0.1910 0.0246 -0.3511 0.0097 0.3160 -0.0693 0.2270 -0.0783 -0.1626 -0.3478 0.2765 0.4179 0.0727 -0.0314 -0.1798 -0.0583 0.1375 -0.1876 0.2137 0.1497 0.0395 0.2859-0.0905 0.4325 -0.2012 0.0388 -0.1441 -0.1431 -0.0249 -0.2200 0.0860 -0.2076 0.0132 0.1737 -0.0415 -0.0059 -0.0753 -0.1477 -0.1621 -0.1762 0.2164 0.1710 -0.0610 -0.1402 0.1452 0.2890 0.2872 -0.2616 -0.4204 -0.2831 -0.1901 0.0036 0.0781 -0.0826 0.1588 -0.2782 0.2510 -0.1069 -0.2692 0.2306 0.2521 0.0306 0.2524 -0.4218 0.2478 0.2343 -0.1031 0.1037 0.1598 1.1848 1.6142 -0.1352 0.5774 0.5491 0.0103 0.0209 0.7219 -0.8643 -0.5578 1.3595 1.5385 1.0015 0.7416 -0.4342 0.2279 0.5667 1.1589 0.7100 0.1823 0.4171 0.7051 0.0794 1.3267 1.2659 0.3197 0.3947 0.3436 -0.1415 0.6607 1.0071 0.7726 -0.2840 0.8801 0.0848 0.2486 -0.2920 -0.0004 0.2806 0.2987 -0.2709 0.1473 -0.2580 -0.0499 -0.0755 0.2000 0.1535 -0.0285 -0.0520 -0.2523 -0.2505 -0.0437 -0.2323 0.2023 0.2061 -0.1365 0.0744 0.0344 -0.2891 0.2341 -0.1556 0.1459 0.2533 -0.0583 0.0243 -0.2949 -0.1530 0.1546 -0.0340 -0.1562 -0.0516 0.0640 0.1824 -0.0675 -0.2065 -0.0052 -0.1682 -0.1520 0.0060 0.0450 0.0813 -0.0234 0.0657 0.3219 -0.1871 0.0658 -0.2103 0.0060 -0.2831 -0.1811 -0.0988 0.2378 -0.0761 0.1714 -0.1596 -0.0011 0.0609 0.4003 0.3687 -0.2879 0.0910 0.0604 -0.2222 -0.2735 -0.1155 -0.6192 -0.7804 -0.0506 -0.4205 -0.2584 -0.2020 -0.0008 0.0534 1.0185 -0.0307 -0.0539 -0.2020 0.0368 -0.1847 0.0886 -0.4086 -0.4648 -0.3785 0.1542 -0.5176 -0.3207 0.1893 -0.0313 -0.5297 -0.1261 -0.2749 -0.6152 -0.5914 -0.3089 0.2432 -0.3955 -0.1711 0.1710 -0.4477 0.0718 0.5049 -0.1362 -0.2218 0.1637 -0.1282 -0.1008 0.1445 0.4527 -0.4887 0.0503 0.1453 0.1316 -0.3311 -0.1081 -0.7699 0.4062 -0.1105 -0.0855 0.0630 -0.1469 -0.2533 0.3976 0.0418 0.5294 0.3982 0.1027 -0.0973 -0.1282 0.2491 0.0425 0.0533 0.1578 -0.8403 -0.0535 -0.0048 1.1109 -0.0466 0.4044 0.6366 0.1863 0.5660 0.2839 0.8793 -0.5497 0.0057 0.3468 0.0980 0.3364 0.4669 0.1466 0.7883 -0.1743 0.4444 0.4535 0.1521 0.7476 0.2246 0.4473 0.2829 0.8881 0.4666 0.6334 0.3105 0.9571 0.2808 0.6483 0.1180 -0.4558 1.2486 0.2453 ⋮
    Mdl。LayerBiases {2}
    ANS =.20×10.6147 0.1891 -0.2767 -0.2977 1.3655 0.0347 0.1509 -0.4839 -0.3960 0.9248⋮

    〖图库以来“

    大小(Mdl.LayerWeights{结束})
    ANS =.1×22 20.
    大小(Mdl.LayerBiases{结束})
    ANS =.1×22 1

    学習させた分類器の性能を推定するには,Mdlの検定セットの分类误差を计算します。

    testError =损失(Mdl XTest,欧美,...“lockfun”“classiferror”的)
    testerror = 0.0774
    精度= 1  -  TestError
    精度= 0.9226

    Mdlで検定セットの観測値の約92%が正確に分類されています。

    R2021aで導入