文档帮助中心文档
类:ClassificationDiscriminant
再代换造成的分类错误
L = resubLoss (obj)L = resubLoss (obj、名称、值)
l= resubLoss (obj)返回重新替换损失,即为该数据计算的损失fitcdiscr用于创建obj.
l= resubLoss (obj)
l
obj
fitcdiscr
l= resubLoss (obj,名称,值)返回由一个或多个指定的附加选项的损失统计信息名称,值对参数。
l= resubLoss (obj,名称,值)
名称,值
全部展开
判别分析分类器,产生使用fitcdiscr.
指定可选的逗号分隔的对名称,值参数。的名字参数名和价值为对应值。的名字必须出现在引号内。可以以任意顺序指定多个名称和值对参数Name1, Value1,…,的家.
的名字
价值
Name1, Value1,…,的家
“LossFun”
“mincost”
“binodeviance”
“classiferror”
“指数”
“枢纽”
分对数的
“二次”
损失函数,指定为逗号分隔对组成“LossFun”以及一个内置的丢失函数名或函数句柄。
下表列出了可用的损耗函数。使用相应的字符向量或字符串标量指定一个。
“mincost”适用于后验概率的分类分数。判别分析模型默认返回后验概率作为分类分数(见预测).
预测
使用函数句柄表示法指定你自己的函数。
假设n是观测的次数X和K为不同类别的数目(元素个数(obj.ClassNames)).您的函数必须有这个签名
n
X
K
元素个数(obj.ClassNames)
lossvalue =lossfun(C、S、W、成本)
lossfun
输出参数lossvalue是一个标量。
lossvalue
选择函数名(lossfun).
C是一个n——- - - - - -K逻辑矩阵,其行表示相应的观测属于哪一类。中的列顺序对应于类的顺序obj。ClassNames.
C
obj。ClassNames
构造C通过设置C (p, q) = 1如果观察p是在课堂上问,每一行。设置行中的所有其他元素p来0.
C (p, q) = 1
p
问
0
年代是一个n——- - - - - -K分类分数的数值矩阵。中的列顺序对应于类的顺序obj。ClassNames.年代是一个矩阵的分类分数,类似于输出预测.
年代
W是一个n-乘1数值向量的观测权值。如果你通过W,软件将它们的总和标准化1.
W
1
成本是一个K——- - - - - -K误分类代价的数值矩阵。例如,Cost = ones(K) - eye(K)指定0为正确的分类,和1误分类。
成本
Cost = ones(K) - eye(K)
使用以下命令指定函数“LossFun”@lossfun.
“LossFun”@lossfun
有关损失函数的详细信息,请参见分类损失.
数据类型:字符|字符串|function_handle
字符
字符串
function_handle
分类误差,标量。错误的含义取决于其中的值权重和lossfun.看到分类损失.
权重
计算Fisher虹膜数据的再替换分类误差:
Load fisheries obj = fitcdiscr(meas,species);L = resubLoss(obj
分类损失函数测量分类模型的预测不准确性。当你在许多模型中比较同一类型的损失时,损失越低表明预测模型越好。
考虑以下场景。
l为加权平均分类损失。
n为样本量。
二进制分类:
yj是被观察的类标签。软件将其编码为-1或1,表示负类或正类(或中第一类或第二类)一会分别属性)。
一会
f(Xj)为观察(行)的阳性分类评分j预测数据的X.
米j=yjf(Xj)为分类观察的分类评分j对应的类yj.积极的价值观米j表明正确的分类,对平均损失贡献不大。负的米j指出错误的分类,并对平均损失有很大的贡献。
对于支持多类分类的算法(即,万博1manbetxK≥3):
yj*是向量K- 1个零,1在对应于真实的,观察类的位置yj.例如,如果第二个观察的真正类是第三类和K= 4,然后y2*= [0 0 1 0] '.类的顺序对应于一会输入模型的属性。
f(Xj)为长度K用于观察的班级分数向量j预测数据的X.分数的顺序与表中班级的顺序相对应一会输入模型的属性。
米j=yj*′f(Xj).因此,米j是模型对真实的、观察到的类所预测的标量分类分数。
观测权重j是wj.该软件将观测权值归一化,使其和为相应的先验类别概率。软件还将先验概率归一化,使其和为1。因此,
∑ j = 1 n w j = 1.
给定此场景,下表描述了支持的损失函数,可以使用万博1manbetx“LossFun”名称-值对的论点。
LossFun
l = ∑ j = 1 n w j 我 { y ^ j ≠ y j } .
y ^ j 为得分最大的类对应的类标签。我{·}是指示函数。
“crossentropy”
“crossentropy”仅适用于神经网络模型。
加权交叉熵损失是
l = − ∑ j = 1 n w ˜ j 日志 ( 米 j ) K n ,
的权重 w ˜ j 都归一化为n而不是1。
“mincost”只有当分类分数是后验概率时才合适。
该软件计算加权最小期望分类成本使用这一程序的观察j= 1,…,n.
估计对观测数据进行分类的预期误分类成本Xj到类k:
γ j k = ( f ( X j ) ′ C ) k .
f(Xj)为观测的二值和多类分类的类后验概率列向量Xj.C成本矩阵存储在成本模型的属性。
为观察j,预测与最小预期误分类成本相对应的类别标签:
y ^ j = argmin k = 1 , ... , K γ j k .
使用C,确认已发生的成本(cj)做了预测。
最小期望误分类代价损失的加权平均值为
l = ∑ j = 1 n w j c j .
如果使用默认代价矩阵(其元素值为0表示正确分类,1表示不正确分类),则“mincost”失则等于失“classiferror”的损失。
这个数字比较的损失函数(除了“crossentropy”和“mincost”超过分数米一个观察。一些函数被归一化通过点(0,1)。
一个点的后验概率x属于类k为先验概率与多元正态密度的乘积。多元法线的密度函数d的意思是μk和d——- - - - - -d协方差Σk在1 -d点x是
P ( x | k ) = 1 ( ( 2 π ) d | Σ k | ) 1 / 2 经验值 ( − 1 2 ( x − μ k ) Σ k − 1 ( x − μ k ) T ) ,
在哪里 | Σ k | 是Σ的行列式吗k, Σ k − 1 是逆矩阵。
让P(k)表示类的先验概率k.然后是观察到的后验概率x的类k是
P ^ ( k | x ) = P ( x | k ) P ( k ) P ( x ) ,
在哪里P(x)是一个标准化常数,求和k的P(x|k)P(k).
先验概率是以下三种选择之一:
“统一”-类别的先验概率k是1除以总班级数。
“统一”
k
“经验”-类别的先验概率k班级的训练样本数是多少k除以训练样本的总数。
“经验”
自定义-类的先验概率k是k第Th元素之前向量。看到fitcdiscr.
之前
创建分类模型(Mdl),你可以使用点表示法设置优先级:
Mdl
Mdl。Prior = v;
在哪里v是一个正元素向量,表示每个元素出现的频率。在设置新的优先级时,不需要重新训练分类器。
v
每一次观测的预期成本矩阵定义为成本.
ClassificationDiscriminant|fitcdiscr|损失
ClassificationDiscriminant
损失
你点击一个链接对应于这个MATLAB命令:
通过在MATLAB命令窗口中输入命令来运行命令。Web浏览器不支持MATLAB命令。万博1manbetx
选择一个网站,在那里获得翻译的内容,并看到当地的活动和优惠。根据您的位置,我们建议您选择:.
你也可以从以下列表中选择一个网站:
选择中国网站(中文或英文)以获得最佳网站性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。
与当地办事处联系