ClassificationSVM
万博1manbetx支持向量机(SVM)用于一类和二元分类
描述
ClassificationSVM
是一个万博1manbetx支持向量机(SVM)分类器一个班和两个班的学习。训练有素的ClassificationSVM
分类器存储训练数据、参数值、先验概率、支持向量和算法实现信息。万博1manbetx使用这些分类器来执行任务,例如拟合得分-后验概率转换函数(参见fitPosterior
)和预测新数据的标签(见预测
).
创建
创建一个ClassificationSVM
对象,使用fitcsvm
.
属性
对象的功能
紧凑的 |
减小机器学习模型的尺寸 |
compareHoldout |
比较使用新数据的两种分类模型的准确性 |
crossval |
交叉验证机器学习模型 |
discard万博1manbetxSupportVectors |
线性支持向量机分万博1manbetx类器的支持向量弃用 |
边缘 |
为支持向量机分类器找到分类边万博1manbetx |
fitPosterior |
拟合支持向量机(SVM)分类器的后验概率万博1manbetx |
收集 |
收集属性统计和机器学习工具箱来自GPU的对象 |
incrementalLearner |
将二元分类支持向量机(SVM)模型转化为增量学习器万博1manbetx |
石灰 |
局部可解释模型不可知解释(LIME) |
损失 |
找出支持向量机分类器的分类误差万博1manbetx |
保证金 |
为支持向量机分类器找到分类边界万博1manbetx |
partialDependence |
计算部分依赖关系 |
plotPartialDependence |
创建部分依赖图(PDP)和个别条件期望图(ICE) |
预测 |
利用支持向量机(SVM)分类器对观测数据进行分类万博1manbetx |
resubEdge |
再置换分类边 |
resubLoss |
再置换分类损失 |
resubMargin |
再置换分类边际 |
resubPredict |
使用训练过的分类器对训练数据进行分类 |
重新开始 |
恢复训练支持向量机(SVM)分类万博1manbetx器 |
沙普利 |
沙普利值 |
testckfold |
通过重复交叉验证比较两种分类模型的准确性 |
例子
更多关于
算法
支持向量机二元分类算法的数学公式请参见万博1manbetx二元分类的支持向量机而且理解支持向量机万博1manbetx.
南
,<定义>
,空字符向量(”
,空字符串(""
),< >失踪
值表示缺少的值。fitcsvm
删除与缺失响应对应的整行数据。当计算总权重时(见下一个项目),fitcsvm
忽略与至少一个缺失预测器的观测结果对应的任何权重。这种行为会导致平衡类问题中的不平衡先验概率。因此,观察框的约束可能不相等BoxConstraint
.如果您指定
成本
,之前
,权重
参数时,输出模型对象将指定的值存储在成本
,之前
,W
属性,分别。的成本
属性存储用户指定的成本矩阵(C),无需修改。的之前
而且W
属性分别存储归一化后的先验概率和观测权重。对于模型训练,软件更新先验概率和观察权重,以纳入成本矩阵中描述的惩罚。详细信息请参见错误分类成本矩阵,先验概率和观察权重.注意
成本
而且之前
名称-值参数用于两类学习。对于单课学习,成本
而且之前
属性存储0
而且1
,分别。对于两节课的学习,
fitcsvm
为训练数据中的每个观察分配一个框约束。观测框约束的公式j是在哪里C0初始框约束(参见
BoxConstraint
名称-值参数),以及wj*观察权重是否调整成本
而且之前
为观察j.有关观测权值的详细信息,请参见调整错误分类成本矩阵的先验概率和观测权重.如果你指定
标准化
作为真正的
并设置成本
,之前
,或权重
然后是名称-值参数fitcsvm
使用相应的加权均值和加权标准差对预测因子进行标准化。也就是说,fitcsvm
标准化预测j(xj)使用在哪里xjk是观察k(行)预测器j(列)
假设
p
你在训练数据中期望的异常值的比例,和你设定的异常值的比例是多少OutlierFraction, p
.对于单类学习,软件将偏差项训练为100
p
训练数据中有%的观察值为负。软件实现强劲的学习两节课的学习。换句话说,软件试图删除100个
p
优化算法收敛时观测值的%。被移除的观测值对应的是幅度较大的梯度。
如果你的预测数据包含分类变量,那么软件通常对这些变量使用全虚拟编码。该软件为每个分类变量的每个级别创建一个虚拟变量。
的
PredictorNames
属性为每个原始预测器变量名存储一个元素。例如,假设有三个预测因子,其中一个是具有三个层次的分类变量。然后PredictorNames
是包含预测变量的原始名称的字符向量的1 × 3单元格数组。的
ExpandedPredictorNames
属性为每个预测变量(包括虚拟变量)存储一个元素。例如,假设有三个预测因子,其中一个是具有三个层次的分类变量。然后ExpandedPredictorNames
是包含预测变量和新虚拟变量名称的字符向量的1 × 5单元格数组。类似地,
β
属性为每个预测器存储一个beta系数,包括虚拟变量。的
万博1manbetxSupportVectors
属性存储支持向量(包括虚拟变量)的预测器值。万博1manbetx例如,假设有米万博1manbetx支持向量和三个预测因子,其中一个是三级分类变量。然后万博1manbetxSupportVectors
是一个n5矩阵。的
X
属性将训练数据存储为原始输入,不包括虚拟变量。当输入是一个表时,X
仅包含用作预测器的列。
对于表中指定的预测器,如果任何变量包含有序(序数)类别,软件将对这些变量使用序数编码。
对于一个变量k软件创建有序的关卡k- 1虚拟变量。的j虚变量为1以下级别j,+ 1的水平j+ 1通过k.
对象中存储的虚拟变量的名称
ExpandedPredictorNames
属性用值指示第一级+ 1.软件商店k- 1虚拟变量的其他预测器名称,包括级别2、3、…k.
所有求解器实现l1 .软边际最小化。
对于单类学习,该软件估计拉格朗日乘数,α1、……αn,以致于
参考文献
哈斯蒂、T.、R.蒂布谢拉尼和J.弗里德曼。统计学习的要素,第二版。纽约:施普林格,2008。
[2]肖科普夫,B. J. C.普拉特,J. C.肖-泰勒,A. J.斯莫拉和R. C.威廉姆森。“估算高维分布的支持度”万博1manbetx神经第一版,卷13,第7号,2001,第1443-1471页。
[3]克里斯汀尼,N.和J. C.肖-泰勒。支持向量机和其他基于核的学习方法简介万博1manbetx.英国剑桥:剑桥大学出版社,2000年。
[4]肖科普夫,B.和A.斯莫拉。核学习:支持向量机,正则化,优化及超越,自适应万博1manbetx计算和机器学习。马萨诸塞州剑桥:麻省理工学院出版社,2002年。