ClassificationSVM
万博1manbetx支持向量机(SVM)看到下面成了和二进制分类
描述
ClassificationSVM
是一个万博1manbetx支持向量机(SVM)分类器看到下面成了和两级学习。训练有素的ClassificationSVM
分类器存储训练数据,参数值,先验概率支持向量,和算法实现的信息。万博1manbetx使用这些分类器来执行任务,如配件score-to-posterior-probability变换函数(见fitPosterior
)和预测新数据(见标签预测
)。
创建
创建一个ClassificationSVM
对象的使用fitcsvm
。
属性
对象的功能
紧凑的 |
减少机器学习模型的大小 |
compareHoldout |
比较两种分类模型使用新数据的精度 |
crossval |
旨在机器学习模型 |
discard万博1manbetxSupportVectors |
放弃支持向量线性万博1manbetx支持向量机(SVM)分类器 |
边缘 |
找到分类支持向量机(SVM)分类器的边缘万博1manbetx |
fitPosterior |
合适的后验概率支持向量机(SVM)分类器万博1manbetx |
收集 |
收集的属性统计和机器学习工具对象从GPU |
incrementalLearner |
转换成二进制分类支持向量机(SVM)模型增量学习万博1manbetx |
石灰 |
本地可model-agnostic解释(石灰) |
损失 |
找到分类错误的支持向量机(SVM)分类器万博1manbetx |
保证金 |
找到分类利润支持向量机(SVM)分类器万博1manbetx |
partialDependence |
计算部分依赖 |
plotPartialDependence |
创建部分依赖图(PDP)和个人条件期望(ICE)情节 |
预测 |
观察使用支持向量机(SVM)分类器进行分类万博1manbetx |
resubEdge |
Resubstitution分类边缘 |
resubLoss |
Resubstitution分类损失 |
resubMargin |
Resubstitution分类保证金 |
resubPredict |
使用训练数据训练分类器进行分类 |
的简历 |
恢复训练支持向量机(SVM)分类万博1manbetx器 |
沙普利 |
沙普利值 |
testckfold |
比较两种分类模型的精度重复交叉验证 |
例子
更多关于
算法
数学公式的二进制分类支持向量机算法,明白了万博1manbetx支持向量机的二叉分类和了解支持向量机万博1manbetx。
南
,<定义>
空字符向量(”
),空字符串(”“
),<失踪>
值显示缺失值。fitcsvm
删除整行数据对应于一个失踪的响应。当计算总重量(见下一个子弹),fitcsvm
忽略任何重量对应于一个观察至少有一个失踪的预测。这一行动会导致balanced-class先验概率不平衡问题。因此,观察箱约束可能不相等BoxConstraint
。如果你指定
成本
,之前
,权重
名称-值参数,输出模型对象存储指定的值成本
,之前
,W
属性,分别。的成本
属性存储指定的成本矩阵(C没有修改。的之前
和W
属性存储先验概率和观察权重,分别归一化后。模型训练,软件更新先验概率和观察权重将描述的惩罚成本矩阵。有关详细信息,请参见误分类代价矩阵、先验概率和观察权重。请注意,
成本
和之前
名称-值参数是用于两级学习。看到下面成了学习的成本
和之前
属性存储0
和1
,分别。对两种学习,
fitcsvm
分配一个框约束来训练数据中的每个观测。的公式框约束的观察j是在哪里C0是初始箱约束(见
BoxConstraint
名称-值参数),wj*观察体重调整吗成本
和之前
为观察j。观察权重的细节,请参阅调整先验概率和观察权重误分类代价矩阵。如果您指定
标准化
作为真正的
并设置成本
,之前
,或权重
名称-值参数,然后fitcsvm
规范使用相应的加权预测手段和加权标准差。也就是说,fitcsvm
标准化预测j(xj)使用在哪里xjk是观察k(行)的预测j(列)
假设
p
离群值的比例,你期望在训练数据,你准备好了吗OutlierFraction, p
。看到下面成了学习的软件列车偏差项,100
p
%的观察训练数据有负的成绩。该软件实现了强劲的学习两级学习。换句话说,软件试图删除100
p
%的观察时,优化算法是收敛的。删除观察对应梯度大的大小。
如果你的预测数据包含分类变量,然后软件通常使用这些变量的完整虚拟编码。每一层的软件创建一个哑变量每个类别变量。
的
PredictorNames
原始属性存储一个元素为每个预测变量名。例如,假设有三个因素,其中一个是和三个层次类别变量。然后PredictorNames
是一个1×3单元阵列包含原始特征向量的预测变量的名称。的
ExpandedPredictorNames
属性存储一个元素为每个预测变量,包括虚拟变量。例如,假设有三个因素,其中一个是和三个层次类别变量。然后ExpandedPredictorNames
是一个1-by-5单元阵列特征向量包含预测变量的名称和新虚拟变量。类似地,
β
为每个预测属性存储一个β系数,包括虚拟变量。的
万博1manbetxSupportVectors
属性存储支持向量的预测价值,包括虚拟变量。万博1manbetx例如,假设米万博1manbetx支持向量和三个因素,其中一个是和三个层次类别变量。然后万博1manbetxSupportVectors
是一个n5矩阵。的
X
按原输入和属性存储训练数据不包括虚拟变量。当输入一个表,X
只包含的列作为预测因子。
预测表中指定,如果任何包含命令(顺序)类别的变量,这些变量的软件使用顺序编码。
为一个变量k要求水平,创建的软件k- 1虚拟变量。的jth哑变量是1为水平j,+ 1的水平j+ 1通过k。
哑变量中存储的名称
ExpandedPredictorNames
属性显示第一级的价值+ 1。软件商店k- 1额外的预测虚变量的名称,包括水平2的名字,3,…k。
所有连接器实现l1 soft-margin最小化。
看到下面成了学习的软件估计,拉格朗日乘数法,α1、……αn,这样
引用
[1]Hastie, T。,R。Tibshirani, and J. Friedman.统计学习的元素,第二版。纽约:施普林格出版社,2008年。
[2]Scholkopf B。,J. C. Platt, J. C. Shawe-Taylor, A. J. Smola, and R. C. Williamson. “Estimating the Support of a High-Dimensional Distribution.”神经第一版第7卷。13日,2001年,页1443 - 1471。
[3]Christianini, N。,J. C. Shawe-Taylor.介绍支持向量机和其他基于学习的方法万博1manbetx。英国剑桥:剑桥大学出版社,2000年。
[4]Scholkopf B。答:Smola。学习与内核:支持向量机,正则化优化,自适应计算万博1manbetx和机器学习。剑桥,麻州:麻省理工学院出版社,2002年。