fitclinear
和Fitrinear.
功能要在高维数据集上进行更快的训练,请使用Fitrinear.
和fitclinear
分别拟合正则化、线性回归和二元分类模型。对于多类分类问题,使用创建线性分类模型模板来指定参数templateLinear
,然后将模板对象传递给fitcecoc.
进行训练。
线性回归模型包括支持向量机和最小二乘回归模型,二元分类模型包括支持向量机和万博1manbetxlogistic回归模型。你还可以在目标函数中加入一个套索或山脊惩罚。该软件优化的目标函数使用任何这些算法:
随机梯度下降法
平均SGD.
Broyden-Fletcher-Goldfarb-Shanno(高炉煤气)
内存有限bfg (LBFGS)
可分离近似稀疏重建(SpaRSA)
提高执行速度时训练使用fitclinear
,Fitrinear.
,或fitcecoc.
,对预测器数据进行定位,使列与观测值相对应,并设置“ObservationsIn”、“列”
.
Fitrinear.
和fitclinear
返回:
RegressionLinear
和分类线性
默认情况下,分别建模对象
对于使用线性分类模型的多字母分类问题,fitcecoc.
返回:
一个CompactClassificeCoc.
模型组成分类线性
模型对象
一个ClassificationPartitionedLinearECOC
模型对象时指定交叉验证
与统计和机器学习工具箱™中的其他回归和分类模型对象不同,这些对象不会存储培训数据。但是,有一些例外,语法和方法类似于其他回归和分类模型对象的语法和方法。例如,为了预测新数据的响应或类,将培训的线性回归或分类模型对象传递给预测
.
分类学习器帮助您探索使用监督机器学习对数据进行分类的训练模型的方法。在R2016a中,应用程序的新功能包括:
自动分类器训练。开始时,只需点击一下,就可以在数据上自动训练不同的分类模型。使用自动化培训来快速尝试模型类型的选择,然后交互地探索有希望的模型。模型在训练时显示进度条,您可以在模型之间或验证折叠之间中断训练。该应用程序突出了最佳的准确性分数。
课程可视化的结果。在散点图中,显示或隐藏特定类,或仅关注正确或不正确的预测。
逻辑回归分类。对你的数据尝试一种流行的基线分类技术。
有关详细信息,请参见在分类学习者应用程序中训练分类模型.
ksdensity
和mvksdity
功能ksdensity
现在支持万博1manbetx拟合和绘制双变量样本数据的概率密度估计。使用新的名称值对'plotfcn'
选择Bivariate样本数据的绘图类型。从一个轮廓图,3-D线绘图,3-D阴影表面图,或在3-D阴影表面图下的轮廓图。
使用mvksdity
拟合多元数据的概率密度估计。
CompactLinearModel
物体减少了线性回归模型的内存占用CompactLinearModel
是用于存储拟合线性回归模型的配置的新类,而无需存储拟合数据或残差。适合全部linearmodel.
物体使用Fitlm.
,然后使用新的Compact方法创建一个CompactLinearModel
仅保留有关模型的概要信息的对象,例如系数值。
有关新对象的所有方法和属性,请参见CompactLinearModel
和linearmodel.
类的页面。
robustcov
新功能robustcov
估计用于多变量样本数据的强大协方差矩阵。强大的协方差估计对样本数据中的异常值不太敏感,而不是经典估计方法。使用RobustCov可获得的估计选项包括快速MCD(最小协方差决定簇)估计,正交化的GNANASEDIKAN-KETTENRING(OGK)估计,以及基于“浓度”技术的估计。
对于双核及以上系统knnsearch.
的方法kdtreesearcher.
使用英特尔并行化K-Collect邻搜索®线程构建块(TBB)。有关英特尔TBB的详细信息,请参阅https://software.intel.com/en-us/intel-tbb..
kmeans
函数默认值在线
的名称-值对参数kmeans
现在是“关闭”
.以前的默认值是'在'
.
kmeans
可能会返回与默认值时不同的结果在线
是'在'
.要转动在线更新阶段,请使用“OnlinePhase”,“上”
的调用中的名称-值对参数kmeans
.
ksdensity
名称-值对'npoints'
为了ksdensity
已经改变为“NumPoints”
.
新的名称-值对参数名称“NumPoints”
在以前的版本中不起作用。有关您使用的统计和机器学习工具箱的正确版本,请参阅文档。
Paretotails.
属性的以下属性名Paretotails.
类已经改变了。
新属性名 | 旧财产名称 | 类 |
---|---|---|
NumSegments 上行 LowerParameters |
nsegments 下一日 大明 |
Paretotails. |
新的属性名在以前的版本中不起作用。有关您使用的统计和机器学习工具箱的正确版本,请参阅文档。
将在将来的发布中删除以下功能。使用较新的功能。
功能 | 使用此功能时会发生什么? | 使用这个代替 | 兼容性考虑因素 |
---|---|---|---|
treedisp |
错误 | 视图 (ClassificationTree ) 要么视图 (回归植物 ) |
使用fitctree 或fitrtree 种一棵树。替换所有实例treedisp 与视图 (ClassificationTree ) 要么视图 (回归植物 ). |
treefit |
错误 | fitctree 或fitrtree |
替换所有实例treefit 与fitctree 或fitrtree . |
treeprune |
错误 | 修剪 (ClassificationTree ) 要么修剪 (回归植物 ) |
使用fitctree 或fitrtree 种一棵树。替换所有实例treeprune 与修剪 (ClassificationTree ) 要么修剪 (回归植物 )。 |
树 |
错误 |
|
使用fitctree 或fitrtree 种一棵树。替换所有实例
|
treeval |
错误 | 预测 (ClassificationTree ) 要么预测 (回归植物 ) |
使用fitctree 或fitrtree 种一棵树。替换所有实例treeval 与预测 (ClassificationTree ) 要么预测 (回归植物 ). |
分类 |
警告 | fitcdiscr. |
替换所有实例分类 与fitcdiscr. . |
FitnaiveBayes. |
警告 | Fitcnb. |
替换所有实例FitnaiveBayes. 与Fitcnb. . |
ProbDist |
警告 | makedist 和Fitdist. |
创建和适用概率分布对象,使用makedist 和Fitdist. 反而。 |
ProbDistParametric |
警告 | makedist 和Fitdist. |
创建和适用概率分布对象,使用makedist 和Fitdist. 反而。 |
ProbDistKernel |
警告 | makedist 和Fitdist. |
创建和适用概率分布对象,使用makedist 和Fitdist. 反而。 |
ProbDistUnivKernel |
警告 | makedist 和Fitdist. |
创建和适用概率分布对象,使用makedist 和Fitdist. 反而。 |
ProbDistUnivParam |
警告 | makedist 和Fitdist. |
创建和适用概率分布对象,使用makedist 和Fitdist. 反而。 |
分类学习器帮助您探索使用监督机器学习对数据进行分类的训练模型的方法。在R2015b中,应用程序的新功能包括:
判别分析分类器:用快速,准确且易于解释判别分析的火车分类器,这对宽阔的数据集有好处。
主成分分析(PCA):利用主成分分析降低预测器空间的维数,以防止过拟合。
分类预测:训练分类模型时,部分或全部预测是分类变量。之前你只能在应用中使用数值预测。
从文件中导入数据:将电子表格、文本、csv和其他文件导入到应用程序中。以前,您只能从工作空间中选择数据。
平行坐标图:可视化训练数据和错误分类的点,以调查应包括或排除的特征。平行坐标可以帮助在单个地块上可视化3到10个维度的数据,并看到模式。这可以帮助您理解特性之间的关系,并识别用于分离类的有用预测器。
ROC阈值:通过查看训练分类器的阈值位于ROC曲线上,评估分类器性能。
有关详细信息,请参见交互式探索分类模型.
如果将分类模型从分类学习者导出到工作区并编写一个脚本以在R2015A中使用新数据进行预测,则必须更改代码以使用从R2015B中的应用程序导出的模型。用新的troughclassifier.predictfcn.predictfcn.
.
功能 | 使用此功能时会发生什么? | 使用这个代替 | 兼容性考虑因素 |
---|---|---|---|
在用户脚本中,预测 用于R2015A的分类学习者导出模型的功能 |
R2015B中的错误 |
|
从Classification Learner导出的分类模型从R2015a中的分类对象变成了R2015b中的结构。新的结构包含一个分类对象和一个新的预测函数, |
从分类学习者导出模型时,应用程序将显示有关命令窗口中导出的模型的信息。该消息显示如何使用该模型进行预测。
修改你的代码从R2015a到工作在R2015b导出的分类器,改变预测
来troughclassifier.predictfcn.predictfcn.
, 在哪里trainedClassifier
是结构变量的名称。
例如,更改此R2015A代码:
YFIT =预测(TroundClassifier,T {:,Trounclassifier.predictornames})
到此r2015b代码:
yfit = trainedClassifier.predictFcn (T)
提供数据T
与应用程序(表或矩阵)中使用的培训数据相同的数据类型。
如果提供表,请确保它包含与培训数据相同的预测名称。这预测FCN.
忽略表中的其他变量。
如果提供矩阵,它必须包含与训练数据相同的预测仪列或行,而且没有响应变量或其他未使用的变量。
注意默认名称trainedClassifier
递增每次导出以避免覆盖分类器时,例如,TroughtClassifier1.
.确保您的代码使用结构变量的正确名称。
您还可以从导出的结构中提取分类对象以进行进一步的分析(例如,troudclassifier.classificationsvm.
,trainedClassifier。ClassificationTree
等等,这取决于您的模型类型)。请注意,如果您在应用程序中使用特征选择,如PCA,您将需要通过使用结构的PCA字段中的信息来考虑这种转换。
您可以使用支持向量机(SVM)回归或高斯过程回归(GPR)训练非参数回归模型。万博1manbetx
万博1manbetx支持向量回归:这Fitrsvm.
功能列出了SVM回归模型。使用新功能,您可以:
指定内核函数
提供观察权重
训练一个交叉验证的模型
使用培训的模型预测响应
计算resubstitution统计
Fitrsvm.
创建一个回归vm.
或RegressionPartitionedSVM
目的。回归vm.
是一个用于访问和执行训练数据操作的新类。compactregressionsvm.
是一个新的类,用于存储训练模型的配置,而不存储训练数据。RegressionPartitionedSVM
是一组交叉验证的SVM回归模型的新类,培训交叉验证折叠。
有关新对象的所有方法和属性,请参见回归vm.
,compactregressionsvm.
,RegressionPartitionedSVM
类的页面。
高斯进程回归:这fitrgp
功能列出高斯进程回归(GPR)模型。使用新功能,您可以:
指定拟合、预测和活动集选择方法
指定核(协方差)函数并为超参数提供初始值
训练一个交叉验证的模型
计算响应预测以及使用训练模型的预测间隔
计算resubstitution统计
计算post-fit统计
fitrgp
创建一个regressiongp.
或回归排放性的模型
目的。regressiongp.
是一个用于访问和执行训练数据操作的新类。CompactRegressionGP
是一个新的类,用于存储训练模型的配置,而不存储训练数据。回归排放性的模型
是在交叉验证折叠上训练的一组交叉验证GPR模型的现有类。
有关新对象的所有方法和属性,请参见regressiongp.
,CompactRegressionGP
,回归排放性的模型
类的页面。
kmeans
和randsample
功能(使用MATLAB编码器)kmeans
和randsample
现在支持代码生成万博1manbetx。有关支持的完整统计数据和计算机学习工具箱功能万博1manbetxMATLAB®编码器™,请参阅统计和机器学习工具箱.
提高以下统计和机器学习工具箱功能以接受GPUArray.
输入参数,以便它们在GPU上执行。
*这些功能比CPU更快地执行GPU。表中的其他功能在GPU和CPU上显示了类似的性能。
fitcsvm
您可以指定不将alpha系数剪切到零或该观察的零点或框约束值,使用'clipalphas',false
的名称-值对参数fitcsvm
,培训支持向量机进行分类。万博1manbetx
treebagger
的一些属性和方法名treebagger
和CompactTreeBagger
这些类方法的类和名称 - 值对参数名称已更改如下。
新属性名 | 旧财产名称 | 类 |
---|---|---|
土壤反弹 TreeArguments computeoobpredictorimportance. numpredictorstosample. NumTrees 预测 OOBPermutedPredictorDeltaError OobpermutedPredictord eltameanMargin. OOBPermutedPredictorCountRaiseMargin NumPredictorSplit Trustogateassociation. MinLeafSize deltacriteriondecisionplit. |
fboot. tr ComputeOOBVarImp nvartosample. ntrees. VarNames OobperMutedVardeltaError OOBPermutedVarDeltaMeanMargin OOBPermutedVarCountRaiseMargin nvarsplit. VarAssoc MinLeaf deltacritdecisionsplit. |
treebagger |
NumTrees 预测 NumPredictorSplit Trustogateassociation. |
ntrees. VarNames deltacritdecisionsplit. VarAssoc |
CompactTreeBagger |
新名称值对名称 | 旧名称-值对名称 | 方法 | 类 |
---|---|---|---|
土壤反弹 numpredictorstosample. OOBPrediction OOBPredictorImportance numpredictorstosample. Numprint. MinLeafSize 蛋白化 成本 方法 选项 之前 SampleWithReplacement 重量 |
fboot. nvartosample. oobpred oobvarimp nvartosample. 纳丁 MINLEAF 明蛋白 成本 方法 选项 事先的 SampleWithReplacement. 权重 |
treebagger (构造函数) |
treebagger |
Numprint. |
纳丁 |
Growtees. ,fillprox |
treebagger |
UseInstanceForTree |
useifort |
预测 ,错误 ,保证金 ,意思 |
treebagger |
选项 |
选项 |
Growtees. |
treebagger |
树木 |
树 |
|
treebagger |
TreeWeights |
treeweights |
|
treebagger |
模式 |
模式 |
oobError ,Oobmargin. ,Oobmeanmargin. ,错误 ,保证金 ,意思 |
treebagger |
保持 颜色 mdscoordinate. |
保持 颜色 mdscoords. |
mdsprox |
treebagger |
UseInstanceForTree 树木 TreeWeights |
useifort 树 treeweights |
预测 ,错误 ,保证金 ,意思 |
CompactTreeBagger |
模式 |
模式 |
错误 ,保证金 ,意思 |
CompactTreeBagger |
重量 |
权重 |
错误 ,意思 |
CompactTreeBagger |
数据 标签 |
数据 标签 |
概要 ,mdsprox |
CompactTreeBagger |
颜色 mdscoordinate. |
颜色 mdscoords. |
mdsprox |
CompactTreeBagger |
新方法名称 | 老方法名称 | 类 |
---|---|---|
mdsprox |
mdsprox. |
treebagger ,CompactTreeBagger |
fillprox |
fillProximities |
treebagger ,CompactTreeBagger |
新属性,方法和名称 - 值对参数名称在上一个版本中不起作用。有关您使用的统计和机器学习工具箱的正确版本,请参阅文档。
分类学习者是一个新的应用程序,可让您使用监督机器学习培训模型以对数据进行分类。您可以探索您的数据,选择功能,指定交叉验证方案,列车模型和评估结果。您可以选择几种分类类型,包括决策树,支持向量机,最近的邻居和集合分类。万博1manbetx
通过提供已知的输入数据集(观察或示例)和已知的数据响应(即标签或类)来执行有监督的机器学习。使用这些数据来训练一个模型,该模型生成对新数据响应的预测。要使用带有新数据的模型,或了解编程分类,您可以将模型导出到工作空间,或生成MATLAB代码以重新创建训练过的模型。
有关详细信息,请参见交互式探索分类模型.
CompareHoldout.
,testcholdout.
,testckfold
功能您可以使用Boldout采样预测或重复的交叉验证统计评估两个分类模型的预测精度。
这testcholdout.
接受来自分类模型和真实标签的拒绝样本预测标签。这个函数实现了渐近、精确或中值pMcNemar测试的版本。如果指定错误分类费用,testcholdout.
使用似然比进行比较模型或Chi-Square测试。
这CompareHoldout.
对象函数接受统计学和机器学习工具箱中任意两个训练的分类模型对象,两个模型的holdout预测数据集,以及相应的真标签。就像testcholdout.
,此对象功能实现了渐近,精确或中期pMcNemar测试的版本。如果指定错误分类费用,CompareHoldout.
使用似然比进行比较模型或Chi-Square测试。
这testckfold
函数在统计和机器学习工具箱中接受任何两个培训的分类模型对象或模板,并重复适用k- 使用两组超出样本预测器数据和真品标签的交叉验证。然后,testckfold
使用a评估所产生的精度t或者F测试。
kыinoids.
,Fitcknn.
,和其他函数时,使用余弦,相关,或斯皮尔曼距离计算成对距离计算(通过pdist
和pdist2
) 在kыinoids.
和Fitcknn.
使用基于Intel数学内核库(MKL)的基本线性代数子程序(BLAS)库。关于Intel MKL的详细介绍请参见https://software.intel.com/en-us/intel-mkl..
对于双核及以上系统,fitctree
,fitrtree
,fitensemble
使用英特尔线程构建块(TBB)并行化培训决策树。有关英特尔TBB的详细信息,请参阅https://software.intel.com/en-us/intel-tbb..
你可以并行计算点态置信区间灌注
回报x- - -y-坐标、阈值或曲线下测量的面积。您需要“并行计算工具箱”才能使用此选项。
'maxnumsplits'
论点fitctree
,fitrtree
,templateTree
功能您可以通过选择最大的分支节点数来控制决策树的深度,而不是选择最小的叶子大小或最小的父节点大小。属性指定此选项'maxnumsplits'
的名称-值对参数fitctree
,fitrtree
,或templateTree
.满树(ClassificationTree
或回归植物
分类器)包含该字段maxnumsplits.
在物业中模特分析者
存储指定的最大分割数。
主成分分析
和概率分布函数(使用MATLAB编码器)主成分分析
,betafit
,betalike
和pearsrnd
现在支持代码生成万博1manbetx。有关支持的完整统计数据和计算机学习工具箱功能万博1manbetxMATLAB编码器,请参阅统计和机器学习工具箱.
sampsizepwr
函数sampsizepwr
返回两个样本的电源,样本大小或替代假设值t- 最常见的群体。指定两个样本t- 使用't2'
作为'testtype'
输入变量。
通过丢弃线性支持向量机(SVM)模型的支持向量,可以减少它们的内存占用。万博1manbetx通过训练的支持向量机模型(即,a分类VM.
或CompactClassificationSVM
对象)丢弃普罗斯韦普万博1manbetx罗斯韦
放弃:
这α.系数(存储在α
属性)
支持向量万博1manbetx(存储在万博1manbetxSupportVectors
属性)
支持向量万博1manbetx标签(存储在万博1manbetxSupportVectorLabels.
属性)
您可以通过训练有素的纠错输出代码(ECOC)模型(即,aClassifiedecoc.
或CompactClassificeCoc.
对象)丢弃普罗斯韦普万博1manbetx罗斯韦
同样地抛弃α.系数、支持向量和支持向量标签万博1manbetx来自所有线性支持向量机二进制学习器。为了控制线性支持向量机二进制学习器是否存储支持向量,使用万博1manbetxtemplateSVM
并设置了“Save万博1manbetxSupportVectors”
名称值对参数。
默认情况下,fitcecoc.
丢弃的α.系数、支持向量和支持向量标签万博1manbetx来自所有线性支持向量机二进制学习器。为了存储这些估计,创建一个支持向量机模板并指定'save万博1manbetxsupportvectors',true
.然后,将SVM模板传递给fitcecoc.
.
增强回归树的默认最小叶子大小是5
.
要使用以前的默认值来训练增强的回归树,使用templateTree
,并指定“MinLeafSize”,1
和“MaxNumSplits”,1
.然后,将回归树模板传递给fitensemble
.
scatterhist
和gplotmatrix.
功能这scatterhist
函数包括两个新的名称值对参数,允许您显示沿着的边缘分布的分组直方图x- - -y散点图的-axes:
“PlotGroup”
允许指定是按组绘制边际分布还是为整个数据集绘制边际分布。
'风格'
允许指定是显示不填充柱状图的直方图轮廓的阶梯图还是直方图柱状图。
如果指定一个包含多个组的分组变量,则默认为scatterhist
显示分组的楼梯图。如果指定仅包含一个组的分组变量,那么scatterhist
显示直方图条形图。要显示内核密度图,请使用'核心'
名称值对参数。
位置参数'dispopt'
在gplotmatrix.
万博1manbetx支持两个附加选项,以控制沿着绘图矩阵对角线的绘图外观:
'楼梯'
显示阶梯图,它显示分组直方图的轮廓,而不填充柱状图。
“grpbars”
显示标准分组的直方图条图。
回归
回归
利用自由度计算已研究残差的置信区间n- - - - - -p- 1,n观察的次数是多少p是预测变量的数量。
计算残差置信区间的自由度回归
回报是n- - - - - -p- 1而不是n- - - - - -p.结果可能与先前版本中的结果不同。
将在将来的发布中删除以下功能。使用较新的功能。
功能 | 使用此功能时会发生什么? | 使用这个代替 | 兼容性考虑因素 |
---|---|---|---|
princomp |
警告 | 主成分分析 |
替换事件princomp 与主成分分析 . |
treedisp |
警告 | 视图 (ClassificationTree ) 要么视图 (回归植物 ) |
使用fitctree 或fitrtree 种一棵树。替换事件treedisp 与视图 (ClassificationTree ) 要么视图 (回归植物 ). |
treefit |
警告 | fitctree 或fitrtree |
替换事件treefit 与fitctree 或fitrtree . |
treeprune |
警告 | 修剪 (ClassificationTree ) 要么修剪 (回归植物 ) |
使用fitctree 或fitrtree 种一棵树。替换事件treeprune 与修剪 (ClassificationTree ) 要么修剪 (回归植物 )。 |
树 |
警告 |
|
使用fitctree 或fitrtree 种一棵树。替换事件
|
treeval |
警告 | 预测 (ClassificationTree ) 要么预测 (回归植物 ) |
使用fitctree 或fitrtree 种一棵树。替换事件treeval 与预测 (ClassificationTree ) 要么预测 (回归植物 ). |
分类 |
仍在运行 | fitcdiscr. |
替换事件分类 与fitcdiscr. . |
classregtree |
仍在运行 | fitctree 或fitrtree |
替换事件classregtree 与fitctree 或fitrtree . |
FitnaiveBayes. |
仍在运行 | Fitcnb. |
替换事件FitnaiveBayes. 与Fitcnb. . |
ProbDist |
仍在运行 | makedist 和Fitdist. |
创建和适用概率分布对象,使用makedist 和Fitdist. 反而。 |
ProbDistParametric |
仍在运行 | makedist 和Fitdist. |
创建和适用概率分布对象,使用makedist 和Fitdist. 反而。 |
ProbDistKernel |
仍在运行 | makedist 和Fitdist. |
创建和适用概率分布对象,使用makedist 和Fitdist. 反而。 |
ProbDistUnivKernel |
仍在运行 | makedist 和Fitdist. |
创建和适用概率分布对象,使用makedist 和Fitdist. 反而。 |
ProbDistUnivParam |
仍在运行 | makedist 和Fitdist. |
创建和适用概率分布对象,使用makedist 和Fitdist. 反而。 |
svmclassify |
仍在运行 | fitcsvm |
替换事件svmclassify 与fitcsvm . |
svmtrain |
仍在运行 | fitcsvm |
替换事件svmtrain 与fitcsvm . |
fitcecoc.
函数这fitcecoc.
函数适合用于多类学习的纠错输出代码(ECOC)模型。利用训练数据和编码方案,fitcecoc.
结合一组二进制学习器,如支持向量机分类器,使用编码设计创建一个多类模型。可以使用受支持的编码方案,或万博1manbetx使用designecoc.
函数。新功能还支持大多数方法的后验概率拟合。万博1manbetxfitcecoc.
创建新课程的对象Classifiedecoc.
或Classificationedecoc.
.
Classifiedecoc.
是一个用于访问和执行训练数据操作的新类。CompactClassificeCoc.
是一个新的类,用于存储训练模型的配置,而不存储训练数据。Classificationedecoc.
是一组培训交叉验证折叠培训的一组交叉验证的ECOC模型的新课程。
Classifiedecoc.
是建立在相同的框架上ClassificationTree
,ClassificationDiscriminant
,ClassificationKNN
,分类VM.
,因此您有各种选项和方法,包括:
交叉验证
Resubstitution统计
概括统计
加权分类
有关新对象的所有方法和属性,请参见Classifiedecoc.
,CompactClassificeCoc.
,Classificationedecoc.
类的页面。
fitglme
函数GeneralizeLmixedModel.
是用于拟合广义线性混合效应(GLME)模型的新类。使用GLME模型使用fitglme
.你可以:
使用公式符号指定GLME模型。
适用于具有正常,二项式,泊松,伽玛或反高斯的条件分布的响应的GLME模型。
使用字符串或结构指定链接函数。
使用最大伪可能性(MPL)的FIT GLME模型,限制最大伪可能性(REMPL),使用LALPLACE近似的最大可能性,或使用近似拉普拉斯近似值的最大可能性与固定效果突出。
为随机效果指定协方差模式。
计算随机效应的经验贝叶斯预测因子(ebp)的估计。
对固定效果执行定制假设测试。
计算固定效果,随机效果和协方差参数的置信区间。
检查残留,诊断图,装配值和设计矩阵。
使用理论似然比测试比较两种不同的模型。
使用拟合的GLME模型对新数据进行预测。
使用新设计点使用拟合GLME模型生成随机数据。
在先前拟合模型的基础上,使用新的响应向量重新建立新的GLME模型。
有关此对象的属性和方法,请参阅类页面GeneralizeLmixedModel.
.
kыinoids.
函数这kыinoids.
将数据分区功能分区k使用k-medoids算法聚类。此功能提供分类数据的聚类、使用任意距离度量的聚类、对离群值的健壮性以及对大型数据集的扩展。
templateEnsemble
用于创建集成学习模板你可以使用templateEnsemble
功能要创建适合训练纠错输出代码(ECOC)多字数分类器的集合学习模板。特别是,您可以通过指定使用集合方法的二进制学习者进行多级别分类,该学习者使用leanemble方法柔和的方法,logitboost和robustboost。
templateSVM
创建SVM学习模板的功能你可以使用templateSVM
功能要创建SVM学习模板,适用于训练纠错输出代码(ECOC)多键分类器。特别是,您可以通过指定标准化预测器数据或使用特定框约束的二进制学习者来执行多字母分类。
您可以在拟合k-incelte邻分类中的模型之前标准化培训数据。标准化考虑了观察权重和缺失数据。您可以使用使用此选项指定此选项“标准化”
的名称-值对参数Fitcknn.
函数。
Fitcnb.
函数用于朴素贝叶斯分类你可以使用Fitcnb.
训练多款朴素贝叶斯模型的功能。Fitcnb.
创建新课程的对象ClassificationNaiveBayes
.
ClassificationNaiveBayes
是一个用于访问和执行训练数据操作的新类。CompactClassificationNaiveBayes
是一个新的类,用于存储训练模型的配置,而不存储训练数据。
这Fitcnb.
功能和ClassificationNaiveBayes
和CompactClassificationNaiveBayes
类包含FitnaiveBayes.
功能和天真的人
类。ClassificationNaiveBayes
是建立在相同的框架上ClassificationTree
,ClassificationDiscriminant
,ClassificationKNN
,分类VM.
,所以你有各种额外的选项和方法,包括:
交叉验证
Resubstitution统计
概括统计
加权分类
你也可以使用TemplateAniveBayes.
功能要创建一个天真凸起的分类器模板,适用于训练纠错输出代码(ECOC)多字数分类器。
有关新对象的所有方法和属性,请参见ClassificationNaiveBayes
和CompactClassificationNaiveBayes
类的页面。
fitcsvm
函数用于增强用于二进制分类的支持向量机(svm)的性能万博1manbetx您现在可以使用新的fitcsvm
用于培训SVM分类器的功能,以实现一类或两级学习。fitcsvm
创建新课程的对象分类VM.
或现有的类ClassificationededModel.
.
分类VM.
是一个用于访问和执行训练数据操作的新类。CompactClassificationSVM
是一个新的类,用于存储训练模型的配置,而不存储训练数据。语法和方法类似于现有的ClassificationTree
和CompactClassificationTree.
类。
新fitcsvm
功能和分类VM.
和CompactClassificationSVM
类包含svmtrain
和svmclassify
功能。分类VM.
提供了几个优点相比svmtrain
和svmclassify
功能:
新功能
万博1manbetx支持计算软分类分数
万博1manbetx支持拟合后验概率
通过提供收缩,提高了训练速度,特别是在大数据上的训练,特别是在分类良好的大数据上
通过接受初始α值允许热重启
允许在超过最大迭代次数后继续训练
万博1manbetx支持在异常值存在时的健壮学习
分类VM.
是建立在相同的框架上ClassificationTree
,ClassificationDiscriminant
,ClassificationKNN
,因此您有各种选项和方法,包括:
交叉验证
Resubstitution统计
概括统计
加权分类
有关新对象的所有方法和属性,请参见分类VM.
和CompactClassificationSVM
类的页面。
evalclusters
方法扩大簇的数量和间隙准则模拟的数量方法创建的对象有两个新方法evalclusters
功能:
addK
添加要进行评估的其他数量的群集。该方法适用于所有类别的群集评估(即,clustering.evaluation.GapEvaluation
,clustering.evalization.silhouetteevaluation.
,clustering.Evaluation.Calinskiharabaszevaliuation.
,clustering.Evalization.DaviesBouldineValuation.
).
increaseB
增加间隙准则模拟的参考数据集的数量。这种方法适用于clustering.evaluation.GapEvaluation
类。
的默认值'SearchMethod'
的名称-值对参数clustering.evaluation.GapEvaluation
对象现在总是如此'globalmaxse'
.
的默认值'SearchMethod'
的名称-值对参数clustering.evaluation.GapEvaluation
对象现在总是如此'globalmaxse'
并且不随值而改变'klist'
名称值对参数。
multcompare
函数multcompare
现在返回p- 对组手段的每对成对比较的价值。multcompare
返回p- 在其第一个输出参数的第六列中的值。这p-Value是个人比较是边界的总体意义水平。
第一个输出论点multcompare
现在有六列,而不是五列。第六列包含p价值。
表格
而不是数据集数组现在返回以下函数,方法和模型属性表格
而不是一个数据集
大批。
函数和方法 | 类 |
---|---|
xptread ,GRPSTATS. * |
N/A |
方差分析 |
linearmodel. |
devianceTest |
GeneralizedLinearMode l |
fixedEffects ,Randomeffects. |
linearmixedmodel. |
财产 | 类 |
---|---|
VariableInfo ,观察税收 ,变量 ,诊断 ,残差 ,系数 |
linearmodel. |
VariableInfo ,观察税收 ,变量 ,诊断 ,残差 ,安装 ,系数 |
GeneralizedLinearMode l |
VariableInfo ,观察税收 ,变量 ,诊断 ,残差 ,系数 |
NonLinearModel |
VariableInfo ,观察税收 ,变量 ,系数 ,ModelCriterion. |
linearmixedmodel. |
*GRPSTATS.
现在用输入类型匹配输出。
现在列出的函数和属性返回a表格
代替数据集
大批。您可以使用使用的数据集阵列将它们转换为DataSet阵列table2dataset
函数。
'空洞'
在kmeans
现在是'ingleton'
.的默认值'空洞'
名称 - 值对参数kmeans
函数是现在'ingleton'
.
设置价值'空洞'
来“错误”
,您必须明确指定'空洞','错误'
.
以下是分类和回归树、判别分析、最近邻、朴素贝叶斯分类和高斯混合模型的新函数。
新功能 | 替换 |
---|---|
fitcdiscr. |
ClassificationDiscriminant.fit |
Fitcknn. |
ClassificationKNN.fit |
fitctree |
ClassificationTree.fit |
fitrtree |
RegressionTree.fit |
FitnaiveBayes. |
naivebayes.fit. |
fitgmdist |
gmdistribution.fit |
templateDiscriminant |
ClassificationDiscriminant.template |
templateKNN |
ClassificationKNN.template |
templateTree |
ClassificationTree.template 或回归Tree.Template. |
makecdiscr. |
Classificationddiscriminant.make. |
功能 | 使用此功能时会发生什么? | 使用这个代替 | 兼容性考虑因素 |
---|---|---|---|
ClassificationDiscriminant.fit |
仍在运行 | fitcdiscr. |
替换事件ClassificationDiscriminant.fit 与fitcdiscr. . |
ClassificationKNN.fit |
仍在运行 | Fitcknn. |
替换事件ClassificationKNN.fit 与Fitcknn. . |
ClassificationTree.fit |
仍在运行 | fitctree |
替换事件ClassificationTree.fit 与fitctree . |
RegressionTree.fit |
仍在运行 | fitrtree |
替换事件RegressionTree.fit 与fitrtree . |
naivebayes.fit. |
仍在运行 | FitnaiveBayes. |
替换事件naivebayes.fit. 与FitnaiveBayes. . |
gmdistribution.fit |
仍在运行 | fitgmdist |
替换事件gmdistribution.fit 与fitgmdist . |
ClassificationDiscriminant.template |
仍在运行 | templateDiscriminant |
替换事件ClassificationDiscriminant.template 与templateDiscriminant . |
ClassificationKNN.template |
仍在运行 | templateKNN |
替换事件ClassificationKNN.template 与templateKNN . |
ClassificationTree.template 或回归Tree.Template. |
仍在运行 | templateTree |
替换事件ClassificationTree.template 或回归Tree.Template. 与templateTree . |
Classificationddiscriminant.make. |
仍在运行 | makecdiscr. |
替换事件Classificationddiscriminant.make. 与makecdiscr. . |
linearmixedmodel.
是一种用于拟合线性混合效果(LME)型号的新类。使用嵌套和/或交叉随机效果的拟合多级LME型号或LME模型fitlme.
或fitlmematrix.
函数。你可以:
使用公式符号或通过矩阵输入指定LME模型。
使用最大可能性(ml)或限制最大可能性(REML)的适合LME模型。
为随机效果指定协方差模式。
计算随机效应的最佳线性无偏预测因子(BLUPs)的估计。
对固定和随机效应执行自定义联合假设测试。
计算固定效果,随机效果和协方差参数的置信区间。
检查残留,诊断图,装配值和设计矩阵。
通过理论或模拟似然比检验比较两个不同的模型。
使用拟合的LME模型对新数据进行预测。
在新的设计点使用拟合的LME模型生成随机数据。
有关此对象的属性和方法,请参阅类页面linearmixedmodel.
.
现在支持代码生成的许多概率分布和描述性统计功能。万博1manbetx有关支持的完整统计信息箱™功能万博1manbetxMATLAB编码器,请参阅统计工具箱函数.
evalclusters
用于估计数据中最佳群集数的功能新功能evalclusters
估计各种标准值的最佳簇数,并返回对应于估计的最佳值的聚类解决方案。
您可以提供聚类解决方案,询问万博 尤文图斯evalclusters
使用其中一个内置的聚类算法,'kmeans'
,“链接”
,或“gmdistribution”
,或提供功能手柄。
以下标准可供选择:
Calinski-Harabasz (CH)指数
轮廓索引
统计的差距
davis - bouldin (DB)指数
mvregress.
函数现在接受一个设计矩阵,即使Y
有多个列mvregress.
现在接受A.n-经过-(p+ 1)设计矩阵X
,当响应Y
是一个n——- - - - - -d矩阵d> 1,在哪里n为观测次数,p是预测变量的数量,d是响应中的尺寸数量,以及X
包括用于截距(常量)术语的列。
统计工具箱现在为累积分布函数提供大尾概率计算。您可以使用尾随计算上尾概率'上'
以下函数中的参数:
提供
函数用于概率分布对象,由返回pd = makedist(distname)
或pd = fitdist (X, distname)
:
提供(pd, X,“上”)
提供
功能:
Y = cdf (X,“名字”,“上”)
Y = cdf(“名字”,X, A, B,“上”)
Y = cdf(“名字”,X, A, B, C,“上”)
特定于提供
功能:
分配 | 新语法 |
---|---|
β | p = betacdf(x,a,b,'上') |
一键 | y = binocdf(x,n,p,'上') |
卡方 | p = chi2cdf(x,v,'上') |
极值 | P = evcdf (X,μ、σ“上”)
|
幂数 | P = EXPCDF(x,mu,'上')
|
F | p = fcdf(x,v1,v2,'上') |
γ | p = gamcdf(x,a,b,'上')
|
几何 | y = geocdf(x,p,'上') |
广义极值 | P = gevcdf (X, k,σ,μ,“上”) |
广义帕累托 | P = gpcdf (X,σ,θ,“上”) |
超距离 | P = hygecdf (X, M, K, N,“上”) |
lognormal. | P = logncdf (X,μ、σ“上”)
|
负二项 | Y = nbincdf (X R P,“上”) |
偏心的F | P = ncfcdf (X, NU1 NU2,三角洲,“上”) |
非中央t | p = nctcdf(x,nu,delta,'上') |
非中央Chi-Square | p = ncx2cdf(x,v,delta,'上') |
普通的 | p = normcdf(x,mu,sigma,'上')
|
泊松 | P = poisscdf (X,λ,“上”) |
t | p = tcdf(x,v,'上') |
瑞利 | p = raylcdf(x,b,'上') |
均匀离散 | p = unidcdf(x,n,'上') |
连续均匀 | p = unidcdf(x,a,b,'上') |
威布尔 | p = wblcdf(x,a,b,'上')
|
Partialcorri.
与输入和输出不对称处理部分相关的功能新功能Partialcorri.
计算线性偏相关系数与内部调整。可以计算变量对之间的偏相关Y
和X
,调整中的其余变量X
,或在成对的变量之间Y
和X
,调整中的其余变量X
,首次控制两者之后X
和Y
对于Z
.
您还可以:
指定是否使用Pearson或Spearman部分相关性。
指定如何处理缺失值。
对单方或双边方案进行零相关假设检验。
线性模型和广义线性模型的拟合和逐步算法以及非线性模型的拟合算法都有新的函数。新功能如下。
新功能 | 替换 |
---|---|
Fitlm. |
linearmodel.fit. |
步骤行程 |
LinearModel.stepwise |
fitglm |
GeneralizedLinearModel.Fit. |
stepwiseglm |
GeneralizedLinearModel.Sweewwise |
fitnlm. |
NonLinearModel.fit |
功能 | 使用此功能时会发生什么? | 使用这个代替 | 兼容性考虑因素 |
---|---|---|---|
linearmodel.fit. |
仍在运行 | Fitlm. |
替换事件linearmodel.fit. 与Fitlm. |
LinearModel.stepwise |
仍在运行 | 步骤行程 |
替换事件LinearModel.stepwise 与步骤行程 |
GeneralizedLinearModel.Fit. |
仍在运行 | fitglm |
替换事件GeneralizedLinearModel.Fit. 与fitglm |
GeneralizedLinearModel.Sweewwise |
仍在运行 | stepwiseglm |
替换事件GeneralizedLinearModel.Sweewwise 与stepwiseglm |
NonLinearModel.fit |
仍在运行 | fitnlm. |
替换事件NonLinearModel.fit 与fitnlm. |
万博1manbetx支持向量机现在在统计工具箱中。训练支持向量万博1manbetx机分类器使用svmtrain
并使用svmclassify
.
新功能adt
进行安德森-达令拟合优度测试。adt
可以执行:
简单测试:对指定参数的特定分布进行测试。你可以测试任何连续的单变量参数分布。
组合测试:对指定的分布族进行测试(也称为综合测试)。可以用正态分布、指数分布、极值分布、对数正态分布或威布尔分布族进行测试。
改善了决策树的训练速度及其合奏。在使用该决策树集合中最好看到改进fitensemble
功能或treebagger
类。
提高效率treebagger
在并行模式中使用时。
您可以使用使用的决策树中保存的代理拆分数'代理'
的名称-值对参数适合
和模板
的方法ClassificationTree
和回归植物
类。
ClassificationTree.fit
和ClassificationTree.template
提供几种启发式方法,用于在多个层次的分类预测器上进行分割。使用“AlgorithmForCategorical”
名称 - 值对参数指定算法查找最佳拆分和'maxcat'
参数的名称-值对指定允许的最大类别数目。
scatterhist
函数这scatterhist
函数具有以下名称-值对参数:
'团体'
允许您指定分组变量并生成分组的散点图。
'核心'
允许您使用分组的内核密度图,而不是边际分布的整体直方图。
其他选项允许您更改颜色,行属性,图例等。
这些函数现在接受额外的误差模型和固定或拟合相关的权重。
其他功能更改是:
disp
(NonLinearModel
方法)仅显示可估计系数,并显示南
对于无数系数。
英国《金融时报》(NonLinearModel
方法)自动决定是否将完整模型与截距或零进行比较。
NonLinearModel
属性,如诊断
,残差
,loglikelihie
,上席
,SST.
占权重和错误模型。
有三种新的分类增强算法:
RUSBoost(通过随机unders采样增强)用于不平衡数据(其中一个类具有比另一类观察更多的数据)。
LPBoost.(线性规划)TotalBoost(完全纠正升级)自终止,可以导致稀疏的合并,可用于多批准升压。
对于毛刺型XII分布,即实线上连续分布的三参数族,提出了一种新的概率分布对象。使用Fitdist.
将这个分布与数据拟合。使用ProbDistUnivParam
直接指定分发参数。任一函数都会产生分发,您可以用于生成随机样本或计算函数,例如pdf
和提供
.
这系统树图
函数具有重新排序分层二进制群集树的节点的新选项:
这重新订购
选项允许您为树木图中的节点顺序指定排列矢量。
这验证
选项检查所请求的置换矢量是否导致在树木图中交叉分支。
功能OptimAlleafOrder.
生成节点的最佳置换。
linearmodel.
诊断中的诊断诊断
数据集阵列linearmodel.
对象以新的顺序,不再出现在变量编辑器中。新订单是:
杠杆作用
煮熟
Dffits
S2_I.
科罗拉蒂奥
Dfbetas
Hatmatrix.
要访问正确的诊断,您应该更新索引Diagnostics DataSet数组列按号码的任何代码。
linearmodel.
是一个用于执行线性回归的新类。linearmodel.fit.
创建一个模型:
让你用分类和连续预测变量来拟合模型
包含有关拟合质量的信息,如残差和方差分析表
让你轻松地绘制契合
允许自动或手动排除不重要的变量
为降低离群值的影响实现稳健拟合
允许您使用符号公式指定二次型和其他模型
启用逐步模型选择
使用普遍的线性和非线性建模存在类似的改进GeneralizedLinearModel.
和NonLinearModel
类。详情请参阅参考资料中的类参考页,或线性回归,逐步回归,稳健回归-减少离群值影响,广义线性回归,或非线性回归在用户指南中。
这lassoglm.
功能正常化广义线性模型。使用lassoglm.
在广义线性回归中检验模型的可选性,限制或去除冗余或不重要的变量。具体操作请参见函数参考页面广义线性模型的套索正则化在用户指南中。
ClassificationKNN.fit
创建执行的分类模型k- 最终邻居分类。您可以使用交叉验证或重新提交检查模型的质量。有关详细信息,请参阅ClassificationKNN
页面中的页面,或使用最近邻进行分类在用户指南中。
ClassificationDiscriminant
模型现在有两个参数,γ
和三角洲
,用于正常化并降低变量的数量。放γ
正则化判别式。放三角洲
消除变量。使用cvshrink.
获得最佳γ
和三角洲
参数交叉验证。详情请参阅参考页,或正规化判别分析分类器在用户指南中。
这ClassificationTree
预测
方法现在选择具有最小预期错误分类成本的课程。以前,它选择了最大后概率的课程。新行为与之一致cvloss.
方法。此外,这两个ClassificationDiscriminant
和ClassificationKNN
预测使用最小预期的错误分类成本。有关详细信息,请参见预测
和损失
.
如果你使用非默认成本矩阵,一些ClassificationTree
分类预测可能与以前的版本有所不同。
你现在可以使用ClassificationDiscriminant
和CompactClassificationDiscriminant
通过判别分析进行分类的课程。语法和方法类似于现有的ClassificationTree
和CompactClassificationTree.
类。这ClassificationDiscriminant
类包括函数的功能分类
函数。ClassificationDiscriminant
提供了几个优点相比分类
功能:
在拟合了一个分类器之后,无需重新拟合就可以进行预测。
ClassificationDiscriminant
是建立在相同的框架上ClassificationTree
,因此您有各种选项和方法,包括:
交叉验证
Resubstitution统计
成本函数的选择
加权分类
ClassificationDiscriminant
可以适合几种型号,包括线性,二次和线性或与伪素的直链或二次。
有关详细信息,请参见判别分析.
这rangesearch
函数查找数据集中与另一个数据集的成员在指定距离内的所有成员。与knnsearch.
函数,您可以设置各种距离度量,或编写自己的程序。rangesearch
有同行是方法的令人疲惫的
和kdtreesearcher.
类。
这fracfactgen
功能现在允许52.
因素,而不是以前的极限26
的因素。使用“一个”
通过“z”
为了第一26
因素和“一个”
通过“Z”
剩下的因素。
fracfact
现在检查任意水平的相互作用在混淆,而不是以前的限制混淆至多两个因素的产物。s manbetx 845设置Maxint.
名称 - 值对您想要的交互级别。您还可以使用使用的因素设置名称FactorNames
名称-值对。
对于R2011b,错误和警告消息标识符已在统计工具箱中更改。
如果您有使用已更改的消息标识符的脚本或函数,则必须更新代码以使用新的标识符。通常,消息标识符用于关闭特定的警告消息,或者在使用尝试
/抓住
语句并根据特定错误标识符执行操作。
例如,如果你使用“resubstitution”
方法,'统计数据:plsregress:InvalidMcreps'
标识符已更改为“统计数据:plsregress: InvalidResubMCReps”
.如果你使用“resubstitution”
方法和您的代码检查'统计数据:plsregress:InvalidMcreps'
,您必须更新它以检查“统计数据:plsregress: InvalidResubMCReps”
反而。
要确定警告的标识符,请在查看警告后运行以下命令:
[味精,是否]= lastwarn;
此命令将消息标识符保存到变量msgid.
.
要确定错误的标识符,请在查看错误后运行以下命令:
异常= MException.last;是否= exception.identifier;
小费警告消息指出代码的潜在问题。虽然可以关闭警告,但建议的替代方法是更改代码,使其无警告运行。 |
新fitensemble
函数构造决策树的集合。它提供了:
几种流行的助推算法(AdaBoostM1
,AdaBoostM2
,GentleBoost
,LogitBoost
,RobustBoost
)分类
最小二乘升压(LSBoost
)回归
最多treebagger
集成袋装决策树的功能
还有一种改进的分类界面接口(ClassificationTree
)及回归树(回归植物
),包括的功能classregtree
.
有关详细信息,请参见合奏方法.
这连锁
和clusterdata.
函数有一个新的savememory
选项可以使用更少的内存而不是以前。和savememory
设置'在'
,功能不构建成对距离矩阵,因此使用较少的内存,并且根据问题大小,可以使用更少的时间。你可以使用savememory
选项:
联系方法
是“沃德”
,“重心”
,或“中值”
距离的联系度规
是'euclidean'
(默认)
有关详细信息,请参阅连锁
和clusterdata.
功能参考页面。
这nlmefit.
和nlmefitsa.
函数现在提供适合的条件加权残差。使用这些信息来评估模型的质量;看到示例:检查用于模型验证的残差.
这实例化
选项
结构包括“DerivStep”
,这使您能够为梯度估计设置有限差异。
如果二项回归模型中的两个类别(例如Logit.
或probit
)完美分开,最佳拟合模型是无限系数的退化。在这种情况下,glmfit
函数很可能超过其迭代限制。glmfit
现在尝试检测这个完美的分离并显示诊断消息。
新的滤波算法,relieff
,基于最近的邻居。Creieff算法通过计算本地标签上的类标签(或真实响应)上的每个预测器的效果来计算预测器之间的相关性,然后在整个预测空间上集成这些本地估计。
这nlmefit.
BIC.
计算已经改变了。现在自由度的价值是基于群体的数量而不是观察的数量。这与BIC.
定义使用nlmefitsa.
函数。
两个都nlmefit.
和nlmefitsa.
将估计的误差参数存储在errorparm.
输出场统计
结构。这rmse
该结构的字段现在包含所有错误模型的根均方剩余;在日志比例上计算此值幂数
模型。
在之前的版本中rmse
使用领域nlmefitsa.
均方残差和估计误差参数。中适当的字段,如果有必要,请更改代码统计
结构。
如上所述nlmefit支万博1manbetx持错误模型,nlmefitsa更改,nlmefit.
现在计算不同BIC.
值大于以前的版本。
treebagger
和CompactTreeBagger
课程有两个新的房产:
nvarsplit.
为每个预测器变量提供决策分割的数量。
VarAssoc
提供对预测变量之间关联的度量。
分布拟合GUI (dfittool.
)现在允许您导出适合MATLAB工作空间作为概率分布适合对象。有关更多信息,请参见使用配电拟合工具建模数据.
如果加载使用以前版本的Statistics Toolbox创建的分布适配会话,则无法保存现有适配。再次适合分发以启用保存。
partialcorr
现在接受一个新的语法,rho = partialcorr(x)
,返回中变量对之间的样本线性偏相关系数X
,控制中其余的变量X
.有关更多信息,请参见函数参考页面。
Bootci.
有一个新的输出选项,它返回为每个计算的引导统计NBoot
Bootstrap复制样本。有关更多信息,请参见函数参考页面。
统计工具箱现在支持以下函数并行执行:万博1manbetx
有关统计信息工具箱中并行计算的更多信息,请参见支持重采样方法的并行计算万博1manbetx.
dataset.unstack
通过将高数据集数组中的一个变量“解叠加”为宽数据集中的多个变量,将高数据集数组转换为宽数据集格式的等效数据集数组。dataset.stack.
通过将宽数据集数组中的多个变量“叠加”成高数据集中的单个变量,将宽数据集数组转换为高数据集格式的等效数据集数组,从而反转此操作。
Statistics Toolbox现在支持以万博1manbetxSAS Transport (.xpt)格式导入和导出文件。有关更多信息,请参见xptread
和dataset.export
参考页面。
一个增强的dataset.join
方法提供其他类型的加入操作:
加入
现在可以执行更复杂的内部和外部连接操作,以允许数据集数组之间的多对多通信吗一个
和B
,并允许在任何一种中取消匹配的观察一个
或B
.
加入
可以是类型
“内心”
,“leftouter”
,“rightouter”
,“fullouter”
,或'外'
(这是一个同义词“fullouter”
).对于内部连接,数据集数组,C
,仅包含对应于两者中发生的关键值的组合对应的观察一个
和B
.对于左(或右)外连接,C
还包含对应于键的观察一个
(要么B
)与任何不匹配B
(要么一个
).
加入
现在可以返回指示指示观察之间的对应的索引向量C
和那些一个
和B
.
加入
现在支持万博1manbetx使用多个键。
加入
现在支持万博1manbetx一个可选参数来指定丢失的键行为,而不是引发错误。
一个增强的dataset.export
方法现在支持直接导出到万博1manbetx微软®excel.®文件。
新分类对象,treebagger
和CompactTreeBagger
,通过引导聚合(袋装)提供改进的性能。
包括Breiman的“随机森林”方法。
增强classregtree
有更多的选择来种植和修剪树木。
这ksdensity
函数对于审查时间超过最后观察值的情况可能给出不同的答案。在这种情况下,ksdensity
通过在一个折叠点上折叠核函数来减少其密度估计的偏差,这样它们就不会延伸到被完全截掉的区域。在这个版本中有两个变化:
在以前的释放中,折叠点是最后一个观察到的值。在此版本中,它是最后一个观察到的值后的第一次审查时间。
折叠过程不仅适用“函数”
参数是“pdf”
,但对于所有人来说“函数”
值。
这箱形图
函数具有处理多个分组变量和极端离群值的新选项。
下面的可视化函数现在具有自定义数据游标,显示观测号、组号以及相关变量的值等信息:
更改箱形图
已经改变了一些默认行为:
框标签现在被绘制为文本对象而不是刻度标签。任何通过更改刻度线标记自定义框标签的代码现在应该设置勾选位置以及刻度标签。
该函数不再返回具有固定号码处理的句柄数组,以及句柄的顺序和含义现在取决于选择哪些选项。要找到感兴趣的手柄,请搜索其“标签”
财产的使用findobj
.“标签”
框绘图组件的值列在上面箱形图
参考页面。
现在有了离群值的有效句柄,即使在没有离群值的情况下。在以前的版本中,函数返回的句柄数组有南
当盒子没有异常值时,用值代替句柄。现在,'xdata'
和'ydata'
对于异常值南
当没有异常值的时候。
小团体,'缺口'
参数有时会产生延伸到盒外的缺口。在之前的版本中,缺口被截断到盒子的程度,这可能会产生误导的显示。的新值'标记'
对于此参数,避免显示问题。
因此,ANOVA1
函数为分组数据显示有缺口的盒图,它可能显示扩展到盒外的缺口。
Bootstrap置信区间由Bootci.
现在对于粗糙的数据更加精确。
的公式Bootci.
类型的置信区间“bca”
或'COL'
涉及比观察到的统计数据的引导统计量的比例。该公式现在考虑到有许多引导统计数据完全等于观察到的统计的情况。
新gmdistribution
类代表高斯混合物分布,随机点来自不同的多元正常分布,具有某些概率。这gmdistribution
构造函数使用指定的方法、协方差和混合比例创建混合模型,或通过将具有指定数量组件的混合模型拟合到数据中。类的方法包括:
这簇
分层群集的函数现在接受截止值的向量,并返回群集分配的矩阵,每个截止值一个列。
这kmeans
函数现在返回一个长度为簇索引的向量n, 在哪里n输入数据矩阵的行数是多少X
,即使X
包含南
值。在过去,一排排X
与南
忽略了值,并且群集指数的向量相应地减小了大小。现在群集指数的向量包含南
已忽略行的值,与其他工具箱功能一致。
这键糟
函数现在使用更精确的方法来计算p-单样本Kolmogorov-Smirnov测试值。
键糟
现在比较一下p-Value到所需的截止,而不是将测试统计值与值表进行比较。结果可能与先前版本中的结果不同,特别是对于过去使用渐近式的双面试验中的小样本。
一些概率函数现在已经提高了精度,特别是对于极端的参数值。功能有:
Function-style语法Paretotails.
对象已被删除。
对上面列出的概率函数的更改可能导致不同的,但比以前的版本更准确的输出。
在以前的版本中,该表单的语法obj(x)
为一个Paretotails.
对象obj.
调用这件事提供
方法。此语法现在会产生警告。要评估累积分布函数,请使用语法提供(obj, x)
.
新corrcov
函数将协方差矩阵转换为相应的相关矩阵。
这mvregress.
函数现在支持要强制估计的协万博1manbetx方差矩阵为对角线的选项。
在以前的版本中mvregress.
函数,当使用'cwls'
算法,估计系数的协方差COVB
使用响应的估计协方差,而不是初始协方差Sigma.
.最初的Sigma.
现在使用,和COVB
与依赖于初始和最终估计之间的差异的程度不同Sigma.
.
新Paretotails.
物体可用于建模分布,具有经验CDF或类似的分布在尾部中的中心和广义帕圈曲面分布。
这Paretotails.
函数将数据样本转换为Paretotails.
目的。这些对象对于从类似于数据的分布生成随机样本,而是具有比实证分布的离散的尾部行为。
对象的Paretotails.
类被用于处理分段分布万博1manbetx的各种新方法所支持。
这Paretotails.
类提供类函数行为,因此p (x)
评估的CDFp
在价值观上x
.
新mvregresslike.
函数是一个实用程序mvregress.
函数拟合回归模型的多元数据的缺失值。新的函数计算目标(对数似然)函数,也可以计算估计的协方差矩阵的参数估计。
新classregtree
对象可用于创建和分析分类和回归树。
对象的classregtree
类旨在与上面列出的分类和回归树函数以先前版本中生成的结构阵列兼容。特别是,classregtree
万博1manbetx支持表单的点索引T.Property.
要获取对象的属性t
.该类还通过括号索引提供类似函数的行为,这样t(x)
使用树t
分类或计算预测器的拟合值x
,而不是指数t
作为过去的结构阵列。结果,Cell阵列现在应该用于聚合classregtree
对象。
新scatterhist
功能产生2D数据的散点图,并通过沿两个轴绘制直方图来说明变量的边际分布。该功能对于查看由诸如的功能产生的随机样本的属性也很有用copularnd.
,mvnrnd.
,lhsdesign
.
已添加以下可视化功能,常用于实验设计中,已添加:
interactionplot
- 平均值的双因素交互曲线
maineffectsplot
-主要影响图为平均值
多元曲线
- Multivari图的平均值
增加或改进了假设检验的以下功能:
Jbtest.
替换测试统计量的卡方近似,这是渐近的,用一个更精确的算法插值p- 来自量级表的值。一个新的选项允许您运行Monte Carlo模拟以计算p表外的值。
lillietest
-使用Lilliefors分位数表的改进版本,覆盖更广泛的样本大小和显著性水平,具有更准确的值。新的选项允许您测试指数分布和极值分布,以及正态分布,并运行蒙特卡罗模拟来计算p表外的值。
runstest
- 添加测试以上方或低于指定值的运行的现有测试。
sampsizepwr
- 计算测试所需的示例大小的新功能,以具有指定的电源。选项可用于选择各种测试类型。
如果某项测试的显著性水平不在表列值的范围内,[0.001,0.5],则两者都是Jbtest.
和lillietest
现在返回错误。在以前的版本中,Jbtest.
返回一个近似p价值和lillietest
返回一个超出较小范围[0.01,0.2]的错误。错误消息建议使用新的蒙特卡罗选项来计算表列值范围之外的值。
如果测试的数据样本导致p-Value在制表值范围之外,然后是两者Jbtest.
和lillietest
现在返回,带有警告,最小或最大的表格值。在以前的版本中,Jbtest.
返回一个近似p价值和lillietest
返回南
.
以下新功能巩固和扩展了现有的统计过程控制功能:
能力
—计算的概率和能力指标范围比有能力的
在以前的版本中找到的功能
controlchart
-显示的控制图范围比ewmaplot
,schart
,XBarplot.
在以前的版本中找到的功能
controlrules
-补充新的controlchart
功能通过提供更广泛的控制规则(西部电气和纳尔逊)
gagerr
- 对操作员和部分分组的测量进行量度重复性和再现性研究
这能力
函数包容有能力的
以前版本的统计工具箱软件中出现的函数,以及controlchart
函数包含函数ewmaplot
,schart
,XBarplot.
.为了向后兼容,旧函数仍保留在工具箱中,但它们不再被文档记录或支持。万博1manbetx
新功能已添加到工具箱中,允许您使用Copulas来模拟相关的多变量数据并从多变量分布生成随机数。
Copulacdf.
- copula的累积分布函数
copulaparam
- Copula参数作为等级相关性的函数
copulapdf
- copula的概率密度函数
copularnd.
- 来自copula的随机数
Copulastat
-一个copula的等级相关
下面的函数使用马尔可夫链蒙特卡罗方法从非标准分布中生成随机数:
mhsample
—使用metropolis - hastings算法生成随机数
slicesample.
—使用切片采样算法生成随机数
工具箱已添加以下演示:
曲线配件和配电配件
使用累积概率拟合单变量分布
使用主成分分析拟合正交回归
用广义帕吻码分布建模尾数据
通过转变为线性拟合非线性模型的陷阱
加权非线性回归
以下演示已更新:
使用广义极值分布建模数据
新partialcorr
功能计算一组变量的相关性,同时控制第二组变量。
这GRPSTATS.
功能现在计算用于分组数据的更广泛的描述性统计信息。选择包括平均值,元素数量,元素数,组名,标准偏差,方差,置信区分的平均值,置信区间,以及新观测的置信区间。该函数还支持计算用户定义的统计信息。万博1manbetx
新chi2gof
功能测试如果样本来自指定的分布,则使用Chi-Square测试统计信息来替换它不来自该分布的替代方案。
已添加三个功能以测试样本差异:
新ansaribradley
如果两个独立的样本来自相同的分布,则进行功能测试,对比它们来自具有相同中值和形状但方差不同的分布。
新runstest
函数测试一个值序列是否以随机顺序出现,而不是以非随机顺序出现。
释放 | 具有兼容性注意事项的功能或更改 |
---|---|
R2016A | |
R2015B. | |
R2015A. | |
R2014B. | 没有一个 |
R2014A | |
R2013B. | 没有一个 |
R2013A | 概率分布增强 |
R2012B. | |
R2012A. | |
R2011B. | 转换错误和警告消息标识符 |
R2011A. | 没有一个 |
R2010B. | |
R2010A | 没有一个 |
R2009B. | 没有一个 |
r2009a. | 没有一个 |
R2008B. | |
r2008a. | 描述性统计 |
R2007b | |
R2007a | |
R2006B. | |
R2006A. | 没有一个 |
R14SP3. | 没有一个 |
R14SP2. | 没有一个 |
您单击了与此MATLAB命令对应的链接:
在MATLAB命令窗口中输入它来运行命令。Web浏览器不支持MATLAB命令。万博1manbetx
你也可以从以下列表中选择一个网站:
选择中国网站(以中文或英文)以获取最佳网站性能。其他MathWorks国家网站未优化您的位置。