主要内容

模型的建立与评估

特征选择、模型选择、超参数优化、交叉验证、残差诊断和绘图

在构建高质量的回归模型时,选择正确的特征(或预测器),调整超参数(模型参数不适合数据),并通过残差诊断评估模型假设是很重要的。

您可以通过在为超参数选择值之间进行迭代,并使用您的选择交叉验证模型来优化超参数。这个过程产生多个模型,其中最好的模型可以是最小化估计泛化误差的模型。例如,要调整支持向量机模型,选择一组框约束和核尺度,对每个值对交叉验证模型,然后比较它们的10倍交叉验证均方误差估计。

在统计和机器学习工具箱™某些非参数回归函数还提供了通过贝叶斯优化,网格搜索,或随机搜索自动超参数调整。但是,bayesopt,它是实现贝叶斯优化的主要函数,对于许多其他应用程序来说,它足够灵活。有关详细信息,请参见贝叶斯优化工作流程

要自动选择与调整超参数,使用模型fitrauto.该函数尝试选择具有不同超参数值的回归模型类型,并返回预期性能良好的最终模型。使用fitrauto当您不确定哪种回归模型类型最适合您的数据时。

要构建和交互评估回归模型,使用回归的学习者应用程序。

要解释一个回归模型,您可以使用石灰沙普利,plotPartialDependence

应用程序

回归的学习者 火车回归模型使用监督机器学习预测数据

功能

展开所有

fsrftest 单变量特征排序的回归使用F-tests
fsrnca 特征选择使用邻域成分分析回归
oobPermutedPredictorImportance 预测变量重要性估计通过了球袋预测观测排列为回归树的随机森林
partialDependence 计算部分依赖
plotPartialDependence 创建局部依赖图(PDP)和个体条件期望(ICE)地块
predictorImportance 对回归树预测因子重要性的估计
predictorImportance 预测的重要性估计回归集成
relieff 使用ReliefF或RReliefF算法对预测因子的重要性进行排序
序列 使用自定义的标准顺序特征选择
stepwiselm 执行逐步回归
stepwiseglm 创建逐步回归广义线性回归模型
fitrauto 自动选择超参数优化的回归模型
bayesopt 使用贝叶斯优化选择最优的机器学习超参数
hyperparameters 变量描述用于优化拟合函数
optimizableVariable 变量描述bayesopt或其他优化
crossval 采用交叉验证估计损失
cvpartition 对于交叉验证分区数据
重新分区 对于交叉验证重新分配数据
测试 交叉验证试验指标
训练 交叉验证的培训指标

本地可解释模型不可知解释(LIME)

石灰 当地解释的模型无关的解释(LIME)
适合 拟合局部可解释模型不可知论解释(LIME)的简单模型
情节 局部可解释模型不可知解释(LIME)的图结果

沙普利值

沙普利 沙普利值
适合 计算查询点的Shapley值
情节 剧情沙普利值

部分依赖

partialDependence 计算部分依赖
plotPartialDependence 创建局部依赖图(PDP)和个体条件期望(ICE)地块
coefCI 线性回归模型系数估计的置信区间
coefTest 线性回归模型系数的线性假设检验
dwtest 线性回归模型对象的德宾-沃森检验
情节 线性回归模型的散点图或添加变量图
plotAdded 增加了线性回归模型的变量图
plotAdjustedResponse 线性回归模型的调整响应曲线
plotDiagnostics 绘制线性回归模型的观察诊断图
plotEffects 在线性回归模型中绘制预测因子的主要作用
plotInteraction 在线性回归模型中绘制两个预测因子的交互作用
plotResiduals 线性回归模型的残差地块
plotSlice 通过拟合的线性回归曲面绘制切片图
coefCI 广义线性回归模型的系数估计值的置信区间
coefTest 广义线性回归模型系数的线性假设检验
devianceTest 越轨行为的分析广义线性回归模型
plotDiagnostics 绘制广义线性回归模型的观察诊断图
plotResiduals 绘制广义线性回归模型的残差
plotSlice 通过拟合的广义线性回归曲面绘制切片图
coefCI 非线性回归模型的系数估计值的置信区间
coefTest 非线性回归模型系数的线性假设检验
plotDiagnostics 非线性回归模型的情节诊断
plotResiduals 绘制非线性回归模型的残差
plotSlice 通过拟合的非线性回归曲面绘制切片图
linhyptest 线性假设检验

对象

展开所有

PeazereSentionncarebortion 特征选择用于使用邻里成分分析回归(NCA)
BayesianOptimization 贝叶斯优化结果

主题

回归学习应用工作流

在回归学习者应用程序中训练回归模型

用于培训、比较和改进回归模型的工作流,包括自动化、手动和并行培训。

选择回归模型选项

在回归学习中,自动训练模型的选择,或比较和调整线性回归模型,回归树,支持向量机,高斯过程回归模型,回归树的集合,回归神经网络的选项。万博1manbetx

使用回归学习软件进行特征选择和特征转换

使用地块识别有用的预测,手动选择功能,包括和变换回归学习者使用PCA功能。

评估模型性能的回归学习

比较模型统计和可视化结果。

特征选择

特征选择简介

了解特征选择算法并探索特征选择可用的功能。

顺序特征选择

本主题引入了顺序特征选择和提供了选择功能依次使用自定义标准和示例序列功能。

邻域成分分析(NCA)特征选择

邻域分量分析(NCA)是一种非参数的特征选择方法,其目标是最大限度地提高回归和分类算法的预测精度。

使用NCA进行回归的强大功能选择

执行特征选择是稳健的使用NCA定制稳健损失函数的异常值。

选择用于预测指标随机森林

选择拆分,预测使用交互测试算法随机森林。

自动模型选择

基于贝叶斯优化的自动回归模型选择

使用fitrauto在给定训练预测器和响应数据的情况下,自动尝试选择具有不同超参数值的回归模型类型。

HyperParameter优化

贝叶斯优化工作流程

使用fit函数或调用bayesopt直接。

变量优化贝叶斯

创建贝叶斯优化变量。

贝叶斯优化目标函数

为贝叶斯优化创建目标函数。

贝叶斯优化中的约束条件

为贝叶斯优化设置不同类型的约束。

优化增强回归集成

最小化回归集成的交叉验证损失。

贝叶斯优化绘图函数

可视化地监控贝叶斯优化。

贝叶斯优化输出函数

监控贝叶斯优化。

贝叶斯优化算法

了解贝叶斯优化的基本算法。

平行的贝叶斯优化

如何贝叶斯优化并行工作。

模型的解释

解释机器学习模型

用以下方法解释模型预测石灰沙普利,plotPartialDependence

机器学习模型的Shapley值

计算值沙普利使用两种算法机器学习模型:kernelSHAP和扩展kernelSHAP。

交叉验证

使用并行计算实现交叉验证

使用并行计算加速交叉验证。

线性模型诊断

解读线性回归结果

显示和解释线性回归输出统计数据。

线性回归

拟合线性回归模型并检验结果。

具有交互作用的线性回归

构建和分析线性回归模型的互动效果和解释结果。

输出和诊断统计的摘要

评估通过使用模型的属性和对象函数的拟合模型。

F-统计和t-统计

线性回归,将Ft-统计为的方差分析(ANOVA)方法进行分析,以测试该模型的显着性或模型中的组件的检验统计量。当t-statistic对于推断回归系数是有用的。

测定的系数(R平方)

决定系数(r平方)表示响应变量的变化量的比例y由自变量来解释X线性回归模型。

标准误差和置信区间

估计系数方差和协方差捕捉回归系数估计的精度。

残差

残差是用于检测外围有用y值并检查线性回归假设相对于在回归模型中的误差项。

Durbin-Watson测试

德宾一沃森测试考生是否有时间序列数据的残差之间的自相关。

库克的距离

库克距离对于识别异常值很有用X值(预测变量的观察值)。

帽子矩阵和杠杆

帽子矩阵提供了杠杆的度量。

Delete-1统计

在协方差删除-1的变化(CovRatio)确定对回归拟合有影响的观察结果。

广义线性模型诊断

广义线性模型

广义线性模型使用线性方法来描述预测项和响应变量之间潜在的非线性关系。

非线性模型诊断

非线性回归

参数非线性模型代表一个连续反应变量和一个或多个连续的预测变量之间的关系。