主要内容

La traducción de esta página está obsoleta。Haga clic aquí para ver la última versión en inglés。

Desarrollo y evaluación de modelos

Selección de características, selección de modelos, optimización de hiperparámetros, validación cruzada, diagnósticos de valores residales y gráficas

Al desarrollar un modelo de regresión de alta calidad, es importante seleccionar las características (o predictores) correctos, ajustar los hiperparámetros (parámetros del modelo no ajustados a los datos) y evaluar los supuestos del modelo a través de diagnósticos de valores residales。

天堂之星hiperparámetros中间的iteraciones entre la selección de los valores para los mismos y la realización de una validación cruzada de un modelo con sus propias opciones。Este proeso arroja变化的模型和主要的puede ser el que最小误差generalización估计。Por ejemplo, para ajustar un model - SVM, elija un conjunto de restricciones de cajas y escalas de kernel, realice una validación cruzada de modelo para cada par de valores y, después,比较las estimacones de los error cuadráticos medios con validación cruzada de 10迭代。

Determinadas funciones de regresión no paramétricas de Statistics and Machine Learning Toolbox™ofrecen además un ajuste automático de los hiperparámetros mediante optimización bayesiana, búsqueda por cuadrículas o búsqueda aleatoria。罪禁运,bayesopt, que es la función主要para implementar la optimización bayesiana, es lo充分性灵活para muchas otras aplicaciones。Para obtener más información, consulte贝叶斯优化流程

Para seleccionar automáticamente un modelo con hiperparámetros ajustados, utilicefitrauto.La función prueba una selección de tipos de modelos de regresión con valores en los hiperparámetros y deuelve un modelo final que se prevé que funcione bien。Utilicefitrauto我们没有办法保护我们的权利regresión我们有办法保护我们的权利。

Para desarrollar y评估模型regresión形式上的交互,应用程序回归的学习者

Para interpretar un modelo de regresión, puede utilzar石灰沙普利yplotPartialDependence

应用程序

回归的学习者 使用监督机器学习训练回归模型来预测数据

一些必要

expandir待办事项

fsrftest 用于回归的单变量特征排序F测试
fsrnca 使用邻域成分分析进行回归的特征选择
oobPermutedPredictorImportance 通过对随机森林的回归树的袋外预测器观测的排列估计预测器重要性
partialDependence 计算部分依赖关系
plotPartialDependence 创建部分依赖图(PDP)和个别条件期望图(ICE)
predictorImportance 回归树预测因子重要性的估计
predictorImportance 回归集合预测因子重要性的估计
relieff 使用ReliefF或RReliefF算法对预测因子的重要性进行排序
sequentialfs 使用自定义标准的顺序特征选择
stepwiselm 执行逐步回归
stepwiseglm 通过逐步回归建立广义线性回归模型
fitrauto 自动选择超参数优化的回归模型
bayesopt 使用贝叶斯优化选择最优的机器学习超参数
hyperparameters 优化拟合函数的变量描述
optimizableVariable 变量描述bayesopt或其他优化器
crossval 使用交叉验证估计损失
cvpartition 为交叉验证划分数据
重新分区 重新划分数据以进行交叉验证
测验 交叉验证的测试指标
培训 交叉验证的训练指标

本地可解释的模型独立解释(LIME, por sus siglas en inglés)

石灰 局部可解释模型不可知解释(LIME)
适合 局部可解释模型不可知解释(LIME)拟合简单模型
情节 局部可解释模型不可知解释(LIME)的图结果

Valores de Shapley

沙普利 沙普利值
适合 计算查询点的Shapley值
情节 Plot Shapley价值观

Dependencia parcial

partialDependence 计算部分依赖关系
plotPartialDependence 创建部分依赖图(PDP)和个别条件期望图(ICE)
coefCI 线性回归模型系数估计的置信区间
coefTest 线性回归模型系数的线性假设检验
dwt 以线性回归模型为对象的Durbin-Watson检验
情节 线性回归模型的散点图或加变量图
plotAdded 增加了线性回归模型的变量图
plotAdjustedResponse 线性回归模型调整后的响应图
plotDiagnostics 线性回归模型的小区观测诊断
plotEffects 在线性回归模型中绘制预测因子的主要效应
plotInteraction 线性回归模型中两个预测因子的交互作用
plotResiduals 线性回归模型残差图
plotSlice 通过拟合的线性回归曲面绘制切片图
coefCI 广义线性回归模型系数估计的置信区间
coefTest 广义线性回归模型系数的线性假设检验
devianceTest 广义线性回归模型的偏差分析
plotDiagnostics 广义线性回归模型的图观测诊断
plotResiduals 广义线性回归模型残差图
plotSlice 通过拟合的广义线性回归曲面绘制切片图
coefCI 非线性回归模型系数估计的置信区间
coefTest 非线性回归模型系数的线性假设检验
plotDiagnostics 非线性回归模型的图诊断
plotResiduals 非线性回归模型的残差图
plotSlice 通过拟合的非线性回归曲面绘制切片图
linhyptest 线性假设检验

Objetos

expandir待办事项

FeatureSelectionNCARegression 使用邻域成分分析(NCA)进行回归的特征选择
BayesianOptimization 贝叶斯优化结果

特马

Flujo de trabajo de la app回归学习者

在回归学习应用程序中训练回归模型

用于训练、比较和改进回归模型的工作流,包括自动、手动和并行训练。

选择回归模型选项

在回归学习器中,自动训练选择的模型,或比较和调整线性回归模型、回归树、支持向量机、高斯过程回归模型、回归树集合和回归神经网络的选项。万博1manbetx

使用回归学习应用程序进行特征选择和特征转换

使用图表识别有用的预测因子,手动选择要包含的特征,并在回归学习者中使用PCA转换特征。

评估回归学习者的模型性能

比较模型统计数据并可视化结果。

Selección de características

特征选择简介

了解特征选择算法,并探索可用于特征选择的功能。

顺序特征选择

本主题介绍了顺序特征选择,并提供了使用自定义标准和顺序选择特征的示例sequentialfs函数。

邻域成分分析(NCA)特征选择

邻域成分分析(NCA)是一种以最大化回归和分类算法预测精度为目标的特征选择的非参数方法。

使用NCA进行回归的鲁棒特征选择

在NCA中使用自定义鲁棒损失函数执行对异常值鲁棒的特征选择。

选择随机森林的预测器

利用交互测试算法选择随机森林的分裂预测因子。

Selección自动模型

基于贝叶斯和ASHA优化的自动回归模型选择

使用fitrauto在给定训练预测器和响应数据的情况下,自动尝试具有不同超参数值的回归模型类型。

Optimización de hiperparámetros

贝叶斯优化流程

使用拟合函数或调用来执行贝叶斯优化bayesopt直接。

贝叶斯优化的变量

为贝叶斯优化创建变量。

贝叶斯优化目标函数

创建贝叶斯优化的目标函数。

贝叶斯优化中的约束

为贝叶斯优化设置不同类型的约束。

优化一个增强的回归集合

最小化回归集合的交叉验证损失。

贝叶斯优化图函数

可视化地监视贝叶斯优化。

贝叶斯优化输出函数

监视贝叶斯优化。

贝叶斯优化算法

理解贝叶斯优化的底层算法。

并行贝叶斯优化

贝叶斯优化如何并行工作。

Interpretación de modelos

解释机器学习模型

解释模型预测石灰沙普利,plotPartialDependence

机器学习模型的Shapley值

使用两种算法计算机器学习模型的Shapley值:kernelSHAP和kernelSHAP的扩展。

Validacion cruzada

使用并行计算实现交叉验证

使用并行计算加速交叉验证。

Diagnósticos de modelos lineales

解释线性回归结果

显示和解释线性回归输出统计数据。

线性回归

拟合线性回归模型并检验结果。

线性回归与交互效应

构建并分析一个具有交互作用的线性回归模型,并解释结果。

输出和诊断统计摘要

利用模型属性和对象函数对拟合模型进行评估。

f统计量和t统计量

在线性回归中,F-statistic是方差分析(ANOVA)方法的检验统计量,用于检验模型或模型中组件的显著性。的t-statistic用于推断回归系数。

决定系数(r平方)

决定系数(r平方)表示响应变量中变化的比例y由自变量解释X在线性回归模型中。

系数、标准误差和置信区间

估计的系数方差和协方差捕获回归系数估计的精度。

残差

残差对检测离群很有用y值,并根据回归模型中的误差项检查线性回归假设。

Durbin-Watson测试

Durbin-Watson检验评估时间序列数据残差之间是否存在自相关。

库克的距离

库克距离是有用的识别异常值在X值(预测变量的观察结果)。

帽子矩阵和杠杆

帽子矩阵提供了一种衡量杠杆的方法。

Delete-1统计

删除-1协方差变化(CovRatio)识别在回归拟合中有影响的观测值。

Diagnósticos一般线性模型

广义线性模型

广义线性模型使用线性方法来描述预测项和响应变量之间潜在的非线性关系。

Diagnósticos modelos no lineales

非线性回归

参数非线性模型表示一个连续响应变量和一个或多个连续预测变量之间的关系。