La traducción de esta página está obsoleta。Haga clic aquí para ver la última versión en inglés。
Al desarrollar un modelo de regresión de alta calidad, es importante seleccionar las características (o predictores) correctos, ajustar los hiperparámetros (parámetros del modelo no ajustados a los datos) y evaluar los supuestos del modelo a través de diagnósticos de valores residales。
天堂之星hiperparámetros中间的iteraciones entre la selección de los valores para los mismos y la realización de una validación cruzada de un modelo con sus propias opciones。Este proeso arroja变化的模型和主要的puede ser el que最小误差generalización估计。Por ejemplo, para ajustar un model - SVM, elija un conjunto de restricciones de cajas y escalas de kernel, realice una validación cruzada de modelo para cada par de valores y, después,比较las estimacones de los error cuadráticos medios con validación cruzada de 10迭代。
Determinadas funciones de regresión no paramétricas de Statistics and Machine Learning Toolbox™ofrecen además un ajuste automático de los hiperparámetros mediante optimización bayesiana, búsqueda por cuadrículas o búsqueda aleatoria。罪禁运,bayesopt
, que es la función主要para implementar la optimización bayesiana, es lo充分性灵活para muchas otras aplicaciones。Para obtener más información, consulte贝叶斯优化流程.
Para seleccionar automáticamente un modelo con hiperparámetros ajustados, utilicefitrauto
.La función prueba una selección de tipos de modelos de regresión con valores en los hiperparámetros y deuelve un modelo final que se prevé que funcione bien。Utilicefitrauto
我们没有办法保护我们的权利regresión我们有办法保护我们的权利。
Para desarrollar y评估模型regresión形式上的交互,应用程序回归的学习者.
Para interpretar un modelo de regresión, puede utilzar石灰
,沙普利
yplotPartialDependence
.
回归的学习者 | 使用监督机器学习训练回归模型来预测数据 |
用于训练、比较和改进回归模型的工作流,包括自动、手动和并行训练。
在回归学习器中,自动训练选择的模型,或比较和调整线性回归模型、回归树、支持向量机、高斯过程回归模型、回归树集合和回归神经网络的选项。万博1manbetx
使用图表识别有用的预测因子,手动选择要包含的特征,并在回归学习者中使用PCA转换特征。
比较模型统计数据并可视化结果。
了解特征选择算法,并探索可用于特征选择的功能。
本主题介绍了顺序特征选择,并提供了使用自定义标准和顺序选择特征的示例sequentialfs
函数。
邻域成分分析(NCA)是一种以最大化回归和分类算法预测精度为目标的特征选择的非参数方法。
在NCA中使用自定义鲁棒损失函数执行对异常值鲁棒的特征选择。
利用交互测试算法选择随机森林的分裂预测因子。
解释模型预测石灰
,沙普利
,plotPartialDependence
.
使用两种算法计算机器学习模型的Shapley值:kernelSHAP和kernelSHAP的扩展。
显示和解释线性回归输出统计数据。
拟合线性回归模型并检验结果。
构建并分析一个具有交互作用的线性回归模型,并解释结果。
利用模型属性和对象函数对拟合模型进行评估。
在线性回归中,F-statistic是方差分析(ANOVA)方法的检验统计量,用于检验模型或模型中组件的显著性。的t-statistic用于推断回归系数。
决定系数(r平方)表示响应变量中变化的比例y由自变量解释X在线性回归模型中。
估计的系数方差和协方差捕获回归系数估计的精度。
残差对检测离群很有用y值,并根据回归模型中的误差项检查线性回归假设。
Durbin-Watson检验评估时间序列数据残差之间是否存在自相关。
库克距离是有用的识别异常值在X值(预测变量的观察结果)。
帽子矩阵提供了一种衡量杠杆的方法。
删除-1协方差变化(CovRatio
)识别在回归拟合中有影响的观测值。