在构建高质量的回归模型时,选择合适的功能(或预测器),调整超级参数(模型参数不适合数据),并通过剩余诊断评估模型假设。
您可以通过迭代它们的选择值来调整HyperParameters,并使用您的选择交叉验证模型。此过程产生多种模型,并且它们之间的最佳模型可以是最小化估计的概括误差的模型。例如,要调整SVM模型,请选择一组框约束和内核尺度,交叉验证每对值的模型,然后比较它们的10倍交叉验证的均方误差估计值。
统计和机器学习中的某些非参数回归函数工具箱™另外通过贝叶斯优化,网格搜索或随机搜索提供自动的HyperParameter调整。然而,Bayesopt.
这是实现贝叶斯优化的主要功能,对于许多其他应用程序来说足够灵活。有关更多详细信息,请参阅贝叶斯优化工作流程。
自动选择具有调谐超参数的型号,使用Fitrauto.
。该函数尝试选择具有不同的超参数值的回归模型类型,并返回预计执行良好的最终模型。采用Fitrauto.
当您不确定哪种回归模型类型最适合您的数据。
以交互式建立和评估回归模型,使用回归学习者应用程序。
回归学习者 | 火车回归模型以预测使用监督机器学习的数据 |
用于培训,比较和改进回归模型的工作流程,包括自动化,手动和并行培训。
在回归学习者中,自动培训各种型号,或比较和调整线性回归模型的选项,回归树,支持向量机,高斯过程回归模型以及回归树的集合。万博1manbetx
使用绘图识别有用的预测器,手动选择要包含的功能和使用PCA在回归学习者中的功能。
比较模型统计和可视化结果。
了解要素选择算法并探索功能选择的功能。
本主题介绍了顺序特征选择,并提供了一个使用自定义标准顺序选择功能的示例序列
功能。
邻域分量分析(NCA)是一种非参数方法,用于选择具有最大化回归和分类算法的预测准确性的目标。
执行使用NCA中的自定义鲁棒丢失功能对异常值具有强大的功能选择。
使用交互测试算法选择随机林的拆分预测器。
显示和解释线性回归输出统计信息。
适合线性回归模型并检查结果。
用交互效应构建和分析线性回归模型,解释结果。
通过使用模型属性和对象功能来评估拟合模型。
在线性回归,F- 术是对方差分析(ANOVA)方法的测试统计,以测试模型的重要性或模型中的组件。这T.- 术用于对回归系数的推断有用。
确定系数(R角)表示响应变量的比例变化量y由独立变量解释X在线性回归模型中。
估计系数差异和协方差捕获回归系数估计的精度。
残差对于偏远来说是有用的y值和检查回归模型中的错误项的线性回归假设。
Durbin-Watson测试评估是否存在时间序列数据的残差之间的自相关。
库克的距离对于识别异常值非常有用X值(预测器变量的观察)。
帽子矩阵提供了杠杆的衡量标准。
删除 - 1变更协方差(科罗拉蒂奥
)识别出回归适合的影响的观察结果。