主要内容

选择回归模型选项

选择回归模型类型

您可以使用回归学习者应用自动列车选择不同的模型在你的数据。使用自动化培训快速试模型类型的选择,然后探索有前途的交互模型。首先,先试着这些选项:

在回归模型中所有Quick-To-Train选择画廊学习者选项卡

开始回归模型的选择 描述
所有Quick-To-Train
所有Quick-To-Train选择第一个。应用列车模型类型,通常是快速火车。
所有
使用所有选择培训所有可用的nonoptimizable模型类型。火车每一类型无论任何事先训练模型。可以耗时。

了解更多关于自动化模型训练,明白了自动回归模型训练

如果你想探索模型一次,或者如果你已经知道你想要的模型类型,您可以选择单个模型或一组相同类型的训练。看到所有可用的回归模型的选择,回归的学习者选项卡中,单击箭头模型部分扩大回归模型的列表。nonoptimizable模型选择画廊中预设的起点与不同的设置,适合各种不同的回归问题。使用optimizable自动模型选择和优化模型hyperparameters,明白了Hyperparameter优化回归学习者应用

为帮助你选择最好的模型类型问题,看到表显示不同的回归模型类型的典型特征。决定你想要的权衡在速度、灵活性和可解释性。最好的模型类型取决于您的数据。

提示

为了避免过度拟合,寻找不太灵活的模型提供了足够的精度。例如,寻找简单的模型如回归树快速和容易理解。如果模型不够准确预测响应,选择其他模型具有更高的灵活性,如集合体。控制的灵活性,看到每个模型类型的细节。

回归模型的特征类型

回归模型类型 可解释性
线性回归模型
容易
回归树
容易
万博1manbetx支持向量机
简单的线性支持向量机。其他内核。
高斯过程回归模型
内核近似模型
乐团的树木
神经网络

在回归学习者阅读每个模型的描述,切换到视图列表中的所有细节模型预设。

模型在模型的细节视图画廊

提示

nonoptimizable模型模型画廊是预设的起点与不同的设置。你选择模型类型后,如回归树,试着训练的所有nonoptimizable预设看到哪一个生产最好的模型数据。

工作流程说明,请参阅火车在回归学习者应用回归模型

分类预测的支持万博1manbetx

在回归的学习者,所有类型支持分类预测模型。万博1manbetx

提示

如果你有分类预测和许多独特的价值观,训练线性模型与交互或二次术语和分段线性模型可以使用很多内存。如果模型没有火车,尝试删除这些分类预测。

线性回归模型

线性回归模型预测的线性模型中的参数,易于理解,快速进行预测。这些特点使得线性回归模型受欢迎的模型尝试第一次。然而,这些模型的高度约束形式意味着他们经常预测精度较低。拟合线性回归模型后,尝试创建更灵活的模型,如回归树,并比较结果。

提示

模型画廊,点击所有的线性尝试每一个线性回归选项,看看设置产生最好的模型数据。选择最好的模型模型面板和试图改善模型利用特征选择和改变一些高级选项。

回归模型类型 可解释性 模型的灵活性
线性
容易 非常低的
线性的交互
容易 媒介
鲁棒线性
容易 非常低。离群值不敏感,但可以慢慢培养。
分段线性
容易 媒介

提示

对于一个工作流实例,明白了火车使用回归学习者应用回归树

线性回归模型Hyperparameter选项

回归的学习者使用fitlm功能训练线性、线性相互作用和健壮的线性模型。应用程序使用stepwiselm功能训练逐步线性模型。

线性、线性相互作用和健壮的线性模型可以设置这些选项:

  • 条款

    线性模型中指定要使用哪些术语。你可以选择:

    • 线性。一个常数项和线性预测

    • 的相互作用。一个常数项、线性条件和预测之间的交互方面

    • 纯二次。一个常数项、线性条件和条款,纯粹是二次的预测

    • 二次。一个常数项、线性项和二次项(包括交互)

  • 健壮的选项

    指定是否使用一个健壮的目标函数,使您的模型不太敏感的离群值。使用该选项时,数据点的拟合方法自动分配权重低,更可能是离群值。

逐步线性回归具有初始模型和系统的添加和删除模型基于这些增量较大和较小的模型的解释力。对于分段线性模型,您可以设置这些选项:

  • 初始条件

    指定的条款包含在初始模型的逐步过程。你可以选择从常数,线性,的相互作用,纯二次,二次

  • 上限的条款

    指定的最高订单条款的逐步过程可以添加到模型中。你可以选择从线性,的相互作用,纯二次,二次

  • 最大数量的步骤

    指定的最大数量不同的线性模型,可以尝试逐步的过程。加快培训,尽量减少的最大数量的步骤。选择一个小的最大数量的步骤减少你找到一个好的模型的可能性。

提示

如果你有分类预测和许多独特的价值观,训练线性模型与交互或二次术语和分段线性模型可以使用很多内存。如果模型没有火车,尝试删除这些分类预测。

回归树

回归树很容易解释,快速拟合和预测,低内存的使用。试着用更少的大长小树上叶子,防止过度拟合。叶大小的控制最小叶大小设置。

提示

模型画廊,点击所有的树尝试nonoptimizable回归树的每个选项,看看设置产生最好的与你的数据模型。选择最好的模型模型面板,试图改善这种模式通过使用特征选择和改变一些高级选项。

回归模型类型 可解释性 模型的灵活性
好树
容易
许多小叶子的高度灵活的响应函数(最小叶大小是4。)
中树
容易 媒介
中型的叶子不太灵活的响应函数(最小叶大小12。)
粗树
容易
几大叶粗响应函数(最小叶大小36。)

预测反应的回归树,跟随这棵树从根节点到叶节点(开始)。叶节点包含的值响应。

统计和机器学习工具箱™树是二进制。每一步的预测包括检查一个预测变量的值。例如,这是一个简单的回归树

图的简单回归树五叶节点

这棵树预测响应基于两个预测因子,x1x2。预测,从顶部开始节点。在每个节点,检查预测因子的值来决定哪个部门。当树枝到达一个叶子节点,设置为值对应的响应节点。

你可以想象你回归树模型导出模型的应用程序,然后输入:

视图(trainedModel.RegressionTree,“模式”,“图”)

提示

对于一个工作流实例,明白了火车使用回归学习者应用回归树

回归树模型Hyperparameter选项

回归学习者应用程序使用fitrtree功能训练回归树。你可以设置这些选项:

  • 最小叶大小

    指定最小数量的训练样本用于计算每个叶节点的响应。当你回归树生长,考虑它的简单性和预测能力。改变最小叶大小,单击按钮或输入一个正整数价值最小叶大小盒子。

    • 好树和许多小叶子在训练数据通常是高度准确的。然而,树可能不会对一个独立的测试集显示类似的准确性。一个非常倾向于overfit枝繁叶茂的树,和验证准确性往往远低于其培训(或resubstitution)的准确性。

    • 相比之下,用更少的大粗树树叶不达到训练精度高。但粗树可以更健壮,其训练精度可以代表测试集的附近。

    提示

    减少最小叶大小创建一个更加灵活的模型。

  • 代理决定分裂——对缺失的数据。

    为决定将指定代理使用。如果你有数据缺失值,使用代理分裂来提高预测的准确性。

    当您设置代理决定分裂,回归树发现最多10个代理在每个分支节点分裂。要更改代理分裂的数量,单击按钮或输入一个正整数价值每个节点最大代理人盒子。

    当您设置代理决定分裂找到所有回归树发现,所有代理在每个分支节点分裂。的找到所有设置可以使用相当多的时间和内存。

或者,您可以让应用程序选择这些模型自动选择使用hyperparameter优化。看到Hyperparameter优化回归学习者应用

万博1manbetx支持向量机

你可以训练回归支持向量机(svm)回归学习者。万博1manbetx线性支持向量机很容易解释,但可以预测精度较低。非线性支持向量机更难以解释,但可以更准确。

提示

模型画廊,点击所有支持向量机尝试每个nonoptimizable SVM选项,看看设置产生最好的与你的数据模型。选择最好的模型模型面板,试图改善这种模式通过使用特征选择和改变一些高级选项。

回归模型类型 可解释性 模型的灵活性
线性支持向量机
容易
二次支持向量机
媒介
立方支持向量机
媒介
细高斯支持向量机

允许快速响应函数的变化。内核将规模倍根号(P) / 4,在那里P预测的数量。
介质高斯支持向量机
媒介
给出了一个更灵活的响应函数。内核将规模sqrt (P)
高斯粗糙支持向量机

给出了一个严格的响应函数。内核将规模sqrt (P) * 4

统计和机器学习工具箱实现了线性epsilon-insensitive SVM回归。这个方法忽略了预测误差小于一些固定数量ε。的万博1manbetx支持向量的数据点错误比ε。函数的支持向量机用于预测新值只取决于支持向量。万博1manbetx更多地了解支持向量机回归,明白了了解支持向量机回归万博1manbetx

提示

对于一个工作流实例,明白了火车使用回归学习者应用回归树

支持向量机模型Hyperparameter选项

回归的学习者使用fitrsvm功能训练支持向量机回归模型。

你可以设置这些选项的应用:

  • 核函数

    核函数决定了非线性变换应用到训练支持向量机之前的数据。你可以选择:

    • 高斯或径向基函数(RBF)的内核

    • 线性内核,简单的解释

    • 二次内核

    • 立方内核

  • 箱约束模式

    箱约束控制强加的点球大残差的观测。一个大盒子约束提供了更加灵活的模型。一个较小的值给更刚性模型,不太敏感的过度拟合。

    箱约束模式被设置为汽车,应用程序使用一个启发式程序选择框约束。

    尝试手动微调您的模型通过指定箱约束。集箱约束模式手册并指定一个值。改变值通过单击箭头或进入一个积极的标量值手工盒约束盒子。应用程序自动为您预选一个合理的价值。试图增加或减少该值略,看看这能改善你的模型。

    提示

    增加箱约束值来创建一个更加灵活的模型。

  • ε模式

    预测误差小于ε(ε)值将被忽略,视为等于零。一个较小的ε值提供了更加灵活的模型。

    ε模式被设置为汽车,应用程序使用一个启发式程序选择内核的规模。

    试图通过指定ε值手动微调您的模型。集ε模式手册并指定一个值。改变值通过单击箭头或进入一个积极的标量值手动ε盒子。应用程序自动为您预选一个合理的价值。试图增加或减少该值略,看看这能改善你的模型。

    提示

    减少ε值来创建一个更加灵活的模型。

  • 内核扩展模式

    内核规模控制的规模预测内核的显著变化。规模较小的内核提供了更加灵活的模型。

    内核扩展模式被设置为汽车,应用程序使用一个启发式程序选择内核的规模。

    试图通过指定内核规模手动微调您的模型。集内核扩展模式手册并指定一个值。改变值通过单击箭头或进入一个积极的标量值手动内核规模盒子。应用程序自动为您预选一个合理的价值。试图增加或减少该值略,看看这能改善你的模型。

    提示

    减少内核刻度值来创建一个更加灵活的模型。

  • 标准化数据

    标准化预测转换他们,他们的意思是0和标准偏差1。标准化消除了依赖任意规模的预测,通常能提高性能。

或者,您可以让应用程序选择这些模型自动选择使用hyperparameter优化。看到Hyperparameter优化回归学习者应用

高斯过程回归模型

你可以训练高斯过程回归(GPR)模型回归的学习者。探地雷达模型往往高度精确,但很难解释。

提示

模型画廊,点击所有探地雷达模型尝试每个nonoptimizable GPR模型的选择和查看设置产生最好的与你的数据模型。选择最好的模型模型面板,试图改善这种模式通过使用特征选择和改变一些高级选项。

回归模型类型 可解释性 模型的灵活性
理性的二次
自动
平方指数
自动
Matern 5/2
自动
指数
自动

在高斯过程回归,响应建模使用概率分布的空间功能。预设的灵活性模型画廊是自动选择给一个小训练误差,同时,防止过度拟合。更多地了解高斯过程回归,明白了高斯过程回归模型

提示

对于一个工作流实例,明白了火车使用回归学习者应用回归树

高斯过程回归模型Hyperparameter选项

回归的学习者使用fitrgp功能训练GPR模型。

你可以设置这些选项的应用:

  • 基函数

    之前的基函数指定了形式意味着高斯过程回归模型的函数。你可以选择从,常数,线性。尽量选择一个不同的基函数,看看这能改善你的模型。

  • 核函数

    内核函数决定的相关响应预测之间的距离的函数值。你可以选择从理性的二次,平方指数,Matern 5/2,Matern 3/2,指数

    了解更多关于内核函数,看看内核(协方差)函数的选择

  • 使用各向同性内核

    如果你使用一个各向同性的内核,相关长度尺度是相同的所有的预测因子。nonisotropic内核,每个预测变量都有自己的单独的相关长度尺度。

    使用nonisotropic内核可以提高模型的准确性,但能使模型缓慢的适应。

    了解更多关于nonisotropic内核,明白了内核(协方差)函数的选择。

  • 内核模式

    您可以手动指定最初的内核参数的值内核规模信号标准偏差。信号标准偏差是之前响应值的标准偏差。默认情况下,应用程序在本地优化内核参数从初始值。使用固定的内核参数,设置优化数值参数没有

    内核扩展模式被设置为汽车,应用程序使用一个启发式程序选择最初的内核参数。

    如果你设置内核扩展模式手册,您可以指定初始值。单击按钮或输入一个积极的标量值内核规模盒子和信号标准偏差盒子。

    如果你设置使用各向同性内核没有,你不能手动设置初始内核参数。

  • σ模式

    您可以指定手动的最初的观测噪声标准差的价值σ。默认情况下,应用优化观测噪声标准差,从初始值。使用固定的内核参数,清除优化数值参数高级选项的复选框。

    σ模式被设置为汽车,应用程序使用一个启发式程序选择初始观测噪声标准差。

    如果你设置σ模式手册,您可以指定初始值。单击按钮或输入一个积极的标量值σ盒子。

  • 标准化数据

    标准化预测转换他们,他们的意思是0和标准偏差1。标准化消除了依赖任意规模的预测,通常能提高性能。

  • 优化数值参数

    这个选项,应用探地雷达模型的自动优化数值参数。优化参数的系数基函数内核参数内核规模信号标准偏差,观测噪声标准差σ

或者,您可以让应用程序选择这些模型自动选择使用hyperparameter优化。看到Hyperparameter优化回归学习者应用

内核近似模型

在回归的学习者,你可以使用内核近似模型进行非线性回归和许多观测的数据。对于大型内存数据,内核近似模型倾向于训练和预测的速度比与高斯核支持向量机模型。

高斯核回归模型预测在低维空间映射到一个高维空间,然后符合线性模型的预测在高维空间转换。选择合适的一个线性模型和支持向量机拟合最小二乘线性模型的扩展空间。

提示

模型画廊,点击所有的内核尝试每一个预设内核近似选项,看看设置产生最好的与你的数据模型。选择最好的模型模型面板,试图改善这种模式通过使用特征选择和改变一些高级选项。

回归模型类型 可解释性 模型的灵活性
支持向量机内核
中期随着增加内核规模设置减少
内核最小二乘回归
中期随着增加内核规模设置减少

例如,看到的火车使用回归学习者应用内核近似模型

内核模式Hyperparameter选项

回归的学习者使用fitrkernel训练内核函数近似回归模型。

你可以设置这些选项总结选项卡为选定的模型:

  • 学习者——指定线性回归模型类型的扩展空间,支持向量机最小二乘法的内核。SVM模型使用一个epsilon-insensitive损失在模型拟合,而最小二乘模型使用均方误差(MSE)。

  • 数量扩张的维度——指定扩展空间的维数。

    • 当您设置这个选项汽车,软件集的维数2 . ^装天花板(最低(log2 (p) + 5、15)),在那里p预测的数量。

    • 当您设置这个选项手册,您可以指定一个值通过单击箭头或进入盒子里积极的标量值。

  • 正则化强度(λ)——指定脊(L2)正规化惩罚项。当您使用一个支持向量机学习,约束C和正则化项的力量λ是相关的C= 1 / (λn),在那里n是观测的数量。

    • 当您设置这个选项汽车,软件设置正则化力量1 /n,在那里n是观测的数量。

    • 当您设置这个选项手册,您可以指定一个值通过单击箭头或进入盒子里积极的标量值。

  • 内核规模——指定内核扩展。软件使用这个值来获得一个随机随机功能扩张的基础。更多细节,请参阅随机特性扩张

    • 当您设置这个选项汽车,软件使用启发式程序选择刻度值。启发式程序使用二次抽样。因此,为了繁殖的结果,设置一个随机数种子使用rng在训练之前回归模型。

    • 当您设置这个选项手册,您可以指定一个值通过单击箭头或进入盒子里积极的标量值。

  • ε——指定epsilon-insensitive带的宽度的一半。这个选项是可用的学习者支持向量机

    • 当您设置这个选项汽车,软件决定的价值ε作为差(Y) / 13.49,这是一个估计的标准偏差的十分之一使用响应变量的四分位范围Y。如果差(Y)等于零,那么该软件将值设置为0.1。

    • 当您设置这个选项手册,您可以指定一个值通过单击箭头或进入盒子里积极的标量值。

  • 迭代限制——指定训练迭代的最大数量。

乐团的树木

你可以训练集合回归树回归学习者。整体模型结合的结果许多薄弱的学习者为一个高质量的整体模型。

提示

模型画廊,点击所有的集合体尝试每个nonoptimizable合奏选项,看看设置产生最好的与你的数据模型。选择最好的模型模型面板,试图改善这种模式通过使用特征选择和改变一些高级选项。

回归模型类型 可解释性 整体方法 模型的灵活性
提高了树

最小二乘提高(LSBoost)和回归树的学习者。

中等到高

袋装的树木

引导聚合或装袋,回归树的学习者。

提示

对于一个工作流实例,明白了火车使用回归学习者应用回归树

整体模型Hyperparameter选项

回归的学习者使用fitrensemble功能训练整体模型。你可以设置这些选项:

  • 最小叶大小

    指定最小数量的训练样本用于计算每个叶节点的响应。当你回归树生长,考虑它的简单性和预测能力。改变最小叶大小,单击按钮或输入一个正整数价值最小叶大小盒子。

    • 好树和许多小叶子在训练数据通常是高度准确的。然而,树可能不会对一个独立的测试集显示类似的准确性。一个非常倾向于overfit枝繁叶茂的树,和验证准确性往往远低于其培训(或resubstitution)的准确性。

    • 相比之下,用更少的大粗树树叶不达到训练精度高。但粗树可以更健壮,其训练精度可以代表测试集的附近。

    提示

    减少最小叶大小创建一个更加灵活的模型。

  • 许多学习者

    试着改变学习者的数量是否可以改善模型。许多学习者能生产高精度,但可以耗费时间来适应。

    提示

    增加了许多学习者创建一个更加灵活的模型。

  • 学习速率

    对于提振了树木,指定收缩的学习速率。如果你将学习速率设置为小于1,乐团需要更多的迭代学习但往往达到更好的精度。0.1最初是一个流行的选择。

  • 样本数量的预测

    指定数量的预测随机选择树中的每个分裂学习者。

    • 当您设置这个选项选择所有,软件使用所有可用的预测因子。

    • 当您设置这个选项限量,您可以指定一个值通过单击按钮或输入一个正整数价值在盒子里。

或者,您可以让应用程序选择这些模型自动选择使用hyperparameter优化。看到Hyperparameter优化回归学习者应用

神经网络

神经网络模型通常具有良好的预测精度;然而,他们并不容易解释。

模型的灵活性增加的规模和数量完全连接层的神经网络。

提示

模型画廊,点击所有的神经网络尝试每一个预设神经网络选项,看看设置产生最好的模型数据。选择最好的模型模型面板,试图改善这种模式通过使用特征选择和改变一些高级选项。

回归模型类型 可解释性 模型的灵活性
狭窄的神经网络
中期的增加第一层的大小设置
中神经网络
中期的增加第一层的大小设置
广泛的神经网络
中期的增加第一层的大小设置
双层神经网络
高收入的增加第一层的大小第二层的大小设置
Trilayered神经网络
高收入的增加第一层的大小,第二层的大小,第三层的大小设置

每一个模型是一个前馈,完全连接神经网络回归。第一个完全连接层的神经网络已连接网络输入(预测数据),并且每个后续层从上一层连接。每个完全连接层乘以权重矩阵的输入向量,然后添加一个偏见。激活函数遵循每个完全连接层,除最后一个。最后完全连接层生成网络的输出,即预测响应值。有关更多信息,请参见神经网络结构

例如,看到的回归神经网络使用回归训练学习者应用

神经网络模型Hyperparameter选项

回归的学习者使用fitrnet功能训练神经网络模型。你可以设置这些选项:

  • 完全连接层——指定的数量完全连接层神经网络,不包括最终回归完全连接层。您最多可以选择3个完全连接层。

  • 第一层的大小,第二层的大小,第三层的大小——指定每个完全连接层的大小,除最后一个完全连接层。如果您选择创建一个与多个完全连接神经网络层,考虑减少大小指定层。

  • 激活——指定所有完全连接层的激活函数,除最后一个完全连接层。选择下面的激活函数:线性整流函数(Rectified Linear Unit),双曲正切,没有一个,乙状结肠

  • 迭代限制——指定训练迭代的最大数量。

  • 正则化强度(λ)——指定脊(L2)正规化惩罚项。

  • 标准化数据——指定是否标准化数值预测。如果预测有广泛不同的尺度,规范可以改善健康。标准化的数据是高度推荐。

或者,您可以让应用程序选择这些模型自动选择使用hyperparameter优化。看到Hyperparameter优化回归学习者应用

相关的话题