fitrgp.gydF4y2Ba

拟合高斯过程回归(GPR)模型gydF4y2Ba

描述gydF4y2Ba

例子gydF4y2Ba

gprmdl.gydF4y2Ba= fitrgp (gydF4y2BaTBL.gydF4y2Ba,gydF4y2BaResponseVarNamegydF4y2Ba)gydF4y2Ba返回高斯过程回归(GPR)模型训练使用的样本数据gydF4y2BaTBL.gydF4y2Ba, 在哪里gydF4y2BaResponseVarNamegydF4y2Ba中是响应变量的名称吗gydF4y2BaTBL.gydF4y2Ba.gydF4y2Ba

gprmdl.gydF4y2Ba= fitrgp (gydF4y2BaTBL.gydF4y2Ba,gydF4y2Ba公式gydF4y2Ba)gydF4y2Ba返回高斯进程回归(GPR)模型,使用示例数据训练gydF4y2BaTBL.gydF4y2Ba,用于预测变量和响应变量识别gydF4y2Ba公式gydF4y2Ba.gydF4y2Ba

gprmdl.gydF4y2Ba= fitrgp (gydF4y2BaTBL.gydF4y2Ba,gydF4y2BaygydF4y2Ba)gydF4y2Ba返回表中预测器的GPR模型gydF4y2BaTBL.gydF4y2Ba和连续的响应矢量gydF4y2BaygydF4y2Ba.gydF4y2Ba

例子gydF4y2Ba

gprmdl.gydF4y2Ba= fitrgp (gydF4y2BaXgydF4y2Ba,gydF4y2BaygydF4y2Ba)gydF4y2Ba返回预测器的GPR模型gydF4y2BaXgydF4y2Ba和连续的响应矢量gydF4y2BaygydF4y2Ba.gydF4y2Ba

例子gydF4y2Ba

gprmdl.gydF4y2Ba= fitrgp (gydF4y2Ba___gydF4y2Ba,gydF4y2Ba名称,值gydF4y2Ba)gydF4y2Ba返回以前语法中的任何输入参数的GPR模型,其中一个或多个指定的其他选项gydF4y2Ba名称,值gydF4y2Ba对论点。gydF4y2Ba

例如,您可以指定拟合方法,预测方法,协方差函数或活动集选择方法。您还可以培训交叉验证的型号。gydF4y2Ba

gprmdl.gydF4y2Ba是一个gydF4y2Baregressiongp.gydF4y2Ba对象。有关此类的方法和属性,请参阅gydF4y2Baregressiongp.gydF4y2Ba类页面。gydF4y2Ba

如果你训练一个交叉验证的模型,那么gydF4y2Bagprmdl.gydF4y2Ba是一个gydF4y2BaRegressionPartitionedModelgydF4y2Ba对象。为进一步分析交叉验证的对象,使用的方法gydF4y2BaRegressionPartitionedModelgydF4y2Ba班级。对于本课程的方法,请参阅gydF4y2BaRegressionPartitionedModelgydF4y2Ba类页面。gydF4y2Ba

例子gydF4y2Ba

全部收缩gydF4y2Ba

此示例使用鲍鱼数据gydF4y2Ba[1]gydF4y2Ba,gydF4y2Ba[2]gydF4y2Ba,来自UCI机器学习存储库gydF4y2Ba[3]gydF4y2Ba.下载数据并将其保存在当前文件夹中的名称gydF4y2Baabalone.datagydF4y2Ba.gydF4y2Ba

将数据存储到表中。显示前七行。gydF4y2Ba

tbl =可读取的(gydF4y2Ba'abalone.data'gydF4y2Ba,gydF4y2Ba“文件类型”gydF4y2Ba,gydF4y2Ba'文本'gydF4y2Ba,gydF4y2Ba...gydF4y2Ba'readvariablenames'gydF4y2Ba、假);tbl.Properties.VariableNames = {gydF4y2Ba'性别'gydF4y2Ba,gydF4y2Ba'长度'gydF4y2Ba,gydF4y2Ba'直径'gydF4y2Ba,gydF4y2Ba'高度'gydF4y2Ba,gydF4y2Ba...gydF4y2Ba'womeight'gydF4y2Ba,gydF4y2Ba'牛斯威特'gydF4y2Ba,gydF4y2Ba“VWeight”gydF4y2Ba,gydF4y2Ba“ShWeight”gydF4y2Ba,gydF4y2Ba'noshellrings'gydF4y2Ba};台(1:7,:)gydF4y2Ba
ans =性长度直径高度WWeight SWeight VWeight ShWeight NoShellRings  ___ ______ ________ ______ _______ _______ _______ ________ ____________ ' 米的0.455 0.365 0.095 0.514 0.2245 0.101 0.15 15 ' M ' 0.35 0.265 0.09 0.2255 0.0995 0.0485 0.07 7 F的0.53 0.42 0.135 0.677 0.2565 0.1415 0.21 9 M 0.44 0.365 0.125 0.516 0.2155 0.114 0.155 10的我8 ' f ' 0.53 0.15 0.15 0.7775 0.237 0.1415 0.33 20gydF4y2Ba

数据集有4177个观察。目标是从八个物理测量预测鲍鱼的年龄。最后一个变量,壳牌戒指的数量显示了鲍鱼的年龄。第一预测器是一个分类变量。表中的最后一个变量是响应变量。gydF4y2Ba

采用回归子子集法进行参数估计,完全独立条件法进行预测,拟合探地雷达模型。规范预测。gydF4y2Ba

gprMdl = fitrgp(资源描述,gydF4y2Ba'noshellrings'gydF4y2Ba,gydF4y2Ba'骨箱'gydF4y2Ba,gydF4y2Ba“ardsquaredexponential”gydF4y2Ba,gydF4y2Ba...gydF4y2Ba“FitMethod”gydF4y2Ba,gydF4y2Ba“老”gydF4y2Ba,gydF4y2Ba“PredictMethod”gydF4y2Ba,gydF4y2Ba膜集成电路的gydF4y2Ba,gydF4y2Ba“标准化”gydF4y2Ba1)gydF4y2Ba
grmdl = regressiongp predictornames:{1x8 cell} racatectename:'var9'responseframsform:'none'numobservations:4177 kernelfunction:'ArdsquaredExponential'内核信息:[1x1结构]基本功能:'常数'Beta:10.9148 Sigma:2.0243预测:[10x1 double]predictorscale:[10x1 double] alpha:[1000x1 double] ActiveSetVectors:[1000x10双]预测:'FIC'ActiveSete:1000 FitMethod:'SR'ActiveSetMethod:'随机'IsactiveSetVector:[4177x1逻辑] loglikelihipe:-9.0013e + 03 Activesthistory:[1x1 struct] bcdinformation:[]gydF4y2Ba

使用培训的模型预测响应。gydF4y2Ba

ypred = resubPredict (gprMdl);gydF4y2Ba

绘制真正的响应和预测的响应。gydF4y2Ba

图();绘图(tbl.noshellrings,gydF4y2Ba'r。'gydF4y2Ba);持有gydF4y2Ba在gydF4y2Ba情节(Ypred,gydF4y2Ba'B'gydF4y2Ba);包含(gydF4y2Ba“x”gydF4y2Ba);ylabel(gydF4y2Ba“y”gydF4y2Ba);传奇({gydF4y2Ba'数据'gydF4y2Ba,gydF4y2Ba'预测'gydF4y2Ba},gydF4y2Ba'地点'gydF4y2Ba,gydF4y2Ba“最佳”gydF4y2Ba);轴([0 4300 0 30]);持有gydF4y2Ba离开gydF4y2Ba;gydF4y2Ba

计算训练数据上的回归损失(再替换损失)。gydF4y2Ba

L = resubLoss (gprMdl)gydF4y2Ba
L = 4.0064.gydF4y2Ba

生成示例数据。gydF4y2Ba

RNG(0,gydF4y2Ba'twister'gydF4y2Ba);gydF4y2Ba%的再现性gydF4y2Ban = 1000;x = linspace(-10,10,n)';y = 1 + x * 5e-2 + sin(x)./ x + 0.2 * randn(n,1);gydF4y2Ba

使用线性基函数和精确的拟合方法拟合GPR模型来估算参数。还使用确切的预测方法。gydF4y2Ba

gprmdl = fitrgp(x,y,gydF4y2Ba“基础”gydF4y2Ba,gydF4y2Ba'线性'gydF4y2Ba,gydF4y2Ba...gydF4y2Ba“FitMethod”gydF4y2Ba,gydF4y2Ba'精确的'gydF4y2Ba,gydF4y2Ba“PredictMethod”gydF4y2Ba,gydF4y2Ba'精确的'gydF4y2Ba);gydF4y2Ba

预测对应于行的响应gydF4y2BaxgydF4y2Ba(再替代预测)使用训练过的模型。gydF4y2Ba

ypred = resubPredict (gprMdl);gydF4y2Ba

绘制具有预测值的真实响应。gydF4y2Ba

情节(x, y,gydF4y2Ba“b”。gydF4y2Ba);持有gydF4y2Ba在gydF4y2Ba;plot(x,ypred,gydF4y2Ba“r”gydF4y2Ba,gydF4y2Ba“线宽”gydF4y2Ba, 1.5);包含(gydF4y2Ba“x”gydF4y2Ba);ylabel(gydF4y2Ba“y”gydF4y2Ba);传奇(gydF4y2Ba“数据”gydF4y2Ba,gydF4y2Ba'GPR预测'gydF4y2Ba);持有gydF4y2Ba离开gydF4y2Ba

加载样本数据。gydF4y2Ba

加载(gydF4y2Ba'gprdata2.mat'gydF4y2Ba)gydF4y2Ba

数据具有一个预测值变量和连续响应。这是模拟数据。gydF4y2Ba

使用具有默认内核参数的平方指数内核功能适合GPR模型。gydF4y2Ba

gprmdl1 = fitrgp(x,y,gydF4y2Ba'骨箱'gydF4y2Ba,gydF4y2Ba'squaredExponential'gydF4y2Ba);gydF4y2Ba

现在,拟合第二个模型,在那里您可以在其中指定内核参数的初始值。gydF4y2Ba

sigma0 = 0.2;Kparams0 = [3.5, 6.2];gprmdl2 = fitrgp(x,y,gydF4y2Ba'骨箱'gydF4y2Ba,gydF4y2Ba'squaredExponential'gydF4y2Ba,gydF4y2Ba...gydF4y2Ba'kernelparameters'gydF4y2Ba,kparams0,gydF4y2Ba“σ”gydF4y2Ba,sigma0);gydF4y2Ba

从两个模型计算重新提交的预测。gydF4y2Ba

Ypred1 = ResubPredict(GPRMDL1);Ypred2 = ResubPredict(GPRMDL2);gydF4y2Ba

从两个模型和训练数据中绘制反应预测。gydF4y2Ba

图();情节(x, y,gydF4y2Ba'r。'gydF4y2Ba);持有gydF4y2Ba在gydF4y2Ba情节(x, ypred1,gydF4y2Ba'B'gydF4y2Ba);plot(x,ypred2,gydF4y2Ba‘g’gydF4y2Ba);包含(gydF4y2Ba“x”gydF4y2Ba);ylabel(gydF4y2Ba“y”gydF4y2Ba);传奇({gydF4y2Ba'数据'gydF4y2Ba,gydF4y2Ba'默认内核参数'gydF4y2Ba,gydF4y2Ba...gydF4y2Ba'kparams0 = [3.5,6.2], sigma0 = 0.2'gydF4y2Ba},gydF4y2Ba...gydF4y2Ba'地点'gydF4y2Ba,gydF4y2Ba“最佳”gydF4y2Ba);标题(gydF4y2Ba“初始内核参数值的影响”gydF4y2Ba);持有gydF4y2Ba离开gydF4y2Ba

边缘日志可能性gydF4y2Bafitrgp.gydF4y2Ba最大化以估计GPR参数具有多个本地解决方案;万博 尤文图斯它会收敛到初始点的解决方案。每个本地解决方案对应于对数据的特定解释。在该示例中,具有默认初始内核参数的解决方案对应于具有高噪声的低频信号,而具有定制初始内核参数的第二解决方案对应于具有低噪声的高频信号。gydF4y2Ba

加载样本数据。gydF4y2Ba

加载(gydF4y2Ba'gprdata.mat'gydF4y2Ba)gydF4y2Ba

有六个连续的预测变量。训练数据集有500个观测值,测试数据集有100个观测值。这是模拟数据。gydF4y2Ba

使用Squared指数内核功能适合GPR模型,每个预测器具有单独的长度尺度。此协方差函数定义为:gydF4y2Ba

kgydF4y2Ba (gydF4y2Ba xgydF4y2Ba 我gydF4y2Ba ,gydF4y2Ba xgydF4y2Ba jgydF4y2Ba |gydF4y2Ba θgydF4y2Ba )gydF4y2Ba =gydF4y2Ba σ.gydF4y2Ba fgydF4y2Ba 2gydF4y2Ba egydF4y2Ba xgydF4y2Ba pgydF4y2Ba [gydF4y2Ba -gydF4y2Ba 1gydF4y2Ba 2gydF4y2Ba σ.gydF4y2Ba 米gydF4y2Ba =gydF4y2Ba 1gydF4y2Ba dgydF4y2Ba (gydF4y2Ba xgydF4y2Ba 我gydF4y2Ba 米gydF4y2Ba -gydF4y2Ba xgydF4y2Ba jgydF4y2Ba 米gydF4y2Ba )gydF4y2Ba 2gydF4y2Ba σ.gydF4y2Ba 米gydF4y2Ba 2gydF4y2Ba ]gydF4y2Ba .gydF4y2Ba

在哪里gydF4y2Ba σ.gydF4y2Ba 米gydF4y2Ba 表示预测器的长度尺度gydF4y2Ba 米gydF4y2Ba ,gydF4y2Ba 米gydF4y2Ba = 1,2,......,gydF4y2Ba dgydF4y2Ba 和gydF4y2Ba σ.gydF4y2Ba fgydF4y2Ba 为信号标准差。无约束的参数化gydF4y2Ba θgydF4y2Ba 是gydF4y2Ba

θgydF4y2Ba 米gydF4y2Ba =gydF4y2Ba 日志gydF4y2Ba σ.gydF4y2Ba 米gydF4y2Ba ,gydF4y2Ba fgydF4y2Ba ogydF4y2Ba rgydF4y2Ba 米gydF4y2Ba =gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba 2gydF4y2Ba ,gydF4y2Ba .gydF4y2Ba .gydF4y2Ba .gydF4y2Ba ,gydF4y2Ba dgydF4y2Ba θgydF4y2Ba dgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba =gydF4y2Ba 日志gydF4y2Ba σ.gydF4y2Ba fgydF4y2Ba .gydF4y2Ba

在响应的标准偏差下初始化核心函数的长度尺度和信号和噪声标准偏差。gydF4y2Ba

sigma0 =性病(ytrain);sigmaF0 = sigma0;d =大小(Xtrain 2);sigmaM0 = 10 * 1 (d, 1);gydF4y2Ba

使用初始内核参数值拟合GPR模型。标准化培训数据中的预测器。使用精确的拟合和预测方法。gydF4y2Ba

gprmdl = fitrgp(Xtrain,Ytrain,gydF4y2Ba“基础”gydF4y2Ba,gydF4y2Ba“不变”gydF4y2Ba,gydF4y2Ba“FitMethod”gydF4y2Ba,gydF4y2Ba'精确的'gydF4y2Ba,gydF4y2Ba...gydF4y2Ba“PredictMethod”gydF4y2Ba,gydF4y2Ba'精确的'gydF4y2Ba,gydF4y2Ba'骨箱'gydF4y2Ba,gydF4y2Ba“ardsquaredexponential”gydF4y2Ba,gydF4y2Ba...gydF4y2Ba'kernelparameters'gydF4y2Ba(sigmaM0; sigmaF0),gydF4y2Ba“σ”gydF4y2Ba,sigma0,gydF4y2Ba“标准化”gydF4y2Ba,1);gydF4y2Ba

计算测试数据的回归损失。gydF4y2Ba

L =损失(gprMdl Xtest、欧美)gydF4y2Ba
L = 0.6919.gydF4y2Ba

访问内核信息。gydF4y2Ba

gprMdl。KernelInformationgydF4y2Ba
ans =gydF4y2Ba结构体字段:gydF4y2Ba名称:'ARDSQUAREDExponential'内核参数:[7x1 double] kernelparameternames:{7x1 cell}gydF4y2Ba

显示内核参数名称。gydF4y2Ba

gprmdl.kernelinformation.kernelparameternames.gydF4y2Ba
ans =gydF4y2Ba7 x1细胞gydF4y2Ba{'lengeScale1'} {'lengeScale3'} {'lengeScale4'} {'levellyscale5'} {'levellyscale6'} {'sigmafale6'} {'sigmaf'}gydF4y2Ba

显示内核参数。gydF4y2Ba

sigmaM = gprMdl.KernelInformation.KernelParameters (1: end-1, 1)gydF4y2Ba
sigmam =gydF4y2Ba6×1gydF4y2Ba10.gydF4y2Ba4gydF4y2Ba×0.0004 0.0007 0.0004 4.1729 0.1018 0.0056gydF4y2Ba
sigmaf = gprmdl.kernelinformation.kernelparameters(END)gydF4y2Ba
sigmaF = 28.1718gydF4y2Ba
sigma = gprmdl.sigma.gydF4y2Ba
Sigma = 0.8162.gydF4y2Ba

绘制学习长度的日志。gydF4y2Ba

图()绘图((1:d)',log(sigmam),gydF4y2Ba'ro-'gydF4y2Ba);包含(gydF4y2Ba'长度秤数'gydF4y2Ba);ylabel(gydF4y2Ba长度尺度的对数gydF4y2Ba);gydF4y2Ba

第4和第5个预测器变量的长度尺度的日志相对于其他值高。这些预测变量似乎与其他预测变量的响应不起作用。gydF4y2Ba

拟合GPR模型,不使用第4和第5变量作为预测变量。gydF4y2Ba

x = [xtrain(:,1:3)XTrain(:,6)];sigma0 =性病(ytrain);sigmaF0 = sigma0;d =尺寸(x,2);sigmaM0 = 10 * 1 (d, 1);gprmdl = fitrgp(x,ytrain,gydF4y2Ba“基础”gydF4y2Ba,gydF4y2Ba“不变”gydF4y2Ba,gydF4y2Ba“FitMethod”gydF4y2Ba,gydF4y2Ba'精确的'gydF4y2Ba,gydF4y2Ba...gydF4y2Ba“PredictMethod”gydF4y2Ba,gydF4y2Ba'精确的'gydF4y2Ba,gydF4y2Ba'骨箱'gydF4y2Ba,gydF4y2Ba“ardsquaredexponential”gydF4y2Ba,gydF4y2Ba...gydF4y2Ba'kernelparameters'gydF4y2Ba(sigmaM0; sigmaF0),gydF4y2Ba“σ”gydF4y2Ba,sigma0,gydF4y2Ba“标准化”gydF4y2Ba,1);gydF4y2Ba

计算测试数据的回归误差。gydF4y2Ba

xtest = [xtest (:,1:3) xtest (:,6)];L =损失(gprMdl xtest、欧美)gydF4y2Ba
L = 0.6928.gydF4y2Ba

当所有变量用作预测变量时,丢失类似于丢失。gydF4y2Ba

计算测试数据的预测响应。gydF4y2Ba

ypred =预测(gprMdl xtest);gydF4y2Ba

绘制原始响应和拟合值。gydF4y2Ba

图;绘图(ytest,gydF4y2Ba“r”gydF4y2Ba);持有gydF4y2Ba在gydF4y2Ba;情节(Ypred,gydF4y2Ba'B'gydF4y2Ba);传奇(gydF4y2Ba'真实的回应'gydF4y2Ba,gydF4y2Ba的探地雷达预测值gydF4y2Ba,gydF4y2Ba'地点'gydF4y2Ba,gydF4y2Ba“最佳”gydF4y2Ba);持有gydF4y2Ba离开gydF4y2Ba

这个例子展示了如何自动优化超参数使用gydF4y2Bafitrgp.gydF4y2Ba.该示例使用gydF4y2Bagprdata2.gydF4y2Ba与软件一起发布的数据。gydF4y2Ba

加载数据。gydF4y2Ba

加载(gydF4y2Ba'gprdata2.mat'gydF4y2Ba)gydF4y2Ba

数据具有一个预测值变量和连续响应。这是模拟数据。gydF4y2Ba

使用具有默认内核参数的平方指数内核功能适合GPR模型。gydF4y2Ba

gprmdl1 = fitrgp(x,y,gydF4y2Ba'骨箱'gydF4y2Ba,gydF4y2Ba'squaredExponential'gydF4y2Ba);gydF4y2Ba

通过使用自动超参数优化,找到最小化五倍交叉验证损失的超参数。gydF4y2Ba

为了重现性,设置随机种子并使用gydF4y2Ba“expected-improvement-plus”gydF4y2Ba采集功能。gydF4y2Ba

RNG.gydF4y2Ba默认的gydF4y2Bagprmdl2 = fitrgp(x,y,gydF4y2Ba'骨箱'gydF4y2Ba,gydF4y2Ba'squaredExponential'gydF4y2Ba,gydF4y2Ba...gydF4y2Ba'OptimizeHyperParameters'gydF4y2Ba,gydF4y2Ba“汽车”gydF4y2Ba,gydF4y2Ba“HyperparameterOptimizationOptions”gydF4y2Ba,gydF4y2Ba...gydF4y2Ba结构(gydF4y2Ba“AcquisitionFunctionName”gydF4y2Ba,gydF4y2Ba“expected-improvement-plus”gydF4y2Ba));gydF4y2Ba
| ====================================================================================== ||磨练|eval |目的:|目标|Bestsofar |Bestsofar |西格玛|| | result | log(1+loss) | runtime | (observed) | (estim.) | | |======================================================================================| | 1 | Best | 0.29417 | 2.3976 | 0.29417 | 0.29417 | 0.0015045 |
|2 |最好的0.037898 |1.5261 |0.037898 |0.060792 |0.14147 |gydF4y2Ba
|3 |接受|1.5693 |0.88374 |0.037898 |0.040633 |25.279 |gydF4y2Ba
| 4 |接受| 0.29417 | 1.9285 | 0.037898 | 0.037984 | 0.0001091 |gydF4y2Ba
|5 |接受|0.29393 |2.0818 |0.037898 |0.038029 |0.029932 |gydF4y2Ba
|6 |接受|0.13152 |1.3664 |0.037898 |0.038127 |0.37127 |gydF4y2Ba
| 7 |最佳| 0.037785 | 1.6595 | 0.037785 | 0.037728 | 0.18116 |gydF4y2Ba
|8 |接受|0.03783 |1.5097 |0.037785 |0.036524 |0.16251 |gydF4y2Ba
|9 |接受|0.037833 |1.5784 |0.037785 |0.036854 |0.16159 |gydF4y2Ba
|10 |接受|0.037835 |1.5613 |0.037785 |0.037052 |0.16072 |gydF4y2Ba
| 11 |接受| 0.29417 | 1.964 | 0.037785 | 0.03705 | 0.00038214 |gydF4y2Ba
|12 |接受|0.42256 |1.115 |0.037785 |0.03696 |3.2067 |gydF4y2Ba
|13 |接受|0.03786 |1.6164 |0.037785 |0.037087 |0.15245 |gydF4y2Ba
| 14 |接受| 0.29417 | 1.9875 | 0.037785 | 0.037043 | 0.0063584 |gydF4y2Ba
| 15 |接受| 0.42302 | 1.1306 | 0.037785 | 0.03725 | 1.2221 |gydF4y2Ba
| 16 |接受| 0.039486 | 1.3516 | 0.037785 | 0.037672 | 0.10069 |gydF4y2Ba
|17 |接受|0.038591 |1.4124 |0.037785 |0.037687 |0.12077 |gydF4y2Ba
| 18 |接受| 0.038513 | 1.4527 | 0.037785 | 0.037696 | 0.1227 |gydF4y2Ba
|19 |最好的0.037757 |1.4777 |0.037757 |0.037572 |0.19621 |gydF4y2Ba
|20 |接受|0.037787 |1.6369 |0.037757 |0.037601 |0.18068 |gydF4y2Ba
| ====================================================================================== ||磨练|eval |目的:|目标|Bestsofar |Bestsofar |西格玛|| | result | log(1+loss) | runtime | (observed) | (estim.) | | |======================================================================================| | 21 | Accept | 0.44917 | 1.0204 | 0.037757 | 0.03766 | 8.7818 |
|22 |接受|0.040201 |1.3343 |0.037757 |0.037601 |0.075414 |gydF4y2Ba
| 23 |接受| 0.040142 | 1.2769 | 0.037757 | 0.037607 | 0.087198 |gydF4y2Ba
|24 |接受|0.29417 |2.0335 |0.037757 |0.03758 |0.0031018 |gydF4y2Ba
|25 |接受|0.29417 |2.0489 |0.037757 |0.037555 |0.00019545 |gydF4y2Ba
|26 |接受|0.29417 |1.9782 |0.037757 |0.037582 |0.013608 |gydF4y2Ba
|27 |接受|0.29417 |1.9955 |0.037757 |0.037556 |0.00076147 |gydF4y2Ba
|28 |接受|0.42162 |1.0802 |0.037757 |0.037854 |0.6791 |gydF4y2Ba
|29 |最好的0.037704 |1.4951 |0.037704 |0.037908 |0.2367 |gydF4y2Ba
| 30 |接受| 0.037725 | 1.5757 | 0.037704 | 0.037881 | 0.21743 |gydF4y2Ba

__________________________________________________________ 优化完成。maxobjective达到30个。总函数计算:30总运行时间:65.472秒。总目标函数评价时间:47.4766最佳观测可行点:Sigma ______ 0.2367观测目标函数值= 0.037704估计目标函数值= 0.038223函数评价时间= 1.4951最佳观测可行点(根据模型):Sigma _______ 0.16159估计目标函数值= 0.037881估计函数评价时间= 1.4822gydF4y2Ba

比较优化前后的匹配情况。gydF4y2Ba

Ypred1 = ResubPredict(GPRMDL1);Ypred2 = ResubPredict(GPRMDL2);图();情节(x, y,gydF4y2Ba'r。'gydF4y2Ba);持有gydF4y2Ba在gydF4y2Ba情节(x, ypred1,gydF4y2Ba'B'gydF4y2Ba);plot(x,ypred2,gydF4y2Ba'K'gydF4y2Ba,gydF4y2Ba“线宽”gydF4y2Ba,2);包含(gydF4y2Ba“x”gydF4y2Ba);ylabel(gydF4y2Ba“y”gydF4y2Ba);传奇({gydF4y2Ba'数据'gydF4y2Ba,gydF4y2Ba'初始合身'gydF4y2Ba,gydF4y2Ba'优化契合'gydF4y2Ba},gydF4y2Ba'地点'gydF4y2Ba,gydF4y2Ba“最佳”gydF4y2Ba);标题(gydF4y2Ba优化的影响gydF4y2Ba);持有gydF4y2Ba离开gydF4y2Ba

此示例使用鲍鱼数据gydF4y2Ba[1]gydF4y2Ba,gydF4y2Ba[2]gydF4y2Ba,来自UCI机器学习存储库gydF4y2Ba[3]gydF4y2Ba.下载数据并将其保存在当前文件夹中的名称gydF4y2Baabalone.datagydF4y2Ba.gydF4y2Ba

将数据存储到一个gydF4y2Ba桌子gydF4y2Ba.显示前七行。gydF4y2Ba

tbl =可读取的(gydF4y2Ba'abalone.data'gydF4y2Ba,gydF4y2Ba“文件类型”gydF4y2Ba,gydF4y2Ba'文本'gydF4y2Ba,gydF4y2Ba'readvariablenames'gydF4y2Ba,false); tbl.properties.variablenames = {gydF4y2Ba'性别'gydF4y2Ba,gydF4y2Ba'长度'gydF4y2Ba,gydF4y2Ba'直径'gydF4y2Ba,gydF4y2Ba'高度'gydF4y2Ba,gydF4y2Ba'womeight'gydF4y2Ba,gydF4y2Ba'牛斯威特'gydF4y2Ba,gydF4y2Ba“VWeight”gydF4y2Ba,gydF4y2Ba“ShWeight”gydF4y2Ba,gydF4y2Ba'noshellrings'gydF4y2Ba};台(1:7,:)gydF4y2Ba
ans =性长度直径高度WWeight SWeight VWeight ShWeight NoShellRings  ___ ______ ________ ______ _______ _______ _______ ________ ____________ ' 米的0.455 0.365 0.095 0.514 0.2245 0.101 0.15 15 ' M ' 0.35 0.265 0.09 0.2255 0.0995 0.0485 0.07 7 F的0.53 0.42 0.135 0.677 0.2565 0.1415 0.21 9 M 0.44 0.365 0.125 0.516 0.2155 0.114 0.155 10的我8 ' f ' 0.53 0.15 0.15 0.7775 0.237 0.1415 0.33 20gydF4y2Ba

数据集有4177个观察。目标是从八个物理测量预测鲍鱼的年龄。最后一个变量,壳牌戒指的数量显示了鲍鱼的年龄。第一预测器是一个分类变量。表中的最后一个变量是响应变量。gydF4y2Ba

使用25%的数据训练进行交叉验证的GPR模型进行验证。gydF4y2Ba

RNG(gydF4y2Ba'默认'gydF4y2Ba)gydF4y2Ba%的再现性gydF4y2Bacvgprmdl = fitrgp(tbl,gydF4y2Ba'noshellrings'gydF4y2Ba,gydF4y2Ba“标准化”gydF4y2Ba,1,gydF4y2Ba'坚持'gydF4y2Ba, 0.25);gydF4y2Ba

使用在非折叠观测上训练的模型计算折叠上的平均损失。gydF4y2Ba

kfoldLoss (cvgprMdl)gydF4y2Ba
ans = 4.6409.gydF4y2Ba

预测对过期数据的响应。gydF4y2Ba

ypred = kfoldPredict (cvgprMdl);gydF4y2Ba

绘制用于测试和预测的真正响应。gydF4y2Ba

图();plot(ypred(cvgprmdl.partition.test));持有gydF4y2Ba在gydF4y2Ba;y = table2array(资源描述(:,结束));情节(y (cvgprMdl.Partition.test),gydF4y2Ba'r。'gydF4y2Ba);轴([0 1050 0 30]);包含(gydF4y2Ba“x”gydF4y2Ba)ylabel(gydF4y2Ba“y”gydF4y2Ba) 抓住gydF4y2Ba离开gydF4y2Ba;gydF4y2Ba

生成示例数据。gydF4y2Ba

RNG(0,gydF4y2Ba'twister'gydF4y2Ba);gydF4y2Ba%的再现性gydF4y2Ban = 1000;x = linspace(-10,10,n)';y = 1 + x * 5e-2 + sin(x)./ x + 0.2 * randn(n,1);gydF4y2Ba

定义平方指数核函数为自定义核函数。gydF4y2Ba

您可以计算平方指数内核功能gydF4y2Ba

kgydF4y2Ba (gydF4y2Ba xgydF4y2Ba 我gydF4y2Ba ,gydF4y2Ba xgydF4y2Ba jgydF4y2Ba |gydF4y2Ba θgydF4y2Ba )gydF4y2Ba =gydF4y2Ba σ.gydF4y2Ba fgydF4y2Ba 2gydF4y2Ba 经验值gydF4y2Ba (gydF4y2Ba -gydF4y2Ba 1gydF4y2Ba 2gydF4y2Ba (gydF4y2Ba xgydF4y2Ba 我gydF4y2Ba -gydF4y2Ba xgydF4y2Ba jgydF4y2Ba )gydF4y2Ba TgydF4y2Ba (gydF4y2Ba xgydF4y2Ba 我gydF4y2Ba -gydF4y2Ba xgydF4y2Ba jgydF4y2Ba )gydF4y2Ba σ.gydF4y2Ba lgydF4y2Ba 2gydF4y2Ba )gydF4y2Ba ,gydF4y2Ba

在哪里gydF4y2Ba σ.gydF4y2Ba fgydF4y2Ba 是信号标准偏差,gydF4y2Ba σ.gydF4y2Ba lgydF4y2Ba 是长度比例。这两个gydF4y2Ba σ.gydF4y2Ba fgydF4y2Ba 和gydF4y2Ba σ.gydF4y2Ba lgydF4y2Ba 必须大于零。这种条件可以由无约束的参数化强制执行,gydF4y2Ba σ.gydF4y2Ba lgydF4y2Ba =gydF4y2Ba 经验值gydF4y2Ba (gydF4y2Ba θgydF4y2Ba (gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba )gydF4y2Ba 和gydF4y2Ba σ.gydF4y2Ba fgydF4y2Ba =gydF4y2Ba 经验值gydF4y2Ba (gydF4y2Ba θgydF4y2Ba (gydF4y2Ba 2gydF4y2Ba )gydF4y2Ba )gydF4y2Ba ,对于一些未受控参数化矢量gydF4y2Ba θgydF4y2Ba .gydF4y2Ba

因此,可以将平方指数核函数定义为自定义核函数,如下所示:gydF4y2Ba

kfcn = @(xn,xm,theta)(exp(theta(2))^ 2)* exp( - (pdist2(xn,xm)。^ 2)/(2 * exp(theta(1))^ 2));gydF4y2Ba

这里gydF4y2Bapdist2 (XN XM) ^ 2gydF4y2Ba计算距离矩阵。gydF4y2Ba

使用自定义内核函数拟合GPR模型,gydF4y2BakfcngydF4y2Ba.指定内核参数的初始值(因为您使用自定义内核函数,您必须为未约束参数化向量提供初始值,gydF4y2BaθgydF4y2Ba)。gydF4y2Ba

Theta0 = [1.5,0.2];gprmdl = fitrgp(x,y,gydF4y2Ba'骨箱'gydF4y2Ba,kfcn,gydF4y2Ba'kernelparameters'gydF4y2Ba,theta0);gydF4y2Ba

fitrgp.gydF4y2Ba使用分析衍生物在使用内置内核功能时估计参数,而使用自定义内核功能时,它使用数字衍生物。gydF4y2Ba

计算此模型的重新损失损失。gydF4y2Ba

L = resubLoss (gprMdl)gydF4y2Ba
L = 0.0391.gydF4y2Ba

使用内置的平方指数核函数选项拟合探地雷达模型。指定内核参数的初始值(因为使用内置的自定义内核函数并指定初始参数值,所以必须直接提供信号标准差和长度尺度的初始值)。gydF4y2Ba

sigmal0 = exp(1.5);sigmaf0 = exp(0.2);gprmdl2 = fitrgp(x,y,gydF4y2Ba'骨箱'gydF4y2Ba,gydF4y2Ba'squaredExponential'gydF4y2Ba,gydF4y2Ba'kernelparameters'gydF4y2Ba(sigmaL0 sigmaF0]);gydF4y2Ba

计算此模型的重新损失损失。gydF4y2Ba

l2 = RERUBLOS(GPRMDL2)gydF4y2Ba
L2 = 0.0391gydF4y2Ba

两个损耗值与预期相同。gydF4y2Ba

在具有许多预测器的生成数据上培训GPR模型。指定LBFGS Optimizer的初始步长。gydF4y2Ba

为结果的重现性设置随机数生成器的种子和类型。gydF4y2Ba

RNG(0,gydF4y2Ba'twister'gydF4y2Ba);gydF4y2Ba%的再现性gydF4y2Ba

生成具有300个观察和3000个预测器的示例数据,其中响应变量取决于第4,第7和第13个预测器。gydF4y2Ba

N = 300;P = 3000;X =兰德(氮、磷);y = cos (X (:, 7)) + sin (X(:, 4)。* X (:, 13)) + 0.1 * randn (N, 1);gydF4y2Ba

设置内核参数的初始值。gydF4y2Ba

sigmaL0 = sqrt (P) * 1 (P, 1);gydF4y2Ba预测器的%长度比例gydF4y2Basigmaf0 = 1;gydF4y2Ba%信号标准偏差gydF4y2Ba

将初始噪声标准偏差设置为gydF4y2Ba1gydF4y2Ba.gydF4y2Ba

sigmaN0 = 1;gydF4y2Ba

指定gydF4y2Ba1)依照gydF4y2Ba作为相对梯度范数的终止容限。gydF4y2Ba

opts = statset(gydF4y2Ba'fitrgp'gydF4y2Ba);opts.tolfun = 1E-2;gydF4y2Ba

利用初始核参数值、初始噪声标准差和自动相关性确定(ARD)平方指数核函数拟合GPR模型。gydF4y2Ba

指定初始步长为1,用于确定LBFGS Optimizer的初始Hessian近似值。gydF4y2Ba

gpr = fitrgp(x,y,gydF4y2Ba'骨箱'gydF4y2Ba,gydF4y2Ba“ardsquaredexponential”gydF4y2Ba,gydF4y2Ba“详细”gydF4y2Ba,1,gydF4y2Ba...gydF4y2Ba“优化”gydF4y2Ba,gydF4y2Ba'lbfgs'gydF4y2Ba,gydF4y2Ba'OptimizerOptions'gydF4y2Ba,选择,gydF4y2Ba...gydF4y2Ba'kernelparameters'gydF4y2Ba,[sigmal0; sigmaf0],gydF4y2Ba“σ”gydF4y2BasigmaN0,gydF4y2Ba'initalstepsize'gydF4y2Ba,1);gydF4y2Ba
o参数估计:FitMethod =精确,优化器= LBFGS O Solver = LBFGS,Hessianhistorysize = 15,LineSearchMethod =弱狼| ==================================================================================================== ||磨练|有趣的价值|常规毕业|规范步骤|抑制|伽玛|alpha |接受| |====================================================================================================| | 0 | 3.004966e+02 | 2.569e+02 | 0.000e+00 | | 3.893e-03 | 0.000e+00 | YES | | 1 | 9.525779e+01 | 1.281e+02 | 1.003e+00 | OK | 6.913e-03 | 1.000e+00 | YES | | 2 | 3.972026e+01 | 1.647e+01 | 7.639e-01 | OK | 4.718e-03 | 5.000e-01 | YES | | 3 | 3.893873e+01 | 1.073e+01 | 1.057e-01 | OK | 3.243e-03 | 1.000e+00 | YES | | 4 | 3.859904e+01 | 5.659e+00 | 3.282e-02 | OK | 3.346e-03 | 1.000e+00 | YES | | 5 | 3.748912e+01 | 1.030e+01 | 1.395e-01 | OK | 1.460e-03 | 1.000e+00 | YES | | 6 | 2.028104e+01 | 1.380e+02 | 2.010e+00 | OK | 2.326e-03 | 1.000e+00 | YES | | 7 | 2.001849e+01 | 1.510e+01 | 9.685e-01 | OK | 2.344e-03 | 1.000e+00 | YES | | 8 | -7.706109e+00 | 8.340e+01 | 1.125e+00 | OK | 5.771e-04 | 1.000e+00 | YES | | 9 | -1.786074e+01 | 2.323e+02 | 2.647e+00 | OK | 4.217e-03 | 1.250e-01 | YES | | 10 | -4.058422e+01 | 1.972e+02 | 6.796e-01 | OK | 7.035e-03 | 1.000e+00 | YES | | 11 | -7.850209e+01 | 4.432e+01 | 8.335e-01 | OK | 3.099e-03 | 1.000e+00 | YES | | 12 | -1.312162e+02 | 3.334e+01 | 1.277e+00 | OK | 5.432e-02 | 1.000e+00 | YES | | 13 | -2.005064e+02 | 9.519e+01 | 2.828e+00 | OK | 5.292e-03 | 1.000e+00 | YES | | 14 | -2.070150e+02 | 1.898e+01 | 1.641e+00 | OK | 6.817e-03 | 1.000e+00 | YES | | 15 | -2.108086e+02 | 3.793e+01 | 7.685e-01 | OK | 3.479e-03 | 1.000e+00 | YES | | 16 | -2.122920e+02 | 7.057e+00 | 1.591e-01 | OK | 2.055e-03 | 1.000e+00 | YES | | 17 | -2.125610e+02 | 4.337e+00 | 4.818e-02 | OK | 1.974e-03 | 1.000e+00 | YES | | 18 | -2.130162e+02 | 1.178e+01 | 8.891e-02 | OK | 2.856e-03 | 1.000e+00 | YES | | 19 | -2.139378e+02 | 1.933e+01 | 2.371e-01 | OK | 1.029e-02 | 1.000e+00 | YES | |====================================================================================================| | ITER | FUN VALUE | NORM GRAD | NORM STEP | CURV | GAMMA | ALPHA | ACCEPT | |====================================================================================================| | 20 | -2.151111e+02 | 1.550e+01 | 3.015e-01 | OK | 2.765e-02 | 1.000e+00 | YES | | 21 | -2.173046e+02 | 5.856e+00 | 6.537e-01 | OK | 1.414e-02 | 1.000e+00 | YES | | 22 | -2.201781e+02 | 8.918e+00 | 8.484e-01 | OK | 6.381e-03 | 1.000e+00 | YES | | 23 | -2.288858e+02 | 4.846e+01 | 2.311e+00 | OK | 2.661e-03 | 1.000e+00 | YES | | 24 | -2.392171e+02 | 1.190e+02 | 6.283e+00 | OK | 8.113e-03 | 1.000e+00 | YES | | 25 | -2.511145e+02 | 1.008e+02 | 1.198e+00 | OK | 1.605e-02 | 1.000e+00 | YES | | 26 | -2.742547e+02 | 2.207e+01 | 1.231e+00 | OK | 3.191e-03 | 1.000e+00 | YES | | 27 | -2.849931e+02 | 5.067e+01 | 3.660e+00 | OK | 5.184e-03 | 1.000e+00 | YES | | 28 | -2.899797e+02 | 2.068e+01 | 1.162e+00 | OK | 6.270e-03 | 1.000e+00 | YES | | 29 | -2.916723e+02 | 1.816e+01 | 3.213e-01 | OK | 1.415e-02 | 1.000e+00 | YES | | 30 | -2.947674e+02 | 6.965e+00 | 1.126e+00 | OK | 6.339e-03 | 1.000e+00 | YES | | 31 | -2.962491e+02 | 1.349e+01 | 2.352e-01 | OK | 8.999e-03 | 1.000e+00 | YES | | 32 | -3.004921e+02 | 1.586e+01 | 9.880e-01 | OK | 3.940e-02 | 1.000e+00 | YES | | 33 | -3.118906e+02 | 1.889e+01 | 3.318e+00 | OK | 1.213e-01 | 1.000e+00 | YES | | 34 | -3.189215e+02 | 7.086e+01 | 3.070e+00 | OK | 8.095e-03 | 1.000e+00 | YES | | 35 | -3.245557e+02 | 4.366e+00 | 1.397e+00 | OK | 2.718e-03 | 1.000e+00 | YES | | 36 | -3.254613e+02 | 3.751e+00 | 6.546e-01 | OK | 1.004e-02 | 1.000e+00 | YES | | 37 | -3.262823e+02 | 4.011e+00 | 2.026e-01 | OK | 2.441e-02 | 1.000e+00 | YES | | 38 | -3.325606e+02 | 1.773e+01 | 2.427e+00 | OK | 5.234e-02 | 1.000e+00 | YES | | 39 | -3.350374e+02 | 1.201e+01 | 1.603e+00 | OK | 2.674e-02 | 1.000e+00 | YES | |====================================================================================================| | ITER | FUN VALUE | NORM GRAD | NORM STEP | CURV | GAMMA | ALPHA | ACCEPT | |====================================================================================================| | 40 | -3.379112e+02 | 5.280e+00 | 1.393e+00 | OK | 1.177e-02 | 1.000e+00 | YES | | 41 | -3.389136e+02 | 3.061e+00 | 7.121e-01 | OK | 2.935e-02 | 1.000e+00 | YES | | 42 | -3.401070e+02 | 4.094e+00 | 6.224e-01 | OK | 3.399e-02 | 1.000e+00 | YES | | 43 | -3.436291e+02 | 8.833e+00 | 1.707e+00 | OK | 5.231e-02 | 1.000e+00 | YES | | 44 | -3.456295e+02 | 5.891e+00 | 1.424e+00 | OK | 3.772e-02 | 1.000e+00 | YES | | 45 | -3.460069e+02 | 1.126e+01 | 2.580e+00 | OK | 3.907e-02 | 1.000e+00 | YES | | 46 | -3.481756e+02 | 1.546e+00 | 8.142e-01 | OK | 1.565e-02 | 1.000e+00 | YES | Infinity norm of the final gradient = 1.546e+00 Two norm of the final step = 8.142e-01, TolX = 1.000e-12 Relative infinity norm of the final gradient = 6.016e-03, TolFun = 1.000e-02 EXIT: Local minimum found. o Alpha estimation: PredictMethod = Exact

因为GPR模型使用具有许多预测器的ARD内核,所以使用与Hessian的LBFG近​​似值比存储完整的Hessian矩阵更高。此外,使用初始步长来确定最初的Hessian近似可能有助于加速优化。gydF4y2Ba

通过采用负面学习长度尺度的指数来找到预测器权重。标准化重量。gydF4y2Ba

sigmaL = gpr.KernelInformation.KernelParameters (1: end-1);gydF4y2Ba%学习的长度尺度gydF4y2Ba重量= exp (-sigmaL);gydF4y2Ba%预测权重gydF4y2Ba重量=权重/和(重量);gydF4y2Ba%标准化预测值重量gydF4y2Ba

绘制归一化预测器的权重。gydF4y2Ba

图;semilogx(重量、gydF4y2Ba'ro'gydF4y2Ba);包含(gydF4y2Ba'预测指数'gydF4y2Ba);ylabel(gydF4y2Ba'预测重量'gydF4y2Ba);gydF4y2Ba

训练有素的GPR模型为第4,第7和第13个预测器分配最大权重。无关的预测因子的重量接近零。gydF4y2Ba

输入参数gydF4y2Ba

全部收缩gydF4y2Ba

用于训练模型的样本数据,指定为gydF4y2Ba桌子gydF4y2Ba.每一排gydF4y2BaTBL.gydF4y2Ba对应一个观察值,每一列对应一个变量。gydF4y2BaTBL.gydF4y2Ba包含预测变量,还可以选择包含响应变量的一列。不允许多列变量和字符向量的单元格数组之外的单元格数组。gydF4y2Ba

  • 如果gydF4y2BaTBL.gydF4y2Ba包含响应变量,如果希望使用所有剩余变量作为预测器,则使用gydF4y2BaResponseVarNamegydF4y2Ba.gydF4y2Ba

  • 如果gydF4y2BaTBL.gydF4y2Ba包含响应变量,并且您希望在训练模型时只使用预测器的一个子集,然后指定响应变量和使用的预测器变量gydF4y2Ba公式gydF4y2Ba.gydF4y2Ba

  • 如果gydF4y2BaTBL.gydF4y2Ba不包含响应变量,然后使用响应变量使用gydF4y2BaygydF4y2Ba.响应变量的长度和行的数量gydF4y2BaTBL.gydF4y2Ba必须是相等的。gydF4y2Ba

有关更多信息gydF4y2Ba桌子gydF4y2Ba数据类型,请看gydF4y2Ba桌子gydF4y2Ba.gydF4y2Ba

如果您的预测数据包含分类变量,那么该软件对这些变量使用完全虚拟编码。软件为分类变量的每一级创建一个虚拟变量。gydF4y2Ba

数据类型:gydF4y2Ba桌子gydF4y2Ba

响应变量名称,指定为变量的名称gydF4y2BaTBL.gydF4y2Ba.您必须指定gydF4y2BaResponseVarNamegydF4y2Ba作为字符矢量或字符串标量。例如,如果响应变量gydF4y2BaygydF4y2Ba存储在gydF4y2BaTBL.gydF4y2Ba(如gydF4y2Batbl.y.gydF4y2Ba),然后指定为gydF4y2Ba“y”gydF4y2Ba.否则,软件将处理所有列gydF4y2BaTBL.gydF4y2Ba, 包含gydF4y2BaygydF4y2Ba,作为训练模型时的预测器。gydF4y2Ba

数据类型:gydF4y2BachargydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba

在模型培训中使用的响应和预测变量,指定为以字符向量或字符串标量的形式gydF4y2Ba“y ~ x1 + x2 + x3”gydF4y2Ba.在这种形式,gydF4y2BaygydF4y2Ba表示响应变量;gydF4y2BaX1gydF4y2Ba,gydF4y2BaX2gydF4y2Ba,gydF4y2Bax3gydF4y2Ba表示用于训练模型的预测变量。gydF4y2Ba

如果要指定变量的子集,请使用公式gydF4y2BaTBL.gydF4y2Ba作为培训模型时使用的预测器。如果指定公式,则任何未出现的变量gydF4y2Ba公式gydF4y2Ba不习惯训练模型。gydF4y2Ba

公式中的变量名称必须是变量名称gydF4y2BaTBL.gydF4y2Ba(gydF4y2Batbl.properties.variablenames.gydF4y2Ba)和有效的matlabgydF4y2Ba®gydF4y2Ba身份标识。gydF4y2Ba

您可以验证变量名称gydF4y2BaTBL.gydF4y2Ba通过使用gydF4y2Baisvarname.gydF4y2Ba函数。以下代码返回逻辑gydF4y2Ba1gydF4y2Ba(gydF4y2Ba真的gydF4y2Ba),以获取每个具有有效变量名的变量。gydF4y2Ba

cellfun(@ isvarname,tbl.properties.variablenames)gydF4y2Ba
如果变量名称gydF4y2BaTBL.gydF4y2Ba无效,然后使用它来转换它们gydF4y2Bamatlab.lang.makevalidname.gydF4y2Ba函数。gydF4y2Ba
tbl.properties.variablenames = matlab.lang.makevallname(tbl.properties.variablenames);gydF4y2Ba

公式并不表示形式gydF4y2Ba基本功能gydF4y2Ba.gydF4y2Ba

例子:gydF4y2Ba'petallength〜petalwidth + speies'gydF4y2Ba标识变量gydF4y2Bapetallength.gydF4y2Ba作为响应变量,和gydF4y2BaPetalwidth.gydF4y2Ba和gydF4y2Ba物种gydF4y2Ba作为预测变量。gydF4y2Ba

数据类型:gydF4y2BachargydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba

GPR模型的预测数据,指定为gydF4y2BangydF4y2Ba-经过-gydF4y2BadgydF4y2Ba矩阵。gydF4y2BangydF4y2Ba是观察数(行),以及gydF4y2BadgydF4y2Ba是预测器(列)的数量。gydF4y2Ba

的长度gydF4y2BaygydF4y2Ba和行的数量gydF4y2BaXgydF4y2Ba必须是相等的。gydF4y2Ba

以它们的外观顺序指定预测器的名称gydF4y2BaXgydF4y2Ba,可以使用gydF4y2Ba预测gydF4y2Ba名称-值对的论点。gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

GPR模型的响应数据,指定为gydF4y2BangydF4y2Ba1的向量。你可以省略gydF4y2BaygydF4y2Ba如果你提供gydF4y2BaTBL.gydF4y2Ba培训数据还包括gydF4y2BaygydF4y2Ba.在这种情况下,使用gydF4y2BaResponseVarNamegydF4y2Ba识别响应变量或使用gydF4y2Ba公式gydF4y2Ba识别响应和预测变量。gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

名称-值对的观点gydF4y2Ba

指定可选的逗号分隔的对gydF4y2Ba名称,值gydF4y2Ba论点。gydF4y2Ba名称gydF4y2Ba是参数名称和gydF4y2Ba价值gydF4y2Ba是相应的价值。gydF4y2Ba名称gydF4y2Ba必须出现在引号内。您可以以任何顺序指定多个名称和值对参数gydF4y2Baname1,value1,...,namen,valuengydF4y2Ba.gydF4y2Ba

例子:gydF4y2Ba'fitmethod','sr','基本功能','linear','activesetmethod','sgma','predictmethod',fic'gydF4y2Ba使用用于参数估计的回归近似方法的近似方法的GPR模型进行训练,使用线性基本函数,使用稀疏贪婪矩阵近似用于主动选择,以及预测的完全独立的条件近似方法。gydF4y2Ba

笔记gydF4y2Ba

您不能使用任何交叉验证名称 - 值对参数以及gydF4y2Ba'OptimizeHyperParameters'gydF4y2Ba名称-值对的论点。您可以修改交叉验证gydF4y2Ba'OptimizeHyperParameters'gydF4y2Ba只有使用gydF4y2Ba“HyperparameterOptimizationOptions”gydF4y2Ba名称-值对的论点。gydF4y2Ba

拟合gydF4y2Ba

全部收缩gydF4y2Ba

方法估计探地雷达模型的参数,指定为逗号分隔对组成gydF4y2Ba“FitMethod”gydF4y2Ba下面是其中之一。gydF4y2Ba

拟合方法gydF4y2Ba 描述gydF4y2Ba
“没有”gydF4y2Ba 无估计,使用初始参数值作为已知参数值。gydF4y2Ba
'精确的'gydF4y2Ba 精确的高斯进程回归。默认情况违约gydF4y2BangydF4y2Ba≤2000,gydF4y2BangydF4y2Ba是观察人数。gydF4y2Ba
'SD'gydF4y2Ba 数据点的子集近似。默认情况违约gydF4y2BangydF4y2Ba> 2000年,gydF4y2BangydF4y2Ba是观察人数。gydF4y2Ba
“老”gydF4y2Ba 回归量近似子集。gydF4y2Ba
膜集成电路的gydF4y2Ba 完全独立条件近似。gydF4y2Ba

例子:gydF4y2Ba'fitmethod','fic'gydF4y2Ba

GPR模型中的显式基础,指定为逗号分隔对组成gydF4y2Ba“BasisFunction”gydF4y2Ba下面是其中之一。如果gydF4y2BangydF4y2Ba是观察的数量,基础函数增加了这个术语gydF4y2BaHgydF4y2Ba*gydF4y2BaβgydF4y2Ba到模型,在哪里gydF4y2BaHgydF4y2Ba是基矩阵和gydF4y2BaβgydF4y2Ba是一个gydF4y2BapgydF4y2Ba-1个基础系数矢量矢量系数。gydF4y2Ba

明确的基础上gydF4y2Ba 基础矩阵gydF4y2Ba
“没有”gydF4y2Ba 空矩阵。gydF4y2Ba
“不变”gydF4y2Ba

HgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba

(gydF4y2BangydF4y2Ba-by-1矢量1s,其中gydF4y2BangydF4y2Ba是观察人数)gydF4y2Ba

'线性'gydF4y2Ba

HgydF4y2Ba =gydF4y2Ba [gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba XgydF4y2Ba ]gydF4y2Ba

'purequadratic'gydF4y2Ba

HgydF4y2Ba =gydF4y2Ba [gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba XgydF4y2Ba ,gydF4y2Ba XgydF4y2Ba 2gydF4y2Ba ]gydF4y2Ba ,gydF4y2Ba

在哪里gydF4y2Ba

XgydF4y2Ba 2gydF4y2Ba =gydF4y2Ba [gydF4y2Ba xgydF4y2Ba 11.gydF4y2Ba 2gydF4y2Ba xgydF4y2Ba 12.gydF4y2Ba 2gydF4y2Ba ⋯gydF4y2Ba xgydF4y2Ba 1gydF4y2Ba dgydF4y2Ba 2gydF4y2Ba xgydF4y2Ba 21.gydF4y2Ba 2gydF4y2Ba xgydF4y2Ba 22.gydF4y2Ba 2gydF4y2Ba ⋯gydF4y2Ba xgydF4y2Ba 2gydF4y2Ba dgydF4y2Ba 2gydF4y2Ba ⋮gydF4y2Ba ⋮gydF4y2Ba ⋮gydF4y2Ba ⋮gydF4y2Ba xgydF4y2Ba ngydF4y2Ba 1gydF4y2Ba 2gydF4y2Ba xgydF4y2Ba ngydF4y2Ba 2gydF4y2Ba 2gydF4y2Ba ⋯gydF4y2Ba xgydF4y2Ba ngydF4y2Ba dgydF4y2Ba 2gydF4y2Ba ]gydF4y2Ba .gydF4y2Ba

功能手柄gydF4y2Ba

功能手柄,gydF4y2BaHFCN.gydF4y2Ba, 那gydF4y2Bafitrgp.gydF4y2Ba呼叫为:gydF4y2Ba

HgydF4y2Ba =gydF4y2Ba hgydF4y2Ba fgydF4y2Ba cgydF4y2Ba ngydF4y2Ba (gydF4y2Ba XgydF4y2Ba )gydF4y2Ba ,gydF4y2Ba

在哪里gydF4y2BaXgydF4y2Ba是一个gydF4y2BangydF4y2Ba-经过-gydF4y2BadgydF4y2Ba预测矩阵和gydF4y2BaHgydF4y2Ba是一个gydF4y2BangydF4y2Ba-经过-gydF4y2BapgydF4y2Ba基础函数的矩阵。gydF4y2Ba

例子:gydF4y2Ba'基本功能','purequadatic'gydF4y2Ba

数据类型:gydF4y2BachargydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba|gydF4y2Bafunction_handlegydF4y2Ba

初始值的系数为显式基,指定为逗号分隔对组成gydF4y2Ba'beta'gydF4y2Ba和gydF4y2BapgydF4y2Ba-1 vector,在哪里gydF4y2BapgydF4y2Ba基矩阵的列数是多少gydF4y2BaHgydF4y2Ba.gydF4y2Ba

基矩阵依赖于显式基函数的选择,如下所示gydF4y2Ba基本功能gydF4y2Ba)。gydF4y2Ba

fitrgp.gydF4y2Ba使用系数初始值作为已知系数值,只有gydF4y2BaFitmethod.gydF4y2Ba是gydF4y2Ba“没有”gydF4y2Ba.gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

高斯过程模型噪声标准差的初始值,指定为逗号分隔对组成gydF4y2Ba“σ”gydF4y2Ba和正标量值。gydF4y2Ba

例子:gydF4y2Ba“σ”,2gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

恒定价值gydF4y2BaσgydF4y2Ba为高斯过程模型的噪声标准偏差,指定为逻辑标量。当gydF4y2Ba份额gydF4y2Ba是gydF4y2Ba真的gydF4y2Ba,gydF4y2Bafitrgp.gydF4y2Ba不优化价值gydF4y2BaσgydF4y2Ba,而是将初始值作为整个计算中的值。gydF4y2Ba

例子:gydF4y2Ba'incoratessigma',真实gydF4y2Ba

数据类型:gydF4y2Ba逻辑gydF4y2Ba

噪声标准偏差下限,指定为包括的逗号分隔对gydF4y2Ba'sigmalowerbound'gydF4y2Ba和正标量值。gydF4y2Ba

例子:gydF4y2Ba'sigmalowerbound',0.02gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

分类预测器列表,指定为逗号分隔的配对组成gydF4y2Ba“CategoricalPredictors”gydF4y2Ba和此表中的值之一。gydF4y2Ba

价值gydF4y2Ba 描述gydF4y2Ba
正整数向量gydF4y2Ba 向量中的每一项都是对应于预测器数据列的索引值(gydF4y2BaXgydF4y2Ba要么gydF4y2BaTBL.gydF4y2Ba)包含一个分类变量。gydF4y2Ba
逻辑矢量gydF4y2Ba 一个gydF4y2Ba真的gydF4y2Ba输入表示预测器数据的相应列(gydF4y2BaXgydF4y2Ba要么gydF4y2BaTBL.gydF4y2Ba)是一个分类变量。gydF4y2Ba
字符矩阵gydF4y2Ba 矩阵的每一行是预测器变量的名称。名称必须与条目匹配gydF4y2Ba预测gydF4y2Ba.用额外的空格填充名字,这样字符矩阵的每一行都有相同的长度。gydF4y2Ba
字符串阵列或字符向量的单元数组gydF4y2Ba 数组中的每个元素是预测器变量的名称。名称必须与条目匹配gydF4y2Ba预测gydF4y2Ba.gydF4y2Ba
'全部'gydF4y2Ba 所有预测因素都是分类的。gydF4y2Ba

默认情况下,如果预测器数据在表中(gydF4y2BaTBL.gydF4y2Ba),gydF4y2Bafitrgp.gydF4y2Ba如果一个变量是逻辑向量、分类向量、字符数组、字符串数组或字符向量的单元格数组,则假设它是类别变量。如果预测数据是一个矩阵(gydF4y2BaXgydF4y2Ba),gydF4y2Bafitrgp.gydF4y2Ba假设所有预测器都是连续的。要将任何其他预测器标识为分类预测器,请使用gydF4y2Ba“CategoricalPredictors”gydF4y2Ba名称-值对的论点。gydF4y2Ba

对于已识别的分类预测因子,gydF4y2Bafitrgp.gydF4y2Ba使用两个不同的方案创建虚拟变量,具体取决于分类变量是否无序或有序。有关详细信息,请参阅gydF4y2Ba自动创建虚拟变量gydF4y2Ba.gydF4y2Ba

例子:gydF4y2Ba'patericalpricictors','全部'gydF4y2Ba

数据类型:gydF4y2Ba单身的gydF4y2Ba|gydF4y2Ba双倍的gydF4y2Ba|gydF4y2Ba逻辑gydF4y2Ba|gydF4y2BachargydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba|gydF4y2Ba细胞gydF4y2Ba

指标标准化数据,指定为逗号分隔的配对gydF4y2Ba“标准化”gydF4y2Ba和逻辑价值。gydF4y2Ba

如果你设置了gydF4y2Ba'标准化',1gydF4y2Ba,然后软件对预测数据的每一列进行中心和标度,分别用列均值和标准偏差。该软件不标准化包含在虚拟变量列中的数据,它为分类预测器生成。gydF4y2Ba

例子:gydF4y2Ba'标准化',1gydF4y2Ba

例子:gydF4y2Ba'标准化',真实gydF4y2Ba

数据类型:gydF4y2Ba逻辑gydF4y2Ba

稀疏方法子集正则化标准差(gydF4y2Ba“老”gydF4y2Ba)和完全独立条件的(gydF4y2Ba膜集成电路的gydF4y2Ba),指定为逗号分隔的配对组成gydF4y2Ba“正规化”gydF4y2Ba和正标量值。gydF4y2Ba

例子:gydF4y2Ba“正规化”,0.2gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

用回归子子集计算参数估计的对数似然和梯度的方法(gydF4y2Ba“老”gydF4y2Ba)和完全独立条件的(gydF4y2Ba膜集成电路的gydF4y2Ba)近似方法,指定为逗号分隔对,由gydF4y2Ba“ComputationMethod”gydF4y2Ba下面是其中之一。gydF4y2Ba

  • “qr”gydF4y2Ba- 使用基于QR因分化的方法,此选项提供更好的准确性。gydF4y2Ba

  • “v”gydF4y2Ba- 使用基于V方法的方法。此选项可提供更快的日志似然渐变计算。gydF4y2Ba

例子:gydF4y2Ba“ComputationMethod”、“v”gydF4y2Ba

内核(协方差)功能gydF4y2Ba

全部收缩gydF4y2Ba

协方差函数的形式,指定为逗号分隔的配对组成gydF4y2Ba'骨箱'gydF4y2Ba下面是其中之一。gydF4y2Ba

功能gydF4y2Ba 描述gydF4y2Ba
“指数”gydF4y2Ba 指数内核。gydF4y2Ba
'squaredExponential'gydF4y2Ba 平方指数内核。gydF4y2Ba
'Matern32'gydF4y2Ba 母核参数为3/2。gydF4y2Ba
“matern52”gydF4y2Ba 母核参数为5/2。gydF4y2Ba
“理性的”gydF4y2Ba 合理的二次内核。gydF4y2Ba
“ardexponential”gydF4y2Ba 指数内核,每个预测器的单独长度尺度。gydF4y2Ba
“ardsquaredexponential”gydF4y2Ba 平方指数内核,每个预测器具有单独的长度尺度。gydF4y2Ba
'ardmatern32'gydF4y2Ba 母核与参数3/2和一个独立的长度尺度每个预测器。gydF4y2Ba
“ardmatern52”gydF4y2Ba Matern内核与参数5/2和每个预测器的单独长度尺度。gydF4y2Ba
'Ardricionalquadratic'gydF4y2Ba 每个预测器有一个单独的长度尺度的有理二次核。gydF4y2Ba
功能手柄gydF4y2Ba 可以像这样调用的函数句柄:gydF4y2Ba
Kmn = kfcn (Xm, Xnθ)gydF4y2Ba
在哪里gydF4y2BaXM.gydF4y2Ba是一个gydF4y2Ba米gydF4y2Ba-经过-gydF4y2BadgydF4y2Ba矩阵,gydF4y2BaXN.gydF4y2Ba是一个gydF4y2BangydF4y2Ba-经过-gydF4y2BadgydF4y2Ba矩阵和gydF4y2BaKmngydF4y2Ba是一个gydF4y2Ba米gydF4y2Ba-经过-gydF4y2BangydF4y2Ba内核产品的矩阵使其如此s manbetx 845gydF4y2BaKmngydF4y2Ba(gydF4y2Ba我gydF4y2Ba,gydF4y2BajgydF4y2Ba)是内核产品gydF4y2BaXM.gydF4y2Ba(gydF4y2Ba我gydF4y2Ba:),gydF4y2BaXN.gydF4y2Ba(gydF4y2BajgydF4y2Ba:)。gydF4y2Ba
θgydF4y2Ba是个gydF4y2BargydF4y2Ba- 1-1无限制参数向量gydF4y2BakfcngydF4y2Ba.gydF4y2Ba

有关内核函数的更多信息,请参见gydF4y2Ba核(协方差)功能选项gydF4y2Ba.gydF4y2Ba

例子:gydF4y2Ba'erernelfunction','matern32'gydF4y2Ba

数据类型:gydF4y2BachargydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba|gydF4y2Bafunction_handlegydF4y2Ba

内核参数的初始值,指定为逗号分隔对组成gydF4y2Ba'kernelparameters'gydF4y2Ba和矢量。矢量的大小和值取决于协方差函数的形式,由此指定gydF4y2BaKernelFunctiongydF4y2Ba名称-值对的论点。gydF4y2Ba

'骨箱'gydF4y2Ba 'kernelparameters'gydF4y2Ba
“指数”gydF4y2Ba要么gydF4y2Ba'squaredExponential'gydF4y2Ba要么gydF4y2Ba'Matern32'gydF4y2Ba要么gydF4y2Ba“matern52”gydF4y2Ba 2×1的向量gydF4y2BaφgydF4y2Ba, 在哪里gydF4y2BaPHI(1)gydF4y2Ba包含长度尺度和gydF4y2BaPHI(2)gydF4y2Ba包含信号标准差。gydF4y2Ba
长度尺度参数的默认初始值为预测器标准差的均值,信号标准差为响应标准差除以根号2。那是,gydF4y2Ba
phi = [均值(std(x)); std(y)/ sqrt(2)]gydF4y2Ba
“理性的”gydF4y2Ba 3×1载体gydF4y2BaφgydF4y2Ba, 在哪里gydF4y2BaPHI(1)gydF4y2Ba包含长度尺度,gydF4y2BaPHI(2)gydF4y2Ba包含级别混合参数,和gydF4y2BaPHI(3)gydF4y2Ba包含信号标准差。gydF4y2Ba
长度尺度参数的默认初始值为预测器标准差的均值,信号标准差为响应标准差除以根号2。缩放混合参数的默认初始值是1。那是,gydF4y2Ba
phi = [均值(std(x)); 1; std(y)/ sqrt(2)]gydF4y2Ba
“ardexponential”gydF4y2Ba要么gydF4y2Ba“ardsquaredexponential”gydF4y2Ba要么gydF4y2Ba'ardmatern32'gydF4y2Ba要么gydF4y2Ba“ardmatern52”gydF4y2Ba (gydF4y2BadgydF4y2Ba+1)-By-1矢量gydF4y2BaφgydF4y2Ba, 在哪里gydF4y2BaPHI(i)gydF4y2Ba包含预测器的长度尺度gydF4y2Ba我gydF4y2Ba和gydF4y2Baφ(d + 1)gydF4y2Ba包含信号标准差。gydF4y2BadgydF4y2Ba为预测变量的数量。gydF4y2Ba
长度比例参数的默认初始值是预测器的标准偏差,信号标准偏差是响应除以2的平方根的标准偏差。即,gydF4y2Ba
φ= (std (X); std (y) /√(2))gydF4y2Ba
'Ardricionalquadratic'gydF4y2Ba (gydF4y2BadgydF4y2Ba+2)-By-1矢量gydF4y2BaφgydF4y2Ba, 在哪里gydF4y2BaPHI(i)gydF4y2Ba包含预测器的长度尺度gydF4y2Ba我gydF4y2Ba,gydF4y2Baφ(d + 1)gydF4y2Ba包含级别混合参数,和gydF4y2Baφ(d + 2)gydF4y2Ba包含信号标准偏差。gydF4y2Ba
长度比例参数的默认初始值是预测器的标准偏差,信号标准偏差是响应的标准偏差除以2.尺度混合参数的默认初始值为1。即,gydF4y2Ba
phi = [std(x)'; 1; std(y)/ sqrt(2)]gydF4y2Ba
功能手柄gydF4y2Ba rgydF4y2Ba-1载向量作为无约会参数向量的初始值gydF4y2BaφgydF4y2Ba用于自定义内核函数gydF4y2BakfcngydF4y2Ba.gydF4y2Ba
当gydF4y2BaKernelFunctiongydF4y2Ba是函数句柄时,必须提供内核参数的初始值。gydF4y2Ba

有关内核函数的更多信息,请参见gydF4y2Ba核(协方差)功能选项gydF4y2Ba.gydF4y2Ba

例子:gydF4y2Ba'kernelparameters',thetagydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

用于计算计算内建核函数的点间距离的方法,指定为由逗号分隔的对组成gydF4y2Ba“DistanceMethod”gydF4y2Ba,要么gydF4y2Ba'快速地'gydF4y2Ba要么gydF4y2Ba'准确的'gydF4y2Ba.gydF4y2Bafitrgp.gydF4y2Ba计算gydF4y2Ba (gydF4y2Ba xgydF4y2Ba -gydF4y2Ba ygydF4y2Ba )gydF4y2Ba 2gydF4y2Ba 作为gydF4y2Ba xgydF4y2Ba 2gydF4y2Ba +gydF4y2Ba ygydF4y2Ba 2gydF4y2Ba -gydF4y2Ba 2gydF4y2Ba *gydF4y2Ba xgydF4y2Ba *gydF4y2Ba ygydF4y2Ba 当你选择gydF4y2Ba快gydF4y2Ba选择和as.gydF4y2Ba (gydF4y2Ba xgydF4y2Ba -gydF4y2Ba ygydF4y2Ba )gydF4y2Ba 2gydF4y2Ba 当你选择gydF4y2Ba准确的gydF4y2Ba选项。gydF4y2Ba

例子:gydF4y2Ba'distancemethod','准确'gydF4y2Ba

活动集选择gydF4y2Ba

全部收缩gydF4y2Ba

在活动集中的观察,指定为逗号分隔的对组成gydF4y2Ba“ActiveSet”gydF4y2Ba和gydF4y2Ba米gydF4y2Ba- 1-1个整数矢量范围从1到gydF4y2BangydF4y2Ba(gydF4y2Ba米gydF4y2Ba≤gydF4y2BangydF4y2Ba)或长度的逻辑向量gydF4y2BangydF4y2Ba至少有一个gydF4y2Ba真的gydF4y2Ba元素。gydF4y2BangydF4y2Ba为训练数据中的观测总数。gydF4y2Ba

fitrgp.gydF4y2Ba使用由gydF4y2BaActiveset.gydF4y2Ba来训练探地雷达模型。活动集不能有重复的元素。gydF4y2Ba

如果你提供gydF4y2BaActiveset.gydF4y2Ba, 然后:gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba|gydF4y2Ba逻辑gydF4y2Ba

稀疏方法的活动集的大小(gydF4y2Ba'SD'gydF4y2Ba,gydF4y2Ba“老”gydF4y2Ba,gydF4y2Ba膜集成电路的gydF4y2Ba),指定为逗号分隔的配对组成gydF4y2Ba“ActiveSetSize”gydF4y2Ba和一个整数gydF4y2Ba米gydF4y2Ba,1≤.gydF4y2Ba米gydF4y2Ba≤gydF4y2BangydF4y2Ba, 在哪里gydF4y2BangydF4y2Ba是观察人数。gydF4y2Ba

默认的是最小值(1000gydF4y2BangydF4y2Ba) 什么时候gydF4y2BaFitmethod.gydF4y2Ba是gydF4y2Ba“老”gydF4y2Ba要么gydF4y2Ba膜集成电路的gydF4y2Ba和min(2000,gydF4y2BangydF4y2Ba), 否则。gydF4y2Ba

例子:gydF4y2Ba“ActiveSetSize”,100年gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

活动集选择方法,指定为逗号分隔对组成gydF4y2Ba'ActivesetMethod'gydF4y2Ba下面是其中之一。gydF4y2Ba

方法gydF4y2Ba 描述gydF4y2Ba
'随机的'gydF4y2Ba 随机选择gydF4y2Ba
'sgma'gydF4y2Ba 稀疏贪婪矩阵近似gydF4y2Ba
'熵'gydF4y2Ba 基于差分熵的选择gydF4y2Ba
“可能性”gydF4y2Ba 回归器子集对数似然选择gydF4y2Ba

所有活动集选择方法(除了gydF4y2Ba'随机的'gydF4y2Ba)需要存储一个gydF4y2BangydF4y2Ba-经过-gydF4y2Ba米gydF4y2Ba矩阵,其中gydF4y2Ba米gydF4y2Ba活动集的大小和gydF4y2BangydF4y2Ba是观察人数。gydF4y2Ba

例子:gydF4y2Ba“ActiveSetMethod”,“熵”gydF4y2Ba

随机搜索设置每个贪婪包含活动集选择的尺寸,指定为包括的逗号分隔对gydF4y2Ba'randomsearchsetsize'gydF4y2Ba和整数值。gydF4y2Ba

例子:gydF4y2Ba“RandomSearchSetSize”,30岁gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

用于终止活动集选择的相对容忍,指定为包括的逗号分隔对gydF4y2Ba“ToleranceActiveset”gydF4y2Ba和正标量值。gydF4y2Ba

例子:gydF4y2Ba'toleranceacctive',0.0002gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

重复次数gydF4y2Ba交错活动集选择和参数估计gydF4y2Ba什么时候gydF4y2BaActivesetMethod.gydF4y2Ba不是gydF4y2Ba'随机的'gydF4y2Ba,指定为逗号分隔的配对组成gydF4y2Ba'numactivesetrepeats'gydF4y2Ba和整数值。gydF4y2Ba

例子:gydF4y2Ba'numactivesetrepeats',5gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

预测gydF4y2Ba

全部收缩gydF4y2Ba

用于从Gaussian进程模型进行预测的方法给出了参数,指定为包括的逗号分隔对gydF4y2Ba“PredictMethod”gydF4y2Ba下面是其中之一。gydF4y2Ba

方法gydF4y2Ba 描述gydF4y2Ba
'精确的'gydF4y2Ba 精确高斯过程回归方法。默认情况下,如果gydF4y2BangydF4y2Ba≤10000。gydF4y2Ba
“bcd”gydF4y2Ba 块坐标血统。默认情况下,如果gydF4y2BangydF4y2Ba> 10000。gydF4y2Ba
'SD'gydF4y2Ba 数据点近似的子集。gydF4y2Ba
“老”gydF4y2Ba 回归量近似子集。gydF4y2Ba
膜集成电路的gydF4y2Ba 完全独立条件近似。gydF4y2Ba

例子:gydF4y2Ba'predictmethod','bcd'gydF4y2Ba

块坐标下降法的块大小(gydF4y2Ba“bcd”gydF4y2Ba),指定为逗号分隔的配对组成gydF4y2Ba'blocksizebcd'gydF4y2Ba取值范围是1到gydF4y2BangydF4y2Ba, 在哪里gydF4y2BangydF4y2Ba是观察人数。gydF4y2Ba

例子:gydF4y2Ba'blocksizebcd',1500gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

块坐标抑制方法的贪婪选择数量(gydF4y2Ba“bcd”gydF4y2Ba),指定为逗号分隔的配对组成gydF4y2Ba'numgredybcd'gydF4y2Ba取值范围是1到gydF4y2BaBlockSizeBCDgydF4y2Ba.gydF4y2Ba

例子:gydF4y2Ba“NumGreedyBCD”,150年gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

用于终止块坐标序列法的梯度规范的相对容差(gydF4y2Ba“bcd”gydF4y2Ba)迭代,指定为逗号分隔的配对组成gydF4y2Ba“ToleranceBCD”gydF4y2Ba一个正标量。gydF4y2Ba

例子:gydF4y2Ba'tolerancebcd',0.002gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

终止块坐标下降法的步长绝对公差(gydF4y2Ba“bcd”gydF4y2Ba)迭代,指定为逗号分隔的配对组成gydF4y2Ba'steptolerancebcd'gydF4y2Ba一个正标量。gydF4y2Ba

例子:gydF4y2Ba“StepToleranceBCD”,0.002gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

最大块数坐标下降法(gydF4y2Ba“bcd”gydF4y2Ba)迭代,指定为逗号分隔的配对组成gydF4y2Ba'iterationlimitbcd'gydF4y2Ba和整数值。gydF4y2Ba

例子:gydF4y2Ba'iterationlimitbcd',10000gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

优化gydF4y2Ba

全部收缩gydF4y2Ba

优化器用于参数估计,指定为包括的逗号分隔对gydF4y2Ba“优化”gydF4y2Ba和此表中的值之一。gydF4y2Ba

价值gydF4y2Ba 描述gydF4y2Ba
“quasinewton”gydF4y2Ba 稠密的,对称的基于秩1的,Hessian的拟牛顿近似gydF4y2Ba
'lbfgs'gydF4y2Ba 基于lbfgs的Hessian拟牛顿近似gydF4y2Ba
'fminsearch'gydF4y2Ba 使用Lagarias等人的Simplex搜索方法无约束的非线性优化。[5]gydF4y2Ba
'fminunc'gydF4y2Ba 不受约束的非线性优化(需要优化工具箱™许可证)gydF4y2Ba
'粉丝'gydF4y2Ba 约束非线性优化(需要一个优化工具箱许可证)gydF4y2Ba

有关优化器的更多信息,请参阅gydF4y2Ba算法gydF4y2Ba.gydF4y2Ba

例子:gydF4y2Ba“优化”、“fmincon”gydF4y2Ba

的优化器选项gydF4y2Ba优化器gydF4y2Ba名称-值对参数,指定为逗号分隔的对,由gydF4y2Ba'OptimizerOptions'gydF4y2Ba和由...创建的结构或对象gydF4y2Ba优化集gydF4y2Ba,gydF4y2Bastatset(“fitrgp”)gydF4y2Ba, 要么gydF4y2BaoptimoptionsgydF4y2Ba.gydF4y2Ba

优化器gydF4y2Ba 使用“创建优化器”选项gydF4y2Ba
'fminsearch'gydF4y2Ba 优化集gydF4y2Ba(结构体)gydF4y2Ba
“quasinewton”gydF4y2Ba要么gydF4y2Ba'lbfgs'gydF4y2Ba statset(“fitrgp”)gydF4y2Ba(结构体)gydF4y2Ba
'fminunc'gydF4y2Ba要么gydF4y2Ba'粉丝'gydF4y2Ba optimoptionsgydF4y2Ba(目的)gydF4y2Ba

默认选项取决于优化程序的类型。gydF4y2Ba

例子:gydF4y2Ba'OptimizerOptions',选择gydF4y2Ba

初始步长,指定为逗号分隔对的组成部分gydF4y2Ba'initalstepsize'gydF4y2Ba一个实正标量或者gydF4y2Ba“汽车”gydF4y2Ba.gydF4y2Ba

'initalstepsize'gydF4y2Ba是优化器的第一优化步骤的近似最大绝对值gydF4y2Ba“quasinewton”gydF4y2Ba要么gydF4y2Ba'lbfgs'gydF4y2Ba.初始步长可以在优化期间确定初始Hessian近似值。gydF4y2Ba

默认情况下,gydF4y2Bafitrgp.gydF4y2Ba不使用初始步长来确定最初的Hessian近似值。要使用初始步长,请为此设置值gydF4y2Ba'initalstepsize'gydF4y2Ba名称值对参数或指定gydF4y2Ba“InitialStepSize”、“汽车”gydF4y2Ba有gydF4y2Bafitrgp.gydF4y2Ba自动确定一个值。有关gydF4y2Ba“汽车”gydF4y2Ba,请参阅gydF4y2Ba算法gydF4y2Ba.gydF4y2Ba

例子:gydF4y2Ba“InitialStepSize”、“汽车”gydF4y2Ba

交叉验证gydF4y2Ba

全部收缩gydF4y2Ba

交叉验证指示符,指定为逗号分隔的对,由gydF4y2Ba'横向'gydF4y2Ba,要么gydF4y2Ba'离开'gydF4y2Ba要么gydF4y2Ba“上”gydF4y2Ba.如果是gydF4y2Ba“上”gydF4y2Ba, 然后gydF4y2Bafitrgp.gydF4y2Ba返回经过10倍交叉验证的GPR模型。gydF4y2Ba

你可以使用其中一个gydF4y2Bakfold.gydF4y2Ba,gydF4y2Ba坚持gydF4y2Ba,gydF4y2Ba忽略gydF4y2Ba要么gydF4y2BaCVPartitiongydF4y2Ba名称 - 值对参数以更改默认交叉验证设置。您可以一次仅使用这些名称值对中的一个。gydF4y2Ba

作为替代方案,您可以使用gydF4y2BacrossvalgydF4y2Ba模型的方法。gydF4y2Ba

例子:gydF4y2Ba'横向','开'gydF4y2Ba

分层的随机分区gydF4y2BakgydF4y2Ba-fold交叉验证,指定为逗号分隔的对gydF4y2Ba'cvpartition'gydF4y2BaA.gydF4y2BaCVPartition.gydF4y2Ba对象。gydF4y2Ba

例子:gydF4y2Ba'cvpartition',cvpgydF4y2Ba使用由此定义的随机分区gydF4y2Ba本量利gydF4y2Ba.gydF4y2Ba

如果您指定gydF4y2BaCVPartitiongydF4y2Ba,则不能指定gydF4y2Ba坚持gydF4y2Ba,gydF4y2Bakfold.gydF4y2Ba, 要么gydF4y2Ba忽略gydF4y2Ba.gydF4y2Ba

用于验证验证的数据的数据分数,指定为逗号分隔对gydF4y2Ba'坚持'gydF4y2Ba和标量值在0到1.如果指定gydF4y2Ba‘坚持’,pgydF4y2Ba,然后是软件:gydF4y2Ba
1.随机储备约gydF4y2BapgydF4y2Ba* 100%的数据作为验证数据,并使用其余数据列举模型gydF4y2Ba
2.存储紧凑型培训的模型gydF4y2Bacvgprmdl.traingydF4y2Ba.gydF4y2Ba

例子:gydF4y2Ba'扑腾',0.3gydF4y2Ba使用30%的数据进行测试,70%的数据进行训练。gydF4y2Ba

如果您指定gydF4y2Ba坚持gydF4y2Ba,则不能指定gydF4y2BaCVPartitiongydF4y2Ba,gydF4y2Bakfold.gydF4y2Ba, 要么gydF4y2Ba忽略gydF4y2Ba.gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

在交叉验证的GPR模型中使用的折叠数,指定为逗号分隔对,由gydF4y2Ba“KFold”gydF4y2Ba和积极的整数值。gydF4y2Bakfold.gydF4y2Ba必须大于1。如果您指定gydF4y2BaKFold, kgydF4y2Ba然后软件:gydF4y2Ba
1.将数据随机划分为gydF4y2BakgydF4y2Ba套。gydF4y2Ba
2.对于每个集合,保留设置为测试数据,并使用另一个培训模型gydF4y2BakgydF4y2Ba- 1套。gydF4y2Ba
3.存储gydF4y2BakgydF4y2Ba紧凑,训练有素的模型在一个细胞中gydF4y2BakgydF4y2Ba-by-1单元格数组gydF4y2Bacvgprmdl.traingydF4y2Ba.gydF4y2Ba

例子:gydF4y2Ba“KFold”,5gydF4y2Ba使用跨验证5倍。也就是说,对于每个折叠,使用该折叠作为测试数据,并在其余4倍上培训模型。gydF4y2Ba

如果您指定gydF4y2Bakfold.gydF4y2Ba,则不能指定gydF4y2BaCVPartitiongydF4y2Ba,gydF4y2Ba坚持gydF4y2Ba, 要么gydF4y2Ba忽略gydF4y2Ba.gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

休假交叉验证指标,指定为逗号分隔的配对组成gydF4y2Ba“Leaveout”gydF4y2Ba,要么gydF4y2Ba'离开'gydF4y2Ba要么gydF4y2Ba“上”gydF4y2Ba.gydF4y2Ba

如果您指定gydF4y2Ba'留下','开'gydF4y2Ba,那么,对于每一个gydF4y2BangydF4y2Ba观察,软件:gydF4y2Ba
1.将观察视为测试数据,并使用另一个培训模型gydF4y2BangydF4y2Ba- 1观察。gydF4y2Ba
2.将紧凑型培训的模型存储在一个细胞中gydF4y2BangydF4y2Ba1单元阵列gydF4y2Bacvgprmdl.traingydF4y2Ba.gydF4y2Ba

例子:gydF4y2Ba'留下','开'gydF4y2Ba

如果您指定gydF4y2Ba忽略gydF4y2Ba,则不能指定gydF4y2BaCVPartitiongydF4y2Ba,gydF4y2Ba坚持gydF4y2Ba, 要么gydF4y2Bakfold.gydF4y2Ba.gydF4y2Ba

HyperParameter优化gydF4y2Ba

全部收缩gydF4y2Ba

优化的参数,指定为逗号分隔对组成gydF4y2Ba'OptimizeHyperParameters'gydF4y2Ba以及以下其中之一:gydF4y2Ba

  • “没有”gydF4y2Ba-不要优化。gydF4y2Ba

  • “汽车”gydF4y2Ba- 采用gydF4y2Ba{“σ”}gydF4y2Ba.gydF4y2Ba

  • '全部'gydF4y2Ba- 优化所有符合条件的参数,相当于gydF4y2Ba{‘BasisFunction’,‘KernelFunction’,‘KernelScale’,‘σ’,‘标准化’}gydF4y2Ba.gydF4y2Ba

  • 字符串数组或符合条件参数名称的单元数组。gydF4y2Ba

  • 向量的gydF4y2Ba优化的不变性gydF4y2Ba对象,通常是输出gydF4y2Ba普遍存在gydF4y2Ba.gydF4y2Ba

优化尝试最小化交叉验证丢失(错误)gydF4y2Bafitrgp.gydF4y2Ba通过改变参数。有关交叉验证丢失的信息(尽管在不同的上下文中),请参见gydF4y2Ba分类损失gydF4y2Ba.要控制交叉验证类型和优化的其他方面,请使用gydF4y2BaHyperParameterOptimizationOptions.gydF4y2Ba名称值对。gydF4y2Ba

笔记gydF4y2Ba

'OptimizeHyperParameters'gydF4y2Ba值覆盖使用其他名称值对参数设置的任何值。例如,设置gydF4y2Ba'OptimizeHyperParameters'gydF4y2Ba到gydF4y2Ba“汽车”gydF4y2Ba导致gydF4y2Ba“汽车”gydF4y2Ba值应用。gydF4y2Ba

符合条件的参数gydF4y2Bafitrgp.gydF4y2Ba是:gydF4y2Ba

  • 基本功能gydF4y2Ba- - - - - -gydF4y2Bafitrgp.gydF4y2Ba搜索gydF4y2Ba“不变”gydF4y2Ba,gydF4y2Ba“没有”gydF4y2Ba,gydF4y2Ba'线性'gydF4y2Ba, 和gydF4y2Ba'purequadratic'gydF4y2Ba.gydF4y2Ba

  • KernelFunctiongydF4y2Ba- - - - - -gydF4y2Bafitrgp.gydF4y2Ba搜索gydF4y2Ba“ardexponential”gydF4y2Ba,gydF4y2Ba'ardmatern32'gydF4y2Ba,gydF4y2Ba“ardmatern52”gydF4y2Ba,gydF4y2Ba'Ardricionalquadratic'gydF4y2Ba,gydF4y2Ba“ardsquaredexponential”gydF4y2Ba,gydF4y2Ba“指数”gydF4y2Ba,gydF4y2Ba'Matern32'gydF4y2Ba,gydF4y2Ba“matern52”gydF4y2Ba,gydF4y2Ba“理性的”gydF4y2Ba, 和gydF4y2Ba'squaredExponential'gydF4y2Ba.gydF4y2Ba

  • 内塞尔gydF4y2Ba- - - - - -gydF4y2Bafitrgp.gydF4y2Ba用来gydF4y2BaKernelParametersgydF4y2Ba参数指定内核尺度参数的值,该参数在拟合过程中保持不变。在这种情况下,所有输入维度都被限制为具有相同的内容gydF4y2Ba内塞尔gydF4y2Ba价值。gydF4y2Bafitrgp.gydF4y2Ba在范围内的实值中进行搜索gydF4y2Ba[1E-3 * maxpredictorrange,maxpredictorrange]gydF4y2Ba, 在哪里gydF4y2Ba

    maxpredictorrange = max(max(x) - min(x))gydF4y2Ba.gydF4y2Ba

    内塞尔gydF4y2Ba无法针对任何ARD内核进行优化。gydF4y2Ba

  • σgydF4y2Ba- - - - - -gydF4y2Bafitrgp.gydF4y2Ba在范围内的实值中进行搜索gydF4y2Ba[1E-4,MAX(1E-3,10 * Reportestd)]gydF4y2Ba, 在哪里gydF4y2Ba

    Reportestd = std(y)gydF4y2Ba.gydF4y2Ba

    在内部,gydF4y2Bafitrgp.gydF4y2Ba设置gydF4y2Ba份额gydF4y2Ba名称 - 值对gydF4y2Ba真的gydF4y2Ba所以价值gydF4y2BaσgydF4y2Ba在配件期间是恒定的。gydF4y2Ba

  • 标准化gydF4y2Ba- - - - - -gydF4y2Bafitrgp.gydF4y2Ba搜索gydF4y2Ba真的gydF4y2Ba和gydF4y2Ba错误的gydF4y2Ba.gydF4y2Ba

通过传染媒介设置非菲达参数gydF4y2Ba优化的不变性gydF4y2Ba具有非默认值的对象。例如,gydF4y2Ba

加载gydF4y2BafisheririsgydF4y2Baparams = hyperparameters(gydF4y2Ba'fitrgp'gydF4y2Ba,meas,speies);Params(1).range = [1e-4,1e6];gydF4y2Ba

通过gydF4y2Ba参数gydF4y2Ba作为价值gydF4y2BaOptimizeHyperparametersgydF4y2Ba.gydF4y2Ba

默认情况下,在命令行出现迭代显示,并根据优化中超参数的数量出现绘图。对于优化和绘图,目标函数为gydF4y2BaLog(1 +交叉验证损失)gydF4y2Ba回归和分类的错误分类率。要控制迭代显示,请设置gydF4y2Ba详细的gydF4y2Ba场面的领域gydF4y2Ba“HyperparameterOptimizationOptions”gydF4y2Ba名称-值对的论点。要控制情节,设置gydF4y2BaShowplots.gydF4y2Ba场面的领域gydF4y2Ba“HyperparameterOptimizationOptions”gydF4y2Ba名称-值对的论点。gydF4y2Ba

例如,看到gydF4y2Ba优化GPR回归gydF4y2Ba.gydF4y2Ba

例子:gydF4y2Ba“汽车”gydF4y2Ba

优化选项,指定为逗号分隔对组成gydF4y2Ba“HyperparameterOptimizationOptions”gydF4y2Ba和一个结构。此论点修改了效果gydF4y2BaOptimizeHyperparametersgydF4y2Ba名称-值对的论点。结构中的所有字段都是可选的。gydF4y2Ba

字段名gydF4y2Ba 值gydF4y2Ba 默认的gydF4y2Ba
优化器gydF4y2Ba
  • “bayesopt”gydF4y2Ba- 使用贝叶斯优化。内部,此设置呼叫gydF4y2BaBayesopt.gydF4y2Ba.gydF4y2Ba

  • 'gridsearch'gydF4y2Ba- 使用网格搜索gydF4y2BaNumGridDivisionsgydF4y2Ba每个维度值。gydF4y2Ba

  • 'randomsearch'gydF4y2Ba- 随机搜索gydF4y2Bamaxobjectiveevaluations.gydF4y2Ba要点。gydF4y2Ba

'gridsearch'gydF4y2Ba以随机顺序搜索,使用均匀抽样而不从网格中替换。优化之后,您可以使用该命令获得一个按网格顺序排列的表gydF4y2Basortrows(mdl.hyperParameterOptimationResults)gydF4y2Ba.gydF4y2Ba

“bayesopt”gydF4y2Ba
收集功能名称gydF4y2Ba

  • '预期 - 每秒改善'gydF4y2Ba

  • '预期改善'gydF4y2Ba

  • “expected-improvement-plus”gydF4y2Ba

  • “expected-improvement-per-second”gydF4y2Ba

  • “较低的信任”gydF4y2Ba

  • “probability-of-improvement”gydF4y2Ba

收购函数,其名称包括gydF4y2Ba每秒gydF4y2Ba不要产生可重复的结果,因为优化取决于目标函数的运行时间。收购函数,其名称包括gydF4y2Ba加gydF4y2Ba当他们过度开发一个区域时,调整他们的行为。有关详细信息,请参见gydF4y2Ba采集函数类型gydF4y2Ba.gydF4y2Ba

'预期 - 每秒改善'gydF4y2Ba
maxobjectiveevaluations.gydF4y2Ba 最大客观函数评估数。gydF4y2Ba 30.gydF4y2Ba为了gydF4y2Ba“bayesopt”gydF4y2Ba要么gydF4y2Ba'randomsearch'gydF4y2Ba,以及整个网格gydF4y2Ba'gridsearch'gydF4y2Ba
MaxTime.gydF4y2Ba

时间限制,指定为正面真实。时间限制是以秒为单位的gydF4y2Ba抽搐gydF4y2Ba和gydF4y2BatocgydF4y2Ba.运行时间可能超过gydF4y2BaMaxTime.gydF4y2Ba因为gydF4y2BaMaxTime.gydF4y2Ba不中断功能评估。gydF4y2Ba

INF.gydF4y2Ba
NumGridDivisionsgydF4y2Ba 为了gydF4y2Ba'gridsearch'gydF4y2Ba,每个维度中的值数。该值可以是正整数的向量,其提供每个维度的值数,或者适用于所有维度的标量。对于分类变量,忽略此字段。gydF4y2Ba 10.gydF4y2Ba
Showplots.gydF4y2Ba 逻辑值,指示是否显示图表。如果gydF4y2Ba真的gydF4y2Ba,该域根据迭代次数绘制出最佳目标函数值。如果有一个或两个优化参数,如果gydF4y2Ba优化器gydF4y2Ba是gydF4y2Ba“bayesopt”gydF4y2Ba, 然后gydF4y2BaShowplots.gydF4y2Ba还绘制了对参数的目标函数的模型。gydF4y2Ba 真的gydF4y2Ba
SaveIntermediateResultsgydF4y2Ba 表示是否保存结果的逻辑值gydF4y2Ba优化器gydF4y2Ba是gydF4y2Ba“bayesopt”gydF4y2Ba.如果gydF4y2Ba真的gydF4y2Ba,此字段覆盖名为的工作空间变量gydF4y2Ba'贝叶特遗露'gydF4y2Ba在每一个迭代。变量是agydF4y2Ba贝叶斯偏见gydF4y2Ba对象。gydF4y2Ba 错误的gydF4y2Ba
详细的gydF4y2Ba

显示到命令行。gydF4y2Ba

  • 0gydF4y2Ba-没有迭代显示gydF4y2Ba

  • 1gydF4y2Ba- 迭代显示gydF4y2Ba

  • 2gydF4y2Ba- 迭代显示额外信息gydF4y2Ba

有关详细信息,请参阅gydF4y2BaBayesopt.gydF4y2Ba详细的gydF4y2Ba名称-值对的论点。gydF4y2Ba

1gydF4y2Ba
使用指α.gydF4y2Ba 指示是否并行运行贝叶斯优化的逻辑值,这需要并行计算工具箱™。由于并行时序的不可再现性,并行贝叶斯优化并不一定产生可再现的结果。有关详细信息,请参阅gydF4y2Ba并行贝叶斯优化gydF4y2Ba.gydF4y2Ba 错误的gydF4y2Ba
重新开始gydF4y2Ba

逻辑值,指示是否在每次迭代时重新验证交叉验证。如果gydF4y2Ba错误的gydF4y2Ba,优化器使用单个分区进行优化。gydF4y2Ba

真的gydF4y2Ba通常给出最健壮的结果,因为这个设置考虑到了分区噪声。然而,为了得到好的结果,gydF4y2Ba真的gydF4y2Ba需要至少两倍的函数求值。gydF4y2Ba

错误的gydF4y2Ba
使用以下三个字段名中的一个。gydF4y2Ba
CVPartitiongydF4y2Ba 一个gydF4y2BaCVPartition.gydF4y2Ba对象,由创建的gydF4y2BaCVPartition.gydF4y2Ba.gydF4y2Ba “Kfold”,5gydF4y2Ba如果您没有指定任何交叉验证字段gydF4y2Ba
坚持gydF4y2Ba 范围内的标量gydF4y2Ba(0,1)gydF4y2Ba代表熔断部分。gydF4y2Ba
KfoldgydF4y2Ba 大于1的整数。gydF4y2Ba

例子:gydF4y2Ba“HyperparameterOptimizationOptions”、结构(MaxObjectiveEvaluations, 60)gydF4y2Ba

数据类型:gydF4y2Ba结构体gydF4y2Ba

其他gydF4y2Ba

全部收缩gydF4y2Ba

预测器变量名,指定为逗号分隔对,由gydF4y2Ba“PredictorNames”gydF4y2Ba以及唯一名称的字符串数组或唯一字符向量的单元格数组。功能的功能gydF4y2Ba“PredictorNames”gydF4y2Ba这取决于你提供培训数据的方式。gydF4y2Ba

  • 如果你提供gydF4y2BaXgydF4y2Ba和gydF4y2BaygydF4y2Ba,然后你可以使用gydF4y2Ba“PredictorNames”gydF4y2Ba来给出预测变量gydF4y2BaXgydF4y2Ba的名字。gydF4y2Ba

    • 名字的顺序gydF4y2Ba预测gydF4y2Ba必须对应于列序gydF4y2BaXgydF4y2Ba.那是,gydF4y2Bapredictornames {1}gydF4y2Ba是名称gydF4y2Bax(:1)gydF4y2Ba,gydF4y2BaPredictorNames {2}gydF4y2Ba是名称gydF4y2BaX(:,2)gydF4y2Ba, 等等。还,gydF4y2Ba大小(X, 2)gydF4y2Ba和gydF4y2Banumel(预测的人)gydF4y2Ba必须是相等的。gydF4y2Ba

    • 默认情况下,gydF4y2Ba预测gydF4y2Ba是gydF4y2Ba{'x1','x2',...}gydF4y2Ba.gydF4y2Ba

  • 如果你提供gydF4y2BaTBL.gydF4y2Ba,然后你可以使用gydF4y2Ba“PredictorNames”gydF4y2Ba选择用于培训的预测变量。那是,gydF4y2Bafitrgp.gydF4y2Ba使用预测变量gydF4y2Ba预测gydF4y2Ba只有在训练中才会有反应。gydF4y2Ba

    • 预测gydF4y2Ba必须是一个子集gydF4y2Batbl.properties.variablenames.gydF4y2Ba并且不能包含响应变量的名称。gydF4y2Ba

    • 默认情况下,gydF4y2Ba预测gydF4y2Ba包含所有预测变量的名称。gydF4y2Ba

    • 为训练指定预测器是一个很好的实践gydF4y2Ba“PredictorNames”gydF4y2Ba要么gydF4y2Ba公式gydF4y2Ba只有。gydF4y2Ba

例子:gydF4y2BaPredictorNames,{‘PedalLength’,‘PedalWidth}gydF4y2Ba

数据类型:gydF4y2Ba字符串gydF4y2Ba|gydF4y2Ba细胞gydF4y2Ba

响应变量名称,指定为逗号分隔的配对组成gydF4y2Ba“ResponseName”gydF4y2Ba以及字符向量或字符串标量。gydF4y2Ba

  • 如果你提供gydF4y2BaYgydF4y2Ba,然后你可以使用gydF4y2Ba“ResponseName”gydF4y2Ba指定响应变量的名称。gydF4y2Ba

  • 如果你提供gydF4y2BaResponseVarNamegydF4y2Ba要么gydF4y2Ba公式gydF4y2Ba,然后你不能使用gydF4y2Ba“ResponseName”gydF4y2Ba.gydF4y2Ba

例子:gydF4y2Ba“ResponseName”、“响应”gydF4y2Ba

数据类型:gydF4y2BachargydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba

详细程度,指定为逗号分隔对,由gydF4y2Ba“详细”gydF4y2Ba下面是其中之一。gydF4y2Ba

  • 0 -gydF4y2Bafitrgp.gydF4y2Ba抑制与活动集选择和块坐标血统相关的诊断消息,但根据值的值显示与参数估计有关的消息gydF4y2Ba'展示'gydF4y2Ba在gydF4y2BaOptimizerOptions.gydF4y2Ba.gydF4y2Ba

  • 1 -gydF4y2Bafitrgp.gydF4y2Ba显示与参数估计,活动集选择和块坐标血管相关的迭代诊断消息。gydF4y2Ba

例子:gydF4y2Ba“详细”,1gydF4y2Ba

高速缓存大小在兆字节(MB)中,指定为逗号分隔对组成gydF4y2Ba'缓存'gydF4y2Ba一个正标量。缓存大小是除了适合和活动集选择所需的额外内存之外可用的额外内存。gydF4y2Bafitrgp.gydF4y2Ba用途gydF4y2Ba缓存gydF4y2Ba:gydF4y2Ba

  • 确定估计参数时应缓存是否缓存间接距离。gydF4y2Ba

  • 决定如何计算矩阵载体产品以用于块坐标缩进方法和进行s manbetx 845预测。gydF4y2Ba

例子:gydF4y2Ba“CacheSize”,2000年gydF4y2Ba

数据类型:gydF4y2Ba双倍的gydF4y2Ba

输出参数gydF4y2Ba

全部收缩gydF4y2Ba

高斯过程回归模型,返回为gydF4y2Baregressiongp.gydF4y2Ba或者gydF4y2BaRegressionPartitionedModelgydF4y2Ba对象。gydF4y2Ba

  • 如果你交叉验证,也就是说,如果你使用gydF4y2Ba“Crossval”gydF4y2Ba,gydF4y2Ba“KFold”gydF4y2Ba,gydF4y2Ba'坚持'gydF4y2Ba,gydF4y2Ba“Leaveout”gydF4y2Ba, 要么gydF4y2Ba'cvpartition'gydF4y2Ba名称 - 值对,然后gydF4y2Bagprmdl.gydF4y2Ba是一个gydF4y2BaRegressionPartitionedModelgydF4y2Ba对象。你不能使用gydF4y2BaRegressionPartitionedModelgydF4y2Ba对象进行预测使用gydF4y2Ba预测gydF4y2Ba.有关此对象的方法和属性的详细信息,请参阅gydF4y2BaRegressionPartitionedModelgydF4y2Ba.gydF4y2Ba

  • 如果没有交叉验证,那么gydF4y2Bagprmdl.gydF4y2Ba是一个gydF4y2Baregressiongp.gydF4y2Ba对象。您可以使用此对象使用此对象进行预测gydF4y2Ba预测gydF4y2Ba方法。有关此对象的方法和属性的详细信息,请参阅gydF4y2Baregressiongp.gydF4y2Ba.gydF4y2Ba

更多关于gydF4y2Ba

全部收缩gydF4y2Ba

主动设置选择和参数估计gydF4y2Ba

对于数据子集、回归器子集或完全独立的条件近似拟合方法(gydF4y2BaFitmethod.gydF4y2Ba等于gydF4y2Ba'SD'gydF4y2Ba,gydF4y2Ba“老”gydF4y2Ba, 要么gydF4y2Ba膜集成电路的gydF4y2Ba),如果您没有提供活动集,gydF4y2Bafitrgp.gydF4y2Ba选择活动集并在一系列迭代中计算参数估计。gydF4y2Ba

在第一次迭代中,软件使用向量中的初始参数值gydF4y2BaηgydF4y2Ba0gydF4y2Ba= (gydF4y2BaβgydF4y2Ba0gydF4y2Ba,gydF4y2Baσ.gydF4y2Ba0gydF4y2Ba,gydF4y2BaθgydF4y2Ba0gydF4y2Ba选择激活的集合AgydF4y2Ba1gydF4y2Ba.它可以最大化GPR边缘数似然或其近似使用ηgydF4y2Ba0gydF4y2Ba为初始值和AgydF4y2Ba1gydF4y2Ba计算新参数估计ηgydF4y2Ba1gydF4y2Ba.接下来,它计算新的日志可能性gydF4y2BalgydF4y2Ba1gydF4y2Ba使用η.gydF4y2Ba1gydF4y2BaA.gydF4y2Ba1gydF4y2Ba.gydF4y2Ba

在第二次迭代中,软件选择活动集AgydF4y2Ba2gydF4y2Ba使用η中的参数值gydF4y2Ba1gydF4y2Ba.然后,使用ηgydF4y2Ba1gydF4y2Ba为初始值和AgydF4y2Ba2gydF4y2Ba,最大限度地提高探地雷达边际对数似然值或其近似值,并估计出新的参数值ηgydF4y2Ba2gydF4y2Ba.然后使用η.gydF4y2Ba2gydF4y2BaA.gydF4y2Ba2gydF4y2Ba,计算新的对数似然值gydF4y2BalgydF4y2Ba2gydF4y2Ba.gydF4y2Ba

下表总结了迭代以及在每次迭代时计算的内容。gydF4y2Ba

迭代号码gydF4y2Ba 有效集gydF4y2Ba 参数向量gydF4y2Ba 日志的可能性gydF4y2Ba
1gydF4y2Ba 一个gydF4y2Ba1gydF4y2Ba ηgydF4y2Ba1gydF4y2Ba lgydF4y2Ba1gydF4y2Ba
2gydF4y2Ba 一个gydF4y2Ba2gydF4y2Ba ηgydF4y2Ba2gydF4y2Ba lgydF4y2Ba2gydF4y2Ba
3.gydF4y2Ba 一个gydF4y2Ba3.gydF4y2Ba ηgydF4y2Ba3.gydF4y2Ba lgydF4y2Ba3.gydF4y2Ba
...gydF4y2Ba ...gydF4y2Ba ...gydF4y2Ba ...gydF4y2Ba

软件类似地迭代指定的重复次数。您可以使用该选项指定活动集选择的复制次数gydF4y2BaNumActiveSetRepeatsgydF4y2Ba名称-值对的论点。gydF4y2Ba

提示gydF4y2Ba

  • fitrgp.gydF4y2Ba接受拟合,预测和主动设置选择方法的任何组合。在某些情况下,可能无法计算预测响应的标准偏差,因此预测间隔。看gydF4y2Ba预测gydF4y2Ba.在某些情况下,由于训练数据的大小,使用精确的方法可能会很昂贵。gydF4y2Ba

  • 的gydF4y2Ba预测gydF4y2Ba属性为每个原始预测器变量名称存储一个元素。例如,如果有三个预测器,其中一个是一个三个级别的分类变量,gydF4y2Ba预测gydF4y2Ba是一个1×3个字符向量的细胞阵列。gydF4y2Ba

  • 的gydF4y2BaExpandedPredictorNames.gydF4y2Ba属性为每个预测变量存储一个元素,包括虚拟变量。例如,如果有三个预测器,其中一个是一个与三个级别的分类变量,然后gydF4y2BaExpandedPredictorNames.gydF4y2Ba是一个1×5个字符向量阵列。gydF4y2Ba

  • 类似地,gydF4y2BabetgydF4y2Ba属性存储每个预测器的一个beta系数,包括虚拟变量。gydF4y2Ba

  • 的gydF4y2BaXgydF4y2Ba属性将训练数据存储为原始输入。它不包括虚拟变量。gydF4y2Ba

  • 初始化Hessian近似的默认方法gydF4y2Bafitrgp.gydF4y2Ba当您有一个包含许多内核参数的GPR模型时,例如使用带有许多预测器的ARD内核时,可能会很慢。在这种情况下,考虑指定gydF4y2Ba“汽车”gydF4y2Ba或者初始步长的值。gydF4y2Ba

    你可以设置gydF4y2Ba“详细”,1gydF4y2Ba用于显示迭代诊断消息,并使用LBFGS或Quasi-Newton Optimizer开始培训GPR模型,默认情况下gydF4y2Bafitrgp.gydF4y2Ba优化。如果迭代诊断消息在几秒钟后没有显示出来,则可能是Hessian近似的初始化花费了太长时间。在这种情况下,考虑重新开始训练,并使用初始步长来加速优化。gydF4y2Ba

  • 在训练模型之后,您可以生成C/ c++代码来预测对新数据的响应。生成C/ c++代码需要gydF4y2BaMatlab Coder™gydF4y2Ba.有关详细信息,请参阅gydF4y2Ba代码生成简介gydF4y2Ba.gydF4y2Ba.gydF4y2Ba

算法gydF4y2Ba

  • 拟合GPR模型涉及从数据中估计以下模型参数:gydF4y2Ba

    • 协方差函数gydF4y2Ba kgydF4y2Ba (gydF4y2Ba xgydF4y2Ba 我gydF4y2Ba ,gydF4y2Ba xgydF4y2Ba jgydF4y2Ba |gydF4y2Ba θgydF4y2Ba )gydF4y2Ba 在向量中的内核参数方面参数化gydF4y2Ba θgydF4y2Ba (看gydF4y2Ba核(协方差)功能选项gydF4y2Ba)gydF4y2Ba

    • 噪声方差,gydF4y2Ba σ.gydF4y2Ba 2gydF4y2Ba

    • 固定基函数的系数向量,gydF4y2Ba βgydF4y2Ba

    价值gydF4y2Ba'kernelparameters'gydF4y2Ba名称-值对参数是一个向量,由信号标准偏差的初始值组成gydF4y2Ba σ.gydF4y2Ba fgydF4y2Ba 和特征长度尺度gydF4y2Ba σ.gydF4y2Ba lgydF4y2Ba .的gydF4y2Bafitrgp.gydF4y2Ba函数使用这些值来确定内核参数。类似地,gydF4y2Ba“σ”gydF4y2Ba名称-值对参数包含噪声标准偏差的初始值gydF4y2Ba σ.gydF4y2Ba .gydF4y2Ba

  • 在优化,gydF4y2Bafitrgp.gydF4y2Ba创建一个无约束初始参数值的向量gydF4y2Ba ηgydF4y2Ba 0gydF4y2Ba 利用噪声标准差的初值和核参数。gydF4y2Ba

  • fitrgp.gydF4y2Ba分析确定显式基础系数gydF4y2Ba βgydF4y2Ba ,由此指定gydF4y2Ba'beta'gydF4y2Ba名称值对参数,来自估计值gydF4y2Ba θgydF4y2Ba 和gydF4y2Ba σ.gydF4y2Ba 2gydF4y2Ba .因此,gydF4y2Ba βgydF4y2Ba 没有出现在gydF4y2Ba ηgydF4y2Ba 0gydF4y2Ba 矢量gydF4y2Bafitrgp.gydF4y2Ba初始化数值优化。gydF4y2Ba

    笔记gydF4y2Ba

    如果您指定了GPR模型的参数估计,gydF4y2Bafitrgp.gydF4y2Ba使用该值gydF4y2Ba'beta'gydF4y2Ba名称值对参数和其他初始参数值作为已知的GPR参数值(参见gydF4y2BabetgydF4y2Ba)。在所有其他情况下,值的价值gydF4y2Ba'beta'gydF4y2Ba参数从目标函数分析地进行了优化。gydF4y2Ba

  • 拟牛顿优化器采用基于密集对称秩1 (SR1)的拟牛顿逼近Hessian的信赖域方法,而LBFGS优化器采用标准线搜索方法,具有有限内存的Broyden-Fletcher-Goldfarb-Shanno (LBFGS)拟牛顿逼近Hessian。参见Nocedal和Wright[6]。gydF4y2Ba

  • 如果你设置gydF4y2Ba'initalstepsize'gydF4y2Ba名称 - 值对参数gydF4y2Ba“汽车”gydF4y2Ba,gydF4y2Bafitrgp.gydF4y2Ba确定初始步长,gydF4y2Ba ‖gydF4y2Ba 年代gydF4y2Ba 0gydF4y2Ba ‖gydF4y2Ba ∞gydF4y2Ba , 通过使用gydF4y2Ba ‖gydF4y2Ba 年代gydF4y2Ba 0gydF4y2Ba ‖gydF4y2Ba ∞gydF4y2Ba =gydF4y2Ba 0.5gydF4y2Ba ‖gydF4y2Ba ηgydF4y2Ba 0gydF4y2Ba ‖gydF4y2Ba ∞gydF4y2Ba +gydF4y2Ba 0.1gydF4y2Ba .gydF4y2Ba

    年代gydF4y2Ba 0gydF4y2Ba 是初始步长向量吗gydF4y2Ba ηgydF4y2Ba 0gydF4y2Ba 是无约束初始参数值的矢量。gydF4y2Ba

  • 在优化,gydF4y2Bafitrgp.gydF4y2Ba使用初始步长,gydF4y2Ba ‖gydF4y2Ba 年代gydF4y2Ba 0gydF4y2Ba ‖gydF4y2Ba ∞gydF4y2Ba ,如下所示:gydF4y2Ba

    如果你使用gydF4y2Ba'Optimizer','Quasinewton'gydF4y2Ba凭借初始步长,那么最初的Hessian近似是gydF4y2Ba ‖gydF4y2Ba ggydF4y2Ba 0gydF4y2Ba ‖gydF4y2Ba ∞gydF4y2Ba ‖gydF4y2Ba 年代gydF4y2Ba 0gydF4y2Ba ‖gydF4y2Ba ∞gydF4y2Ba 我gydF4y2Ba .gydF4y2Ba

    如果你使用gydF4y2Ba“优化”、“lbfgs”gydF4y2Ba凭借初始步长,那么初始逆象征近似值是gydF4y2Ba ‖gydF4y2Ba 年代gydF4y2Ba 0gydF4y2Ba ‖gydF4y2Ba ∞gydF4y2Ba ‖gydF4y2Ba ggydF4y2Ba 0gydF4y2Ba ‖gydF4y2Ba ∞gydF4y2Ba 我gydF4y2Ba .gydF4y2Ba

    ggydF4y2Ba 0gydF4y2Ba 是初始渐变矢量,还有gydF4y2Ba 我gydF4y2Ba 是身份矩阵。gydF4y2Ba

参考gydF4y2Ba

[1] Warwick J. N.,T.L.L. Spryers,S.R.Talbot,A. J. Cawthorn和W. B. Ford。“塔斯马尼亚州鲍鱼(_Haliotis_物种)的人口生物学。I. Blacklip鲍鱼(_h。rubra_)来自北海岸和低音海峡群岛。”海洋渔业部第48号技术报告(ISSN 1034-3288),1994年。gydF4y2Ba

[2]美国沃。“串级关联的延伸与标杆分析”,博士论文。塔斯马尼亚大学计算机科学系,1995。gydF4y2Ba

[3] Lichman,M. UCI机器学习储存库,Irvine,CA:加州大学,信息学院,2013年,信息学院。http://archive.ics.uci.edu/ml。gydF4y2Ba

拉斯穆森,C. E.和C. K. I.威廉姆斯。gydF4y2Ba高斯机器学习工艺。gydF4y2Ba麻省理工学院。剑桥,马萨诸塞州,2006年。gydF4y2Ba

[5] Lagarias,J.C.,J.A. Reeds,M. H. Wright和P. E. Wright。“低尺寸下狭窄的Nelder-Mead Simplex方法的收敛性能”。gydF4y2BaSIAM优化学报gydF4y2Ba.卷。9,第1,199号,第112页,第112-147页。gydF4y2Ba

Nocedal, J.和S. J. Wright。gydF4y2Ba数值优化gydF4y2Ba, 第二版。Springer系列在运营研究中,Springer Verlag,2006。gydF4y2Ba

扩展功能gydF4y2Ba

在R2015B中介绍gydF4y2Ba