参考书目

[1] Agresti,A.分类数据分析,第2版。新泽西州霍博肯市:John Wiley和Sons公司,2002年。

[2] Allwein,E.,R. Schapire和Y.歌手。“减少多类为二进制:一个统一的保证金CLASSI网络ERS的做法。”杂志的机器学习研究的。卷。1,2000,第113-141。

[3] Alpaydin,E.“组合的5×2 CV F测试,用于比较监督分类学习算法”。神经计算卷。11,第8期,1999,第1885至1992年。

[4] Blackard,J.A.和D. J.迪安。“人工神经网络和判别分析的精度比较在从制图变量预测森林覆盖类型”。计算机与电子农业卷。24,第3期,1999年,第131-151。

[5] Bottou,L.,和芷仁林。“万博1manbetx支持向量机的解决者。”大规模核机器(L. Bottou,O.礼拜堂,D. DeCoste和J.韦斯顿编)。马萨诸塞州剑桥:麻省理工学院出版社,2007年。

[6] Bouckaert。R.“两个基于学习的算法之间的校准测试选择。”国际会议上的机器学习,第51-58,2003。

[7] Bouckaert,R。和E.弗兰克。“评估显着性检验的学习算法相比的可复制性。”在知识发现和数据挖掘,8日太平洋亚洲会议进展,2004年,第3-12。

[8] Breiman,L.套袋预测因子。机器学习26,1996年,第123-140。

[9] Breiman,L.随机森林。机器学习45,2001年,第5-32。

[11] Breiman,L.,J。H.弗里德曼,R. A. Olshen,和C. J.石。分类和回归树。博卡拉顿:查普曼和霍尔,1984年。

[12] Christianini,N.,和J. Shawe-泰勒。简介支持向量机和其他基于内核的学习方法万博1manbetx。英国剑桥:剑桥大学出版社,2000。

[13] Dietterich,T.“近似的统计测试,用于比较监督分类学习算法”。神经计算卷。10,第7号,1998年,第1895至1923年。

[14] Dietterich,T.,和G. Bakiri。“解决多类学习问题通过纠错输出编码。”杂志人工智能的研究。卷。2,1995年,第263-286。

[15]埃斯卡利拉,S.,O.普霍尔和P. Radeva。“关于三元的解码处理的纠错输出编码。”IEEE交易模式分析与机器智能。卷。32,第7期,2010,第120-134。

[16]埃斯卡利拉,S.,O.普霍尔和P. Radeva。“用于纠错输出编码稀疏设计三元代码可分”。模式Recogn。卷。30,第3期,2009年,第285-297。

[17]范,R.-E.,P.-H.陈忠和C.-J.林。“工作使用训练支持向量机的二阶信息设置选择。”万博1manbetx杂志的机器学习研究的,第6卷,2005年,第1889至1918年。

[18] Fagerlan,M.W.,S Lydersen,P. Laake。“McNemar检验二进制匹配,双数据:中秋节p和渐近更好比精确条件。”BMC医学研究方法。卷。13,2013,第1-8页。

[19]弗氏,Y.更健壮的提升算法。的arXiv:0905.2138v1,2009年。

[20]弗氏,Y。和R. E. Schapire。决策论的在线学习的推广和提升在应用程序。计算机与系统科学,卷J.。55,1997年,第119-139。

[21]弗里德曼,J.贪婪函数逼近:一个梯度推进的机器。统计,卷年鉴。29,第5号,2001年,第1189至1232年。

[22]弗里德曼,J.,T.黑斯蒂和R. Tibshirani。添加剂Logistic回归:提升的统计视图。统计,卷年鉴。28,第2期,2000,第337-407。

[23] Hastie的,T.,和R. Tibshirani。“通过分类成对耦合。”统计年鉴。卷。26,第2期,1998年,第451-471。

[24] Hastie的,T.,R. Tibshirani,和J.弗里德曼。统计学习的要素, 第二版。纽约:施普林格,2008年。

[25]何,C.H。和J. C.林。“大型线性支持向量回归。”万博1manbetx杂志的机器学习研究的卷。13,2012,第3323-3348。

[26]何,T. K.构建决策森林随机子空间方法。IEEE交易模式分析与机器智能,卷。20,第8期,1998年,第832-844。

[27]谢,C.J.,K. W.昌,C.J。林,S. S. Keerthi,和S. Sundararajan。“A双坐标为大规模线性SVM下降法。”机器学习,ICML '08第25届国际会议论文集,2001年,第408-415。

[28]许芷蔚,致中昌,和芷仁林。实用指南支持向量机分类万博1manbetx。可在https://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf

[29]胡,Q.,十车,张良军,和D羽。“功能评估和基础的选择邻域软保证金。”神经计算。卷。73,2010年,第2114至2124年。

[30] Kecman V.,T. -M。黄和M.沃格特。“迭代单数据算法从海量数据集培训核机器:理论和性能。”在万博1manbetx支持向量机:理论与应用。由王脂微球,255-274编辑。柏林:施普林格出版社,2005年。

[31] Kohavi,R.“扩大朴素贝叶斯分类器的精度:决策树杂交”第二次国际会议的知识发现和数据挖掘程序,1996年。

[32]兰开斯特,H.O.“显着性检验中的离散分布。”JASA卷。56,号码294,1961年,第223-234。

[33] Langford的,J.,L.李和T.张。“疏在线学习通过截断梯度。”J.马赫。学习。RES。卷。10,2009年,第777-801。

[34]蕙,W.Y.“回归树不带偏见的变量选择和互动检测。”国家统计报卷。12,2002年,第361-386。

[35]蕙,W.Y.和Y.S.施。“拆分选择方法对于分类树”。国家统计报卷。7,1997年,第815-840。

[36]麦克尼马尔,Q.“注意上相关比例或百分比之间的区别的抽样误差”。Psychometrika卷。12,第2号,1947年,第153-157。

[37] Meinshausen,N“位数回归森林”。杂志的机器学习研究的卷。7,2006年,第983-999。

[38]莫斯特勒,F.“一些统计问题在测量主观对药物的反应。”生物识别技术卷。8,3号,1952年,第220-226。

[39] Nocedal,J。和S. J.怀特。数值优化,第二版,纽约:施普林格,2006年。

[40] Schapire,R.E。等人。提高保证金:为投票方法有效性的新的解释。统计,卷年鉴。26,第5号,1998年,第1651至1686年。

[41] Schapire,R。和Y.歌手。改进提高使用信心评级预测的算法。机器学习,卷。37,第3期,1999,第297-336。

[42]沙莱夫-Shwartz,S.,Y.歌手和N. Srebro。“Pegasos机器:原始子估计梯度求解的SVM。”机器学习,ICML '07第24届国际会议论文集,2007年,第807-814。

[43]塞弗特,C.,T. Khoshgoftaar,J.赫尔斯和A.纳波利塔诺。RUSBoost:提高分类性能,当训练数据歪斜。第19届国际会议上模式识别,2008年,第1-4页。

[44] Warmuth,M.,J.辽,和G. Ratsch。共纠正增强算法,最大限度地提高保证金。PROC。第23届国际。CONF。机器学习,ACM,纽约,2006年,第1001-1008。

[45]吴,T. F.,C.J。林,和R.翁。“概率估计为多类分类成对由耦合”。杂志的机器学习研究的。卷。5,2004年,第975-1005。

[46]莱特,S. J.,R.D。诺瓦克和M. A. T.菲格雷。“稀疏重建的可分离逼近。”跨。SIG。PROC。卷。57号,7号,2009年,页。2479年至2493年。

[47]肖,林。“双平均方法为正则随机学习和在线优化。”J.马赫。学习。RES。卷。11,2010年,第2543至2596年。

[48]许,卫。“争取最优的一个通行证大规模学习与场均随机梯度下降。”CORR,ABS / 1107.2490,2011。

[49] Zadrozny,B.“通过耦合概率估计减少多类为二进制”。NIPS 2001年:在神经信息处理系统14进展论文集,2001年,第1041-1048。

[50] Zadrozny,B.,J. Langford的,和N.安倍。“由成本相称例加权成本敏感学习”。第三届IEEE国际会议上的数据挖掘,435-442。2003。

[51]周,Z.-H.和X.-Y.刘。“在多级成本敏感的学习。”计算智能。卷。26,第3期,2010,第232-257鏁。