特征选择是一种降维技术,它只选择在数据建模中提供最佳预测能力的测量特征子集(预测变量)。当处理非常高维的数据或使用所有特性进行建模是不可取的时候,它特别有用。
特征选择可用于:
- 提高a的准确性机器学习算法
- 在非常高维的数据上提高性能
- 提高模型的可解释性
- 防止过度拟合
特征选择有几种常见的方法:
另一种降维方法是使用特征提取或特征变换技术,将现有的特征转化为新的特征(预测变量),减少描述较少的特征。
特征转换的方法包括:
有关特征选择的更多信息,包括机器学习、回归和转换,请参见统计和机器学习工具箱™与使用MATLAB®。