基于L1范式距离的多平面分类算法研究开题报告
2021-08-08 02:42:15
全文总字数:647字
1. 研究目的与意义
特征选择的具体作用体现在三个方面:提高泛化能力,即对未知样本的预测能力;决定相关特征,即与学习任务相关的特征;特征空间的维数约简。特征选则是从一组特征中挑选出一些最有效的特征达到降低特征空问维数的目的。征选择作为一种常见的降维方法是模式识别的研究热点之一。它是指从原始特征集中选择使某种评估标准最优的特征子集。其目的是使选出的最优特征子集所构建的分类或回归模型达到和特征选择前近似甚至更好的预测精度。这不但提高了模型的泛化能力、可理解性和计算效率.同时可降低维度灾难的发生频率。
特征选择作为统计学领域的经典问题,自上个世纪60年代起就有学者对此进行了研究;同时,它也是机器学习领域的重要问题:自90年代以来,特征选择的研究引起了机器学习领域众多学者前所未有的重视.主要原因有以下三方面:
1)许多学习算法的性能受到不相关或冗余特征的负面影响。大多数学习算法所需训练样本的数目随不相关特征的增多而急剧增加。因此,选择好的特征不仅可以减小计算复杂度,提高预测精度,而且有助于寻找更精简的算法模型。
2. 国内外研究现状分析
svm,是基于模式识别方法和统计学习理论的一种全新的非常有潜力的分类技术,主要用于模式识别领域。1963年,ate-tbell实验室研究小组在vanpik的领导下,首次提出了支持向量机(svm)理论方法。这种方法是从样本集中选择一组样本,对整个样本集的划分可以等同于对这组样本的划分,这组样本子集就被形象地称之为支持向量(sv)。但在当时,svm在数学上不能明晰地表示,人们对模式识别问题的研究很不完善,因此svm的研究没有得到进一步的发展与重视。
1971年,kimeldorf提出了使用线性不等约束重新构造sv的核空间,使一部分线性不可分的问题得到了解决。
20世纪90年代,一个比较完善的理论体系统计学习理论(statisticallearningtheory,slt)形成了,此时一些新兴的机器学习方法(如神经网络等)的研究遇到了一些重大的困难,比如欠学习与过学习问题、如何确定网络结构的问题、局部极小点问题等,这两方面的因素使得svm迅速发展和完善,并在很多问题的解决中表现出许多特有优势,而且能够推广应用到函数拟合等其他机器学习问题中,从此迅速发展了起来,目前已经成功地在许多领域里得到了成功应用。
3. 研究的基本内容与计划
研究内容:
1.研究svm分类技术,以及gepsvm,regec,twsvm其相关工作,svm,gepsvm,twsvm,regec写出其具体模型
2.研究训练集和测试集的采集和构建,模型中参数的设置等一些实验方案
4. 研究创新点
该问题是一个强凸规划问题,可以得到全局唯一解,并可避免TWSVM中矩阵奇异问题.在此基础上,进一步提出了一个无约束凸规划问题。该算法无需求解凸规划问题,仅需求解一个线性方程系统.在保证较好的求解异或(X()R)问题同时,可得到较TWSVM还快的训练速度。并可得到稀疏解,换言之,对于线性问题,可以减少输入空间特征数目;而对于非线性问题来说可以减少核函数的个数.由于这些优势,该算法可以应用高维模式识别领域。
课题毕业论文、开题报告、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。