首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
集成学习算法的效果取决于各个基分类器,如何构造有效的基分类器是关键。对集成学习算法中的Bagging算法进行了研究,提出了一种基于层次抽样构造SVM基分类器的方法进行P2P流分类,并通过实验验证了该方法的有效性。  相似文献   

2.
肺栓塞是一种致死率很高的常见疾病,肺栓塞的预测和早期诊断对于人类的健康具有重要意义。本文提出了一种基于属性聚类的多示例集成学习方法,首先采用K-Means聚类算法对CTA数据进行属性聚类,降低数据的维度,然后用多示例集成学习方法进行肺栓塞预测。在真实世界数据集上的实验结果显示,与属性聚类前、单个分类器及一般的简单集成学习方法相比,该方法构造的分类器取得了更好的预测效果。  相似文献   

3.
提升基于数据流的数据挖掘正确率并克服概念漂移的影响是当前的研究热点之一。相对于传统意义上的数据挖据,基于数据流的数据挖掘具有动态、数量多、持续性强等特点。由于传统的数据挖掘算法都是应用于静态数据,挖掘结果并不完全匹配动态变化。将样本数据流进行数据块化处理后使用集成算法,可提升流数据挖掘的准确性。其中集成算法基分类器包括决策树和KNNModel算法等。对于不同算法的效果给予不同权值,提升算法相比于基分类器,能够更加准确地判定概念漂移的发生。实验结果表明,通过集成学习方法可以有效提升学习效果及分类判定准确率,非同质类型的集成算法对于抑制概念漂移的不良影响可起到一定作用。  相似文献   

4.
气候变化预测问题研究迫在眉睫。提出一种基于粒子群优化的集成算法,用在线连续极限学习机作为基分类器,根据不同的激励函数集成基分类器,用粒子群算法优化集成分类器的权值,投票得出最终结果。实验结果表明,该方法与基于梯度的算法相比,具有较高的准确率、g mean及较好的灵活性。  相似文献   

5.
针对数据类别不平衡问题,提出一种AdaBoost集成算法,用极限学习机作为基分类器,根据AdaBoost集成各个基分类器,用AdaBoost集成分类器的权值,得出最终结果。实验结果表明,该方法相较于传统ELM算法具有较高的准确率、G mean、F score及更好的灵活性。  相似文献   

6.
针对不均衡数据处理问题,提出一种AdaBoost与在线连续极限学习机的集成算法。用在线连续极限学习机(OSELM)作为基分类器,根据AdaBoost集成各个基分类器,用AdaBoost集成分类器的权值,得出最终结果。实验结果表明,该方法具有较高的准确率。  相似文献   

7.
针对高职院校学生存在的心理健康问题现状,提出一种利用集成学习算法——Adaboost进行心理健康预测的方法。该方法首先抽取心理健康测试数据特征,经过数据清洗和规范化处理后,以决策树为分类器对数据进行挖掘分析,运用Adaboost算法对决策树分类器进行多轮迭代训练以提高分类器的分类效能,建立起一种心理健康预测模型。利用该模型对某高校2015级2 780名学生的心理健康测试数据进行了分析。实验结果表明,该方法能够实现对敏感心理问题的有效识别,从而为高职院校心理健康教育提供规划和决策依据。  相似文献   

8.
为提高早期糖尿病患病风险的预测准确性,基于集成学习算法建立糖尿病患病风险预测模型.分别基于集成学习算法随机森林、GBDT和XGBoost建立糖尿病预测模型,并比较以上3种方法与单一分类器支持向量机和BP神经网络的分类预测性能.在UCI数据库的早期糖尿病数据集上进行验证试验,使用准确率、精确率、召回率、F1分数和AUC ...  相似文献   

9.
将图像的像素特征与矩特征结合,构建了神经网络分类器,利用提取的特征向量对分类器进行了训练和测试。将图像二值化,并归一化为16*16大小,提取了其每个像素点的0、1特征共16*16=256维,图像的网格特征13维,及Hu矩特征7维,一共276维特征。建立了BP神经网络分类器,分别使用最速下降BP算法、动量BP算法、学习率可变BP算法对BP神经网络分类器进行了训练,得出了在相同条件下学习率可变BP算法训练时间短,收敛快的结论。建立了PNN神经网络分类器,与BP神经网络分类器性能进行比较,实验结果表明,PNN神经网络分类器性能更好。  相似文献   

10.
为了提高脑力负荷分类准确率,提出一种将Bagging和极限学习机相结合的集成算法。用极限学习机(ELM)作为底层弱分类器,通过多数投票方式决定最终类别的标签,从而构建最终强分类器。实验结果表明,在脑力负荷识别研究问题上,该集成算法的分类准确率在4个被试数据集上分别达到了96.17%、96.02%、92.50%和93.50%。相较于传统的ELM算法,分类准确率在4个被试数据集上分别提升了1.59%、1.34%、2.86%和1.80%。并且新算法在精确率、灵敏度和特异度等评估标准上均高于传统ELM分类器。  相似文献   

11.
针对烧结过程的时变、强非线性等特点,基于神经网络和粒子群优化算法,提出一种预测透气性状态的集成方法.采用神经网络分别建立透气性预测模型,采用粒子群优化算法对神经网络进行训练,提高预测模型的实时性;进而借助模糊分类器将预测子模型实现有机融合.最后实际运行结果表明,提出的集成模型具有较高的预测精度和较强的自学习能力,并且在工况波动严重的情况下,仍然具有好的预测效果.  相似文献   

12.
近年来基于Adaboost的人脸检测算法因其快速和可接受的检测率得到了成功的应用,但Viola-Jones学习算法需要对级联分类器的每一个特征反复训练弱分类器显得非常缓慢。本文给出了一种新的级联检测器节点分类设计方法,首先将每个节点所有弱分类器的训练移到循环外,然后选择使强分类器有最小错误率的特征集代替选择单个最小加权误差的特征生成强分类器。实践表明该训练速度快于Viola-Jones的方法。  相似文献   

13.
近年来Adaboost算法被成功地用于人脸检测中,本文给出了一种基于加权最小平方误差boosting算法的人脸检测。首先本方法在每一次循环中用加权最小平方误差准则训练弱假设,与原始Adaboost算法不同的是弱假设的生成不仅用于预测分类,而且用于估计每次预测的自信率,然后由这组合自信率的弱假设集成构造出强分类器。实践表明基于加权最小平方误差boosting算法的分类器有较高的检测率和较低的正样本误检率。  相似文献   

14.
AdaBoost是一种构建准确分类器的学习算法,但其训练样本时间长制约了发展.本文对训练算法进行改进,通过直方图将弱分类器学习训练从循环中提取出来,以缩短训练时间;且在人脸检测方面,变标准步长为动态步长,有效地避免冗余计算,提高检测速度.实验表明通过两方面的改进,提高了检测速度,因此在实时性要求较高的应用领域有现实意义.  相似文献   

15.
为提高分类性能,提出了一种新的基于数据离散化和选择性集成的SVM集成学习算法。该算法采用粗糙集和布尔推理离散化方法处理数据集,构造有差异的个体SVM以提高集成学习的性能。在训练得到一批SVM之后,算法采用了选择性集成提高性能并减小集成规模。实验结果表明,所提算法能取得比传统集成学习方法Bagging和Adaboost更好的性能。  相似文献   

16.
提出了一种对存有安全隐患车辆的跟踪学习方法,对传统的在线学习方法进行改进,通过改善学习性能,使算法在不稳定的安全隐患车辆跟踪中发挥作用,实验结果表明,在同等条件下,该算法能够获取更多有效样本,使得分类器更快收敛。  相似文献   

17.
为提高含容参元件模拟电路软故障的诊断率,并考虑到单分类器分类精度的提升已达到了一个瓶颈,提出一种优化AdaBoost-SVM算法并将其应用于模拟电路故障诊断中。以OrCAD/PSpice软件中对电路进行Monte-Carlo分析的数据为基础,选取特征时,采用对时频信号中易直接测量的物理量归一化后组合的方式。实验结果表明,通过选取的组合特征向量,利用优化的AdaBoost-SVM算法,构造出具有差异度的SVM分类器并集成后,能够自适应地提升单SVM分类器性能,表现出更好的分类精度与泛化性能,能较好地满足容差模拟电路软故障诊断要求。  相似文献   

18.
"落地难"问题已经成为中国PPP模式可持续、健康发展过程中亟待解决的重大问题.通过深入剖析PPP"落地难"形成机理,从政府和项目两个维度分析PPP可落地性评价特征.针对传统分类器识别非平衡样本集的缺陷,通过人工合成数据,并引入集成学习算法,构建SMOTE-Bagging算法进行模型训练,解决PPP可落地性评价中样本数据...  相似文献   

19.
为满足车辆检测实时性和准确性需求,将基于C4.5的决策树算法作为AdaBoost算法的弱分类器,产生一种速度快、识别率高的强分类器,称之为AdaBoost DT算法。算法训练多个决策树并将之作为弱分类器,之后通过改进级联架构的AdaBoost算法将若干弱分类器组合成一个强分类器。该算法特点在于:相对于广泛使用的以SVM作为弱分类器的算法,其以决策树作为分类器,速度提高了29%;通过在AdaBoost算法进行强分类器的形成阶段加入再判决函数,准确率提高了14.1%。  相似文献   

20.
《嘉应学院学报》2016,(5):16-20
针对传统Android恶意应用检测方法在处理大规模样本时存在的训练时间长、存储空间消耗大的问题,提出一种基于增量学习SVM的Android恶意应用检测方法.该方法提取Android应用的权限申请和API函数调用特征,利用增量学习SVM理论将训练样本集随机划分为初始样本集和若干个增量样本集,利用循环迭代方法训练SVM分类器,每次新的训练仅保留上一轮训练得到的支持向量集并合并到新增样本集中,舍弃大量对分类结果不产生影响的样本以提高分类器学习效率,同时产生新的支持向量集,并最终得到一个高精度的SVM分类器.通过将增量学习SVM算法与基本SVM算法进行对比实验,结果表明,该算法可以有效降低分类器学习时间,减少样本存储的空间占用,同时随着样本规模的积累逐步提高分类精度.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号