0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于半监督学习的多示例多标签改进算法

SwM2_ChinaAET 来源:lq 2019-10-01 17:12 次阅读

摘要:多示例多标签学习框架是一种针对解决多义性问题而提出的新型机器学习框架,在多示例多标签学习框架中,一个对象是用一组示例集合来表示,并且和一组类别标签相关联。E-MIMLSVM+算法是多示例多标签学习框架中利用退化思想的经典分类算法,针对其无法利用无标签样本进行学习从而造成泛化能力差等问题,使用半监督支持向量机对该算法进行改进。改进后的算法可以利用少量有标签样本和大量没有标签的样本进行学习,有助于发现样本集内部隐藏的结构信息,了解样本集的真实分布情况。通过对比实验可以看出,改进后的算法有效提高了分类器的泛化性能。

0 引言

对于监督学习,通过训练集中已知类样本学习构造一个判决边界,并设定临阈值,来实现对未知样本的预测[1]。通常使用一个示例描述单个对象并与其类别相关联。但是,实际上每个对象都可能不止有一个语义,如一幅含有狮子、大象、草原的图,可以将其归为“大象”类别,也可以将其归为“狮子”类别,甚至可以因为动物和草原的存在将其归为“非洲”的类别。因此,当仅通过一个示例来表示一个对象时,显然难以获得期望的效果。为了处理这个难题,相关学者提出了多示例多标签(Multi-Instance Multi-Label,MIML)[2]机器学习模型,最大特点是:在该框架中是用一组示例集合来表示一个对象,同时该对象与多个标签相关联。对于真实世界中对象的表示能力更强,其他的机器学习框架可以看作是多示例多标签框架的一种简化表示形式。支持向量机(Support Vector Machine,SVM)是建立在统计学习理论基础上的一种机器学习方法,其泛化准确率高,计算效率高,结果易解释[3]。传统的SVM多为监督学习,然而在实际中,有标签的样本数据是稀少的,无标签的样本数据的获取相对较易。半监督学习即通过将无标签样本数据加入训练集中,对其学习建模来增强模型的泛化性能。因此,出现了将半监督学习和SVM方法进行结合来训练分类函数的研究。

1 相关工作

传统监督学习是一种单示例单标记学习框架。学习任务是学得一个映射函数:f:X→Y。在多示例学习问题中[2],用包含一组示例的集合来表示训练集中的每个对象,同时将该对象归属于单个类别标签中。该模型主要学习一个分类器(即映射函数fMIL:2x→Y)来标记未知的示例包的标签。代表性的多示例学习算法有多示例最近邻算法Citation-kNN、多示例神经网络算法BP-MIP等[4]。在多标签学习问题中[2],对象仅由单个示例表示,并属于一组标签。该框架模型的任务是学习fMIL:x→2Y函数的映射,然后使用此映射来预测未知集合中的标签类别。代表性的多标签学习算法有二元相关(BR)算法和分类器链(CC)算法[5]等。

在MIML框架下,有两种解决问题的方式,一种是应用退化的方式,以多示例学习或多标签学习作为桥梁,对MIML问题进行退化,如MIMLSVM[6]和MIMLSVM+[7]等。但是在退化时,有时标签间的关联信息会被忽视,进而影响到实际的分类效果。为了避免信息丢失,另一种思路是改造算法找到适应MIML框架的机器学习算法。代表性算法主要有D-MIMLSVM算法、M3MIML算法[8]等。

2 改进的算法

2.1 E-MIMLSVM+算法

2.2 E-MIMLSVM+算法中引入半监督

半监督学习即把大量无标记的数据和少量有标记的数据一块训练,构建起泛化性能强的分类器,有标签的数据和无标签的数据的空间结构分布相似,应用无标签的样本来训练,有助于提高训练出模型的性能。半监督SVM属于半监督领域中的学习算法,它基于SVM和半监督学习的聚类假设,尝试寻找能将两类有标签样本分隔,并且通过穿过低密度区域来划分超平面,如此一来就能同时利用有标签的数据和无标签的数据。半监督SVM中最经典的是TSVM和S3VM[13]。通过文献[13]对类中心的有效性分析可以获得基于类中心估计的半监督支持向量机meanS3VM。它只需要最大化两个类的类别平均值,来代替之前对所有的未标记样本进行标记的方式。这很大程度上提升了半监督SVM的求解速度。假设存在有标记的样本集Dl={(x1,y1),(x2,y2),…,(xi,yi)},未标记的样本集Du={xl+1,xl+2,…,xl+u},meanS3VM算法[13]可形式化定义为:

通过分析可以得到,式(7)只需要估计无标签样本的类别平均值即可。与S3VM相比,meanS3VM避免了对所有未标记样本类别标签的估计。实际上,meanS3VM算法最大化了两个类的类别平均值。由于meanS3VM算法大量减少了约束条件的个数,因此,对半监督SVM的求解速度更快了,从而使得半监督SVM的时间开销变少。可以证明[14],当给定样本集可分时,meanS3VM的损失函数与标准SVM一致;当给定样本集不可分时,meanS3VM的损失函数不会超过标准支持向量机hinge损失的两倍。为了充分利用未标记样本的空间分布信息,来进一步提升分类器的泛化性能,在本文中,使用半监督SVM算法——meanS3VM对E-MIMLSVM+算法进行了改进。由于meanS3VM算法适用于传统的半监督学习问题,本文改进了meanS3VM算法中核函数的计算方式,用多示例核函数进行替代。使得meanS3VM算法能够适用于多示例多标签学习中,从而得到改进算法SE-MIMLSVM+。令给定有标签样本集S={(Xi,Yi)|1≤i≤l},无标签样本集U={(Xi,Yi)|l+1≤i≤l+μ},测试样本集T={(Xi,Yi)|1≤i≤M},则SE-MIMLSVM+算法的优化问题变为:

其中,ξiy和ρ分别代表的是有标签数据和无标签数据的松弛变量,W0反映了不同任务间的共同特征,vy反映了不同任务间的区别,参数μ用于协调不同任务间的相似程度。从式(4)建立的模型可以看出,每一个分类模型fy都有一个共同的参数w0,也就是说分类模型假设每一个标签相互都是有关联关系的。但是实际的情况是,并非所有标签都存在关联关系。因此可以先在标签空间中聚类,从而将标签空间划分成许多具有标签相关性的子集,每一个示例包和标签之间的标签指示阵表示为Y。为了衡量标签之间的联系信息,在聚类的过程中使用的是Y列上的皮尔逊相关系数。

2.3 改进算法步骤

因为ω和d的双线性约束,所以式(7)是一个非凸优化模型。可以使用凸松弛算法或交替优化算法得到未标记样本估计好的类中心然后带入式(7)将其变为凸优化问题,使用凸优化软件包求解。这里选择使用求解速度更快的交替优化算法来处理相关问题。SE-MIMLSVM+的算法流程如下:

①使用有标签的样本Sk训练SVM分类器。②使用训练出来的SVM分类器对未标记的样本集U进行预测,利用预测值初始化d的值。③在本轮迭代中,固定d的取值来优化变量α,然后再固定α的值来优化d的值。④重复步骤③的迭代过程,直至达到训练所指定的迭代次数,得到未标记样本集U的类别平均值估计。⑤根据得到的类别估计平均值和有标签样本集求解式(8)得到一个SVM分类器。(5)对于未知标签的样本集X,使用T-Criterion[15]准则的最终预测函数为:

3 实验

3.1 实验设置

在本文中,用半监督算法meanS3VM来优化改进E-MIMLSVM+算法,并将对比MIMLSVM+、MIMLSVM、E-MIMLSVM+这3个MIML算法,以此来验证改进算法的分类性能。其中3个对比算法中的参数分别根据文献[6]-[7]中的实验设置为最优。根据参考文献[13]将meanS3VM算法中的参数调整为最优。实验同样应用十折交叉法,将数据集分成训练集和测试集两份,各1 000个数据。实验期间,从训练集中无规则的选择100个样本作为有标记的训练集,并且剩下的900个作为无标记的训练集。由于本实验对比的3个多示例多标签算法无法训练未标记的样本,因此每次随机抽取1 000个样本用作训练集,其余样本用作测试集。反复10次实验以计算平均值以及方差。实验使用周志华等提供的多示例多标签数据集,分为场景集和文本集[6],为了公平起见,算法均使用相同的样本集和测试集。第一部分为场景样本集,共有样本图像2 000个,数据集中的样本均被标记了一组类别标签。所有可能的类标签为沙漠、山脉、海洋、日落和树木,其中,属于一个以上的类(如海+日落)的样本的数目约占数据集的22%,许多组合类(如山+日落+树)约占0.75%,单个标签的样本数目约占77%。平均而言,每个示例都与1.24个类标签相关联。每幅图片通过SBN方法[16]用包含9个示例的示例包进行表示,每个示例为15维的特征向量。第二个样本集是文本样本集,这个样本集来源于被广泛研究的Reuters-21578[17]。该样本集分为7个类别标签,共2 000个样本文档。原始的数据集在删除标签集或主文本为空的文档后保留8 866了个文档,之后经过随机删除只有一个类标签的文档后,得到实验所用的含有2 000个样本文档的文本数据集。在该数据集中,每个文档平均所属于1.15±0.37个标签,属于多个标签的文档占比约为15%。通过使用滑动窗口[18]技术将文档表示为一组示例。每个包中包括一组243维的特征向量,每一个向量代表了这篇文档的某一个部分。每一个包最少包含2个示例,最多包含26个示例,平均每一个包中含有3.56±2.71个示例。本实验中使用的场景样本集和文本样本集,其结构特征如表1所示。

3.2 实验结果

本实验选取多示例多标签领域的5个评价指标[2]:Hamming loss、one-error、coverage、ranking loss和average precision。前4项评价指标的值越小,说明算法的分类效果越好;最后一项评价指标的值越大,说明分类效果越好。表2和表3分别显示了各个算法在两个集上的实验表现。表中“±”前面的值为实验进行十折交叉验证后,对5个评价指标的计算取值,“±”后面的值是计算得到的方差。

从表中可以看出,SE-MIMLSVM+算法前4项评价指标的值都是最小的,而average precision的值则是最大的,这说明改进算法在场景样本集和文本样本集上取得了优于其他多示例多标签算法的分类效果。

4 结论

本文讨论了基于退化策略并且使用SVM分类的多示例多标签算法E-MIMLSVM+。通过在E-MIMLSVM+算法中引入利用未标记样本学习并且求解速度较快的半监督支持向量机meanS3VM,对原始算法进行了改进。与其他多示例多标签算法相比,改进算法提高了分类准确率,增强了分类器的泛化能力。

参考文献

[1] 李斌,李丽娟。基于改进TSVM的未知网络应用识别算法[J]。电子技术应用,2016,42(9):95-98.

[2] ZHOU Z H,ZHANG M L,HUANG S J,et al.Multi-instance multi-label learning[J].Artificial Intelligence,2012,176(1):2291-2320.

[3] 张磊,殷梦婕,肖超恩,等。基于优化型支持向量机算法的硬件木马监测[J]。电子技术应用,2018,44(11):17-20.

[4] 张苗。基于多示例学习的图像检索算法研究[D]。合肥:中国科学技术大学,2017.

[5] READ J,PFAHRINGER B,HOLMES G,et al.Classifier chains for multi-label classification[J].Machine Learning,2011,85(3):333.

[6] ZHOU Z H,ZHANG M L.Multi-instance multi-label learning with application to scene classification[A].Advances in Neural Information Processing Systems 19[C].MIT Press,2007:1609-1616.

[7] LI Y X,JI S W,KUMAR S,et al.Drosophila gene expression pattern annotation through multi-instance multi-label learning[J].IEEE/ACM Transactions on Computational Biology and Bionformatics,2012,9(1):98-112.

[8] ZHANG M L,ZHOU Z H.M3MIML:a maximum margin method for multi-instance multi-label learning[C].Eighth IEEE International Conference on Data Mining.IEEE,2008:688-697.

[9] 周志华。机器学习[M]。北京:清华大学出版社,2016.

[10] EVGENIOU T,PONTIL M.Regularized multi-task learning[A].Tenth ACM Sigkdd International Conference on Knowledge Discovery & Data Mining[C].ACM,2004:109-117.

[11] ZHANG J,GHAHRAMANI Z,YANG Y.Flexible latent variable models for multi-task learning[J].Machine Learning,2008,73(3):221-242.

[12] EVGENIOU T,MICCHELLI C A,PONTIL M.Learning multiple tasks with Kernel methods[J].Machine Learning Research,2005,6(4):615-637.

[13] LI Y F,KWOK J T,ZHOU Z H.Semi-supervised learning using label mean[A].International Conference on Machine Learning[C].ACM,2009:633-640.

[14] 李宇峰。半监督支持向量机学习方法的研究[D]。南京:南京大学,2013.

[15] BOUTELL M R,LUO J,BROWN C.M.Learning multilabel scene classification[J].Pattern Recognition,2004,37(9):1757-1771.

[16] MARON O,RATAN A L.Multiple-instance learning for natural scene classification[A].Proceedings of the 15th International Conference on Machine Learning[C].Morgan Kaufmann Publishers Inc,1998:341-349.

[17] SEBASTIANI F.Machine learning in automated text categorization[J].Computer Science,2015,34(1):1-47.

[18] ANDREWS S,TSOCHANTARIDIS I,HOFMANN T.Support vector machines for multiple-instance learning[A].Advances in Neural Information Processing Systems[C].ResearchGate,2003:561-568.

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 算法
    +关注

    关注

    23

    文章

    4612

    浏览量

    92884
  • 函数
    +关注

    关注

    3

    文章

    4331

    浏览量

    62610
  • 机器学习
    +关注

    关注

    66

    文章

    8418

    浏览量

    132628

原文标题:【学术论文】基于半监督学习的多示例多标签改进算法

文章出处:【微信号:ChinaAET,微信公众号:电子技术应用ChinaAET】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    康谋方案 | 源相机数据采集与算法集成测试方案

    如何满足不同应用场景下对图像采集和算法测试的多样化需求?本文为您带来源相机数据采集与算法集成测试方案,通过BRICKplus/BRICK2与ADTF的结合,轻松实现源相机快速集成和
    的头像 发表于 12-11 09:59 621次阅读
    康谋方案 | <b class='flag-5'>多</b>源相机数据采集与<b class='flag-5'>算法</b>集成测试方案

    时空引导下的时间序列自监督学习框架

    【导读】最近,香港科技大学、上海AI Lab等多个组织联合发布了一篇时间序列无监督预训练的文章,相比原来的TS2Vec等时间序列表示学习工作,核心在于提出了将空间信息融入到预训练阶段,即在预训练阶段
    的头像 发表于 11-15 11:41 254次阅读
    时空引导下的时间序列自<b class='flag-5'>监督学习</b>框架

    【《大语言模型应用指南》阅读体验】+ 基础知识学习

    收集海量的文本数据作为训练材料。这些数据集不仅包括语法结构的学习,还包括对语言的深层次理解,如文化背景、语境含义和情感色彩等。 自监督学习:模型采用自监督学习策略,在大量无标签文本数据
    发表于 08-02 11:03

    【《大语言模型应用指南》阅读体验】+ 基础篇

    章节最后总结了机器学习的分类:有监督学习、无监督学习监督学习、自监督学习和强化
    发表于 07-25 14:33

    深度学习算法在嵌入式平台上的部署

    随着人工智能技术的飞速发展,深度学习算法在各个领域的应用日益广泛。然而,将深度学习算法部署到资源受限的嵌入式平台上,仍然是一个具有挑战性的任务。本文将从嵌入式平台的特点、深度
    的头像 发表于 07-15 10:03 1396次阅读

    神经网络如何用无监督算法训练

    标记数据的处理尤为有效,能够充分利用互联网上的海量数据资源。以下将详细探讨神经网络如何用无监督算法进行训练,包括常见的无监督学习算法、训练过程、应用及挑战。
    的头像 发表于 07-09 18:06 800次阅读

    深度学习中的无监督学习方法综述

    应用中往往难以实现。因此,无监督学习在深度学习中扮演着越来越重要的角色。本文旨在综述深度学习中的无监督学习方法,包括自编码器、生成对抗网络、聚类算法
    的头像 发表于 07-09 10:50 729次阅读

    机器学习算法原理详解

    机器学习作为人工智能的一个重要分支,其目标是通过让计算机自动从数据中学习改进其性能,而无需进行明确的编程。本文将深入解读几种常见的机器学习算法
    的头像 发表于 07-02 11:25 1038次阅读

    一屏万象,场景无限: 蓝牙墨水屏标签多功能场景应用带您领略未来

    研发的智能蓝牙墨水屏显示标签规格,应用场景,超低功耗,设备联动,提供二次开发定制,API对接,SDK云云对接等特色,满足不同行业客户不断拓展的多元化需求。
    的头像 发表于 05-27 11:11 453次阅读
    一屏万象,场景无限: 蓝牙墨水屏<b class='flag-5'>标签</b>多功能<b class='flag-5'>多</b>场景应用带您领略未来

    TLE9867QXA20如何实现一主从?

    您好,团队,我在我的应用程序中使用 TLE9867QXA20,一主一从,现在我想为我的应用实现一主从概念。 我参考了以下示例代码,实现了一个主站和一个从站。 请提供使用 LIN 实现一主从的
    发表于 03-04 07:26

    机器学习基础知识全攻略

    监督学习通常是利用带有专家标注的标签的训练数据,学习一个从输入变量X到输入变量Y的函数映射。Y = f (X),训练数据通常是(n×x,y)的形式,其中n代表训练样本的大小,x和y分别是变量X和Y的样本值。
    发表于 02-25 13:53 244次阅读
    机器<b class='flag-5'>学习</b>基础知识全攻略

    矽力杰车规级通道桥驱动

    矽力杰通道桥驱动方案SA521xx系列汽车行业电动化和智能化的迅猛发展促使多路桥驱动芯片在直流电机、LED和继电器驱动以及高边供电等域控器领域得到广泛应用。ZCU要求多路桥驱动
    的头像 发表于 02-19 13:05 1347次阅读
    矽力杰车规级<b class='flag-5'>多</b>通道<b class='flag-5'>半</b>桥驱动

    纳芯微全新推出NSD3604/8-Q1系列通道桥栅极驱动芯片

    纳芯微全新推出NSD3604/8-Q1系列通道桥栅极驱动芯片,覆盖4/8路桥驱动,可驱动最少4颗直流有刷电机,实现通道大电流电机驱动,也可以作为
    的头像 发表于 01-12 14:07 1837次阅读
    纳芯微全新推出NSD3604/8-Q1系列<b class='flag-5'>多</b>通道<b class='flag-5'>半</b>桥栅极驱动芯片

    Spring Boot和飞腾派融合构建的农业物联网系统-改进自适应加权融合算法

    接上集: 上次实验我们已经完成传感器融合算法的设计,本次实验注意完成改进自适应加权融合算法设计。 一、背景 通过利用温室控制系统来管理温室内的各种设备并控制温度、湿度,可以更好地探索
    发表于 01-06 12:18