2024年1月10日发(作者:威然大众7座2022款价格)

第47卷第5期2021年5月自动化学报ACTAAUTOMATICASINICAVol.47,No.5May,2021基于FR-ResNet的车辆型号精细识别研究余烨1,2傅云翔1杨昌东1路强1,2摘要车辆型号精细识别的关键是提取有区分性的细节特征.以“特征重用”为核心,以有效提取车辆图像细节特征并进行高效利用为目的,提出了一种基于残差网络特征重用的深度卷积神经网络模型FR-ResNet(ImprovedResNetfocusingonfeaturereuse).该网络以ResNet残差结构为基础,分别采用多尺度输入、低层特征在高层中重用和特征图权重学习策略来实现特征重用.多尺度输入可以防止网络过深导致性能退化以及陷入局部最优;对各层网络部分加以不同程度的特征重用,可以加强特征传递,高效利用特征并降低参数规模;在中低层网络部分采用特征图权重学习策略,可以有效抑制冗余特征的比重.在公开车辆数据集CompCars和StanfordCars上进行实验,并与其他的网络模型进行比较,实验结果表明FR-ResNet在车辆型号精细识别任务中对车辆姿态变化和复杂背景干扰等具有鲁棒性,获得了较高的识别准确率.关键词引用格式DOI车辆型号精细识别,卷积神经网络,残差结构,特征重用余烨,傅云翔,杨昌东,路强.基于FR-ResNet的车辆型号精细识别研究.自动化学报,2021,47(5):1125?113610.16383/.c180539Fine-GrainedCarModelRecognitionBasedonFR-ResNetYUYe1,2FUYun-Xiang1YANGChang-Dong1LUQiang1,2AbstractThekeyof?ne-grainngon“featurereuse”,aimingate?cientlyextractingandusingthefeaturedetailsfromcarimages,adeepconvolutionalneuralnetworkmodelnamedFR-ResNet(improvedResNetfocusingonfeaturereuse)ntheresidualstructure,FR-ResNetadoptsthestrategyofmulti-scaleinput,reuseoflowlevelfeatureinhighlevelnetwork,-scaleinputcanpreventperf?erentdegreesoffeaturereuseforhigh,mediumandlowlevelnetworkcanenhancethefeaturetransfer,e?ategyoffeaturemapweightlearningappliedonmiddleandlowlevelnetworkcane?mentalresultscarriedoutonthestate-of-the-artpublicvehicledatasetsCompCarsandStanfordCarsshowthat,comparedwithothernetworkmodels,FR-ResNetcanobtainhighrecognitionaccuracyincarmodelrecognitiontask,dsreuseFine-grainedclassi?cationofcarmodels,convolutionalneuralnetwork(CNN),residualstructure,featureCitationYuYe,FuYun-Xiang,YangChang-Dong,tomaticaSinica,2021,47(5):1125?1136随着车辆的普及、交通运输技术以及智能交通系统的发展,车辆识别作为计算机视觉、图像处理技术应用方面的重要研究课题,具有较大的学术价值和应用前景.无论是无人驾驶[1]、停车场自动收费还收稿日期2018-08-08录用日期2019-01-18ManuscriptreceivedAugust8,2018;acceptedJanuary18,2019国家自然科学基金(61906061),安徽省重点研究和开发计划项目(201904d07020010)资助SupportedbyNationalNaturalScienceFoundationofChina(61906061)andProvincialKeyResearchandDevelopmentPro-gramofAnhuiProvince(201904d07020010)本文责任编委白翔RecommendedbyAssociateEditorBAIXiang1.大数据知识工程教育部重点实验室(合肥工业大学)合肥2300092.合肥工业大学计算机与信息学院合肥oratoryofKnowledgeEngineeringwithBigData(HefeiUniversityofTechnology),ofComputerScienceandInformationEngineering,HefeiUniver-sityofTechnology,Hefei230009是公安部门对特定车辆的大范围检索[2],在不断上升的需求以及相关硬件设备性能升级的刺激下,车辆识别在效率和精度上的要求也在不断提高.套牌车、车牌污损、车标改装和违规喷漆等情况的存在使得单独的车牌、车标[3]等识别技术难以奏效,而车辆型号包含车辆品牌、车辆类型、所属系列和年代款式等信息,其识别属于精细识别的范畴,需要能识别出不同车辆之间的微小差异.因此,车辆型号精细识别将成为新一轮的研究聚焦点,为智能交通部门及交管执法部门提供更好的解决方案.目前,车辆型号精细识别尚面临如下挑战:1)车型种类繁多.目前国内已登记的车辆型号种类多达上万种,即使是在一个中等大小的城市,路面上常见的车辆型号也有上千种[4].2)易受车辆姿态、拍摄环境的影响.真实环境

1126自动化中,车辆的姿态是不固定的,所在场景、环境光照也各不相同.车辆姿态和环境的变化给车型识别增加了难度.3)车辆型号之间区分难度大.不同于Ima-geNet[5]图像数据集中各分类对象种类间差异较大,车辆型号识别对象均为四轮汽车,即使目前数据集中的类别数量不足1000,对应分类任务的难度仍不低于ImageNet分类任务.此外,部分车辆型号相互之间差别很小,这种细微的差距不仅存在于同品牌不同型号之间,不同品牌之间也有区分度很小的车型存在.如:图1(a)中的2018款的奥迪A4L和奥迪A6L,它们的区别仅在于大灯和雾灯;图1(b)中的奇瑞QQ3和雪佛兰乐驰,它们的外形极其相似,区别仅在于散热格栅和雾灯部分.图1相似车型的例子Fig.1Examplesofsimilarvehiclemodels传统采用尺度不变特征变换(Scale-invariantfeaturetransform,SIFT)[6]、方向梯度直方图(His-togramoforientedgradients,HOG)[7]等手工特征描述子的方法来实现特征提取,将提取到的特征利用分类器进行训练,以实现分类识别.这类方法易受光照、车辆姿态、噪声和背景等影响,鲁棒性不强.此外,无论是利用车前脸、车后脸还是它们的部分来进行车型识别,用手工特征描述子均难以描述,这是因为识别对象需要综合车灯、车栅格等诸多细节特征来进行判断,而手工描述子很难统一提取这些细节部位的特征.深度学习能够自动学习大量数据的特征[8],借助于大数据,可以大大提升识别效率与精度,在人脸识别[9]、行人检测[10]、目标分类与发现[11]、图像精细分类[12]等领域已经取得了很大的学报47卷成功.研究成果表明,深度卷积神经网络在车辆型号识别领域的应用可以获得很好的识别效果.虽然目前已有基于深度学习的商用车型识别系统投入实际使用,但其针对的识别对象为卡口监控中获取的车辆正脸图像,姿态变化很小.实际智能交通应用中,涉及的车辆图像包含从多个角度拍摄的图像,因此,如何基于多姿态车辆图像进行车辆精细型号的识别,具有十分重要的研究价值和现实意义.针对多姿态车辆型号的精细识别,本文提出一种基于残差网络特征重用的深度卷积神经网络模型FR-ResNet(ImprovedResNetfocusingonfeaturereuse),该网络具有以下特点:1)网络采用残差结构作为基础,在加深网络层数的同时,不必担心梯度爆炸问题和随着层数增加发生准确率下降的网络退化问题.2)添加多尺度信息输入,加强图像多尺度特征融合,防止网络陷入局部最优.3)对不同层网络特征采取不同程度的特征重用,将上一层特征与当前层特征进行融合,以促进特征流动,提高其利用率,有效缩减所需参数数量.4)在底层网络中采用特征图权重学习策略,在图像处理初期对特征通道的重要程度进行排序,使有效特征得到更大激励并传递下去.采用目前流行的大型车辆图像数据集Comp-Cars和StanfordCars为测试数据,在此之上进行一系列实验.实验结果表明FR-ResNet在车辆型号识别方面性能优于其他一些经典的卷积神经网络(Convolutionalneuralnetwork,CNN)模型.例如在CompCars数据集上,VGG16[13]获得了92.4%的准确率,ResNet[14]获得了93.7%的准确率,而本文提出的FR-ResNet的准确率达到了95.1%.1相关工作“车型识别”包含两个含义,即“车辆类型识别”和“车辆型号识别”.早期“车型识别”主要指“车辆类型识别”,即识别车辆是小汽车、卡车还是公交车等.如:文献[15]中使用稀疏拉普拉斯滤波器来学习大量未标注数据,使用半监督的卷积神经网络自动为分类任务学习有利特征,在复杂场景中对巴士、小型巴士、小型货车、乘用车、轿车和卡车共6种车辆类型识别效果良好.车辆型号由于种类繁多、类间区分度小等原因,其识别工作难度远远大于车辆类型的识别,属于精细分类问题.目前车辆型号精细识别方面的研究工作还较少,研究方法主要可以分为三类:基于“传统特征描述子+分类器”的方法、基于3D模型的方法以及基于深度学习的方法.

5期余烨等:基于FR-ResNet的车辆型号精细识别研究1127基于“传统特征描述子+分类器”的方法是较为传统的图像识别方法.一般使用人工描述子提取图像特征,再用分类器训练以实现分类.Hsieh等[16]通过对感兴趣区域进行网格划分,对每个网格使用HOG和对称SURF(Speededuprobustfeature)描述子提取特征,并在每个网格块上使用支持向量机(Supportvectormachine,SVM)训练弱分类器,基于分类结果的组合进行最终车辆型号的识别.Liao等[17]提出了一种基于车辆部件的分类方法,采用强监督DPM(Deformablepartsmodel)来引入语义层次结构进行语义分割,基于部件的外观和语义来识别车辆.Biglari等[18]则通过捕捉不同种车辆整体外观以及各部件间的特征差异,通过SVM训练获得相应的车型特征模板.文献[19]提出一种基于部件矫正的光度特征提取算法,增强了不同光照强度下摄像头拍摄照片识别的稳定性.但是由于人工设计特征的局限性,研究处理的图像多为车辆正面图像,姿态单一.为了能更地应对图像视角的变化,研究者们提出了基于3D模型的方法,3D模型能体现局部特征和模型整体之间的空间关系.文献[20]中提出一种3D对象建模和精细分类任务相结合的方法,详细的3D表示相对2D有更多的特征信息,改善了精细分类的性能.Krause等[21]认为单纯的平面图形限制了视角,提出一种从2D图形提取3D模型的方法,通过CAD建模和特征贴片,最终形成3D训练特征,实验结果优于此前的2D方法.自从Krizhevsky等的论文[12]引起深度学习研究热潮以来,神经网络影响巨大,推动了多个领域研究工作的长足发展.在车辆型号识别方面,深度学习也起到了重要的作用.不少研究者借助于卷积神经网络进行车辆型号分类的研究.基于深度学习的识别方法主要通过建立端到端的卷积神经网络模型来完成识别分类任务.目前典型的卷积神经网络模型AlexNet,VGGNet,GoogLeNet,ResNet等均能用于车辆型号识别,但由于识别任务的特殊性,这些网络在识别性能上并不十分出色.研究者们试图在经典网络的基础上进行改进,以使卷积神经网络模型更适用于解决车辆型号精细识别问题.Sochor等[22]将多角度的车辆图像通过3Dboundingbox进行边界限定,并基于3D边界框对2D图像进行3D展开以及栅格化.把展开后的图像作为深度学习的输入,两者结合效果提升明显.文献[23]在文献[24]提出的TCNN(TiledCNN)的基础上改变了CNN的权重共享方案,提出一种局部平铺卷积神经网络模型LTCNN(LocalCNN)用于车型识别,该网络具有平移、旋转和尺度不变性.文献[25]首先借助RCNN(RegionswithCNN)从复杂背景图像中识别出车辆,然后利用联合贝叶斯网络计算类间和类内相似度,以获得车辆最大概率所属型号类别.文献[26]提出一种特征融合的卷积神经网络模型,把车正脸图像分上下两部分,并行提取特征并将其多维度融合后用来实现车型的精细分类.文献[27]尝试使用定位、识别两部分网络,并采用多任务机制,将车辆定位与显著性检测同时进行,能够处理并识别背景杂乱无章的车辆图像.文献[28]结合车辆部件检测的方法,通过CNN网络获得图像整体和局部部件的特征,通过SVM进行分类识别.综上所述,车辆型号精细识别研究目前的突破点和热点在于深度学习的应用.识别对象类间差距小、种类繁多是研究的难点.为有效提取车辆图像特征并进行高效利用,提出了“特征重用”的思路,围绕这一思路对ResNet进行改进,提出了FR-ResNet模型,并基于该模型,实现了车辆型号的精细分类.2算法描述2.1残差结构在目标识别领域,卷积神经网络一直向着更深的模型结构发展,识别效果得到不断提升.更深更宽的网络模型具有更多的网络参数,能够更好地学习到图像中的细节特征,然而深层网络难以训练、更深网络反而训练误差加大、网络反向传播的参数相关性降低等问题日益明显.为此,He等[14]提出了残差网络,即通过残差表示和快速链接的方式来解决上述问题.如图2所示,G(x)表示待拟合对象,x为输入数据,则残差函数R(x)可以表示为G(x)?x,最终图2残差函数拟合关系Fig.2Fittingrelationshipofresidualfunction

1128自动化学报47卷拟合函数G(x)=R(x)+x.通过卷积神经网络的反向传播机制,学习残差函数R(x)的参数来拟合G(x)?x,以达到进一步拟合G(x)的效果.由于残差结构可以在增加网络层数的同时有效阻止网络退化,因此,FR-ResNet采用残差结构作为网络的主体结构,基于残差结构的串联组合,结合特征重用、权重学习和多尺度输入的策略,构建适用于车辆型号精细分类的卷积神经网络模型.在FR-ResNet中,单个残差结构的组成如图3所示,由1×1全通道卷积与3×3分组卷积的卷积层组合来实现.的扩增.在深度学习中,多尺度信息的输入可以防止设计的卷积神经网络陷入局部最优解,促进网络参数的更新.因此本文在网络中增加了多尺度信息输入的方法.2.2网络主体结构车辆型号精细识别网络FR-ResNet的主要模型结构如图4所示.该模型由3个部分组成,按照网络中生成特征图的大小分为低层网络、中层网络和高层网络.低层网络中的特征图尺寸范围为56×56像素到224×224像素,中层网络的特征图尺寸范围为14×14像素到56×56像素,高层网络的特征图尺寸为7×7像素.每层网络部分都包含一个残差模块,由多个第2.1节所述的残差结构串联组合而成.其中,低层网络部分组成残差模块的残差结构为6层,中层网络部分的残差结构高达20层,高层网络部分的残差结构为3层.FR-ResNet模型的设计动机描述如下:为防止陷入局部最优解并充分利用原图像所含特征,采用多尺度输入的方法来增加数据输入;为提高更低层结构中的特征利用效率,采用特征重用的方法来避免有效特征的流失;为合理分配不同特征图的比重,采用特征图权重学习的方法来加强网络中有效特征的流动.2.3多尺度输入在目标检测和识别中,图像金字塔是经常使用的结构,即把图像表示为一系列分辨率逐渐降低的图像集合,这是一种多尺度的表达方式,可用于数据图4Fig.4网络结构示意图Diagramofnetworkstructure图3Fig.3FR-ResNet中的残差结构ResidualstructureinFR-ResNet

5期余烨等:基于FR-ResNet的车辆型号精细识别研究1129如图4中最下端数据输入部分所示,多尺度输入需要在网络输入端对图像矩阵进行多尺度降采样.为了与网络中特征图尺寸匹配,降采样后的尺寸分别为112×112像素、56×56像素和28×28像素,将结果分别送到生成同样尺寸特征图的中间层进行通道组合.多尺度特征信息的融合可以提高数据的特征利用率.在训练过程中,使用dropout[29]技术进行随机丢弃,以产生网络局部震荡,促进部分网络参数的更新以防止陷入局部最优解,同时还可以避免网络过拟合.多尺度输入在网络输入前就准备好了多尺度信息,而不是在网络内部生成,因此在网络训练中不需要额外增加参数,维持了网络的原有计算成本.2.4特征重用残差结构的存在允许设计出一个高深度的网络而不用担心其训练的退化问题,然而在训练过程中,由于大多数参数的作用范围很小,且每层检测到的特征直接作为下一层的输入,在更深层的信息流动过程中该特征的影响极小,很多信息会在特征传递过程中丢失,而每一层只能从上一层获得数据,丢失的信息无法补充.不同于普通分类任务,车辆型号识别属于精细分类问题,所需要的特征量更多也更细致.各种型号的车辆,其车辆轮廓、车窗、车灯、车栅格、车门、倒车镜等部件的形状、位置均存在不同.这些不同的特征中既包含宏观的外观信息,也包含细节的纹理信息,还包含空间位置信息.本文使用卷积神经网络模型来实现识别任务,数据信息从网络输入端输入后,每层网络所提取到的特征各不相同.对每层所获得的特征图进行可视化,可以看出,随着数据在网络中的流动,所得到的特征信息愈来愈抽象.我们通过一个例子来直观展现这一现象.图5为车辆图像在深度卷积神经网络不同层次所得特征图的部分可视化结果.输入为三通道RGB图像,图中颜色的深浅描述网络中的神经单元在不同区域的激活程度.从中可以看出,卷积网络在浅层阶段提取的信息更简单,如边缘信息,从图中仍能看出这是一辆车.而在深层特征图中提取到的不再是低层特征,开始包含纹理等多样化的高层特征,且感受野范围也更大.每层均基于上一层的输出进行学习,因此越深层的特征越抽象.但也因为如此,在层层传递的过程中,浅层的一些信息可能会连同无用的背景信息一起被过滤掉.为防止在最终决策中错过最初的有效信息,即避免特征信息的浪费,提出了一种特征重用的方法,对不同层次模块的特征进行不同程度的重用,弥补上层特征的丢失,以达到使最终生成的特征更加全图5Fig.5特征图可视化Visualizationoffeaturemaps

1130自动化学报47卷面的目标.特征重用的主要结构为xn=Concat[Pn(xn?1),Rn(xn?1)](1)其中,xn为第n层的输出,Pn表示重用算法,Pn(xn?1)表示在第n层输出中选取第n?1层前1/P个通道的特征图作为重用特征图,Rn为主体网络的残差运算,Rn(xn?1)表示将第n?1层输入图3所示残差结构后输出.Concat操作将两组特征图在通道上进行合并.如图6所示,假设特征图的大小用N×C×H×W表示,其中,N为batchsize大小,C为通道数,H为特征图高度,W为特征图宽度.若当前结构的输入特征图尺寸为N×C0×H0×W0,生成的特征图大小为N×C1×H1×W1,重用部分的比例为P.特征重用应用于网络中所有的残差结构(如图3所示),即:上一个残差结构的输出中的部分信息会作为特征重用信息,与当前残差结构的输出结合在一起,作为最终输出的特征图组.其中,特征重用参数P的取值选择问题将在第3.5节中详细描述.重用的特征图根据生成特征图的比例进行适当调整,重用特征图为N×(C0×P)×H1×W1.则最终输出特征图为N×(C0×P+C1)×H1×W1.2.5特征图权重学习卷积神经网络的核心是卷积层,卷积核在一组特征图上进行卷积操作生成新的特征图,多个卷积核生成的特征图共同构成卷积层的输出.针对生成的特征图,一般深度学习网络中在进行后续操作时,对每张特征图是同等对待的.然而,实际上每个特征图中所包含的有价值信息不同,对车型识别任务的贡献也各不相同.如图5所示,同一特征图组中每张特征图所包含的有效信息各不相同,有的包含了很重要的有效信息,有的包含的有效信息内容较少,因此尽可能多地保留这些有效信息,加强有效特征信息在网络中的流动很有必要.为实现增强有效特征信息、抑制噪声的目的,本文采用一种特征图权重学习的策略,通过网络学习的方法,为同一层的每个特征图分配新的权重.具体实现如图7所示,将尺寸为C×H×W的特征图组输入一个双通道的降维通道,降维通道的池化层选择策略与对比实验将在第3.6节详细说明.本文中的通道由局部最大值池化与全局平均池化层组成.图6Fig.6特征重用过程Theprocessoffeaturereuse图7Fig.7特征图权重学习Weightlearningbasedonfeaturemaps

5期余烨等:基于FR-ResNet的车辆型号精细识别研究1131其中局部最大值池化是将特征图划分为3×3共9个局部区域,分别进行最大值池化.通道的输出被压缩后排列为一维数据,在对其进行两次全连接操作后,利用Sigmoid函数生成一维权重参数C×1×1,参数深度等于特征图的个数.最后将权重与原特征图矩阵相乘获得新的特征图组.由于高层网络中特征图用于最终分类,其尺寸小且数量多.图7所示的先降维再升维的权重学习方法无法在过小的尺寸上通过局部和全局池化获得更多的有效信息,提升效果不显著.反而会因为特征图数量多,导致全连接参数大大增加,额外增加了计算时间,所以只将该方法应用在低层和中层网络中.特征图权重学习策略使用局部和全局池化来提取各特征图矩阵信息,可以在节省参数个数的同时,有效提取特征图各自的特征以及整个特征图组的空间信息,然后通过学习获得每个特征图的权重,将权重传入下一层的特征图组中,以提高有效特征信息的比重,从而增强有效信息的流动.3实验结果与分析3.1数据集车辆型号精细识别研究所使用的数据集分为两类:监控数据集和网络数据集.监控数据集中的图像主要来源于卡口监控系统,网络数据集中的图像主要来源于网络.由于卡口监控设备的固定性,卡口抓拍图像中的车辆姿态固定,一定程度上降低了其分类的难度.网络数据集中的图像所在场景多变、姿态各异,且分辨率也不固定,因此,基于网络数据集的车型识别更具有挑战性.采用网络数据集中具有代表性的StanfordCars和CompCars网络数据集为实验数据集,开展实验研究(数据集中部分图像如图8所示).Stanford-Cars数据集共含车型196类,总图像数量为16185幅.数据集标签包括车型种类及车辆在图像中的定位信息.CompCars数据集包含监控数据和网络数据两个部分,其网络数据集共记录了431种车型、5种车辆拍摄姿态,总图像为52083幅,包含车辆位置标定以及车部件等细节信息.3.2实验环境与设置实验的硬件环境如下:CPU:IntelCorei7-7700KCPU@4.20GHz×8;内存:16GB;显卡:NvidiaGTX1080Ti;显存:12GB.实验所有模型在Ubuntu16.04环境下基于开源框架CAFFE[30]实现,CUDA版本为9.0.在识别速度、所需硬件条件差别不大的情况下,识别准确率是衡量识别算法性能的重要指标,准确率的计算与对比也很简洁明了.为易于本文实验结果与其他算法结果的比较,使用常用的准确率计算公式,即准确率=正确预测样本数预测样本总数×100%(2)图8数据集中的样本Fig.8SamplesfromdatasetsFR-ResNet的实验准确率基于实验环境进行计算获得,本文实验部分的其他对比实验,其准确率数据来源为:1)优先采用对应论文提供的实验数据;2)经典网络模型采用与FR-ResNet相同的训练设置以及数据预处理方式,通过官方提供的代码复现.网络训练采用224×224像素的数据输入尺寸,以与其他网络原有的输入保持一致.每幅输入图像的预处理操作使用文献[12]中提到的方法,先将图像大小归一化到256×256像素,裁剪4个角外加中心部分获得5幅224×224像素图像,并各自进行镜像操作,共生成10幅训练图像,再从中减去训

1132自动化练集图像均值,即为训练输入数据.在测试时,对图像进行减均值操作时使用训练集均值,对10幅扩展出的图像求平均预测值.网络使用随机梯度下降法(Stochasticgradientdescent,SGD)更新模型权重,初始学习率为0.001,每10万次迭代降低10倍学习率.整个训练过程共迭代35万次.3.3在StanfordCars数据集上的实验基于StanfordCars数据集,使用其提供的所有图像数据用于实验.为了与其他研究成果进行更全面的比较,数据集输入采用原图,即无BBox(boundingbox)和带BBox两种方式.实验结果如表1所示,在使用BBox的情况下,BB-3D-G(3DBubbleBankwhichpoolingbubbleresponsesglobally)为StanfordCars数据集发布时作者实验的结果,作为实验对比的参照,识别准确率为67.6%.在深度学习还未广泛应用时,LLC(Locality-constrainedlinearcoding)[31]在编码方式上使用局部限制线性编码方式,其准确率略有提高,为69.5%.ELLF(Ensembleoflocalizedlearnedfeatures)[32]通过重点学习车辆部件等细节特征,使识别率达到73.9%.VGGNet在多个迁移学习任务表现优秀,应用在车辆型号识别领域也有着一定的效果,在不使用BBox的情况下,识别准确率为75.6%.2015年,ResNet的出现加深了卷积神经网络的层数,ResNet-101就能达到85.8%的准确率,体现了网络深度在车型识别方面的优势.FCANs(Fullyconvolutionalattentionnetworks)[33]依靠在视觉提取以及部件注意机制方面的创新,将识别率提升到89.1%,如果使用BBox准确率还能再提高两个百分点.文献[34]中提出具有集合约束的triplets,获得了92.5%的准确率,表1在StanfordCars数据集上的实验结果比较(%)Table1Comparisonofclassi?cationresultsontheStanfordCarsdataset(%)模型方法准确率(有BBox)准确率(无BBox)BB-3D-G[21]67.6–LLC[31]69.5–ELLF[32]73.9–VGGNet[13]–75.6ResNet85.874.8FCANS[33]91.389.1Wang等[34]92.5–Krause等[35]92.8–FR-ResNet93.190.6学报47卷Krause等在文献[35]中使用BBox,准确率能达到92.8%.我们的网络在使用BBox的情况下能达到93.1%的准确率,即使不使用BBox,准确率也有90.6%,比ResNet使用BBox的识别效果还要好.3.4在CompCars数据集上的实验CompCars数据集包括2类,即卡口监控数据集和网络数据集.卡口监控数据集中的车辆图像共44481幅、281类,其中训练样本31148幅、测试样本1333幅.在此数据集上进行实验,多个经典模型均能获得97%以上的Top-1准确率,其中AlexNet,GoogLeNet和ResNet的Top-1准确率分别为97.8%,98.5%和98.8%,本文提出的FR-ResNet,其Top-1准确率为99.2%.而上述模型的Top-5准确率都能达到99.5%以上.虽然卡口图像分辨率低,但是图像上的车辆姿态固定,因而降低了分类难度,各分类模型的识别准确率都很高.为有效体现本文方法的优势,采用CompCars网络数据集来进行实验的详细分析.CompCars网络数据集提供的车辆图像总数高达143060幅,标注部分为其中的36456幅.以标注的36456幅为训练样本,提取15627幅为测试样本,在此基础上进行实验.为体现FR-ResNet网络在该数据集上的良好表现,使用近些年多个经典的卷积神经网络模型以及其他研究者们的研究成果与本文的网络进行比较,实验结果如表2所示.表2在CompCars数据集上的实验结果比较(%)Table2Comparisonofclassi?cationresultsontheCompCarsdataset(%)模型方法Top-1准确率Top-5准确率Yang等[36]76.791.7AlexNet81.990.4BoxCars[22]84.895.4GoogLeNet[37]91.298.1ResNet92.398.4DenseNet[38]93.198.6Hu等[27]94.398.9FR-ResNet95.399.1CompCars网络数据集中的车辆具有各种不同的姿态,该数据集的发布者针对其所有姿态进行实验,获得了Top-1为76.7%,Top-5为91.7%的实验结果.早年的AlexNet由于自身网络结构的局限性,在精细识别任务上较为乏力,Top-1与Top-5准确率仅为81.9%和90.4%.文献[22]通过建立3D包围盒获取车辆额外3D信息,取得Top-1

5期余烨等:基于FR-ResNet的车辆型号精细识别研究1133为84.8%,Top-5为95.4%的准确率.GoogLeNet凭借其网络深度和宽度,将Top-1提高到91.2%,Top-5提高到98.1%.ResNet效果更好,Top-1为92.3%,Top-5为98.4%.文献[27]采用先定位后识别的方法,Top-1准确率为94.3%,Top-5准确率为98.9%.总体来看,Top-1准确率的提升远大于Top-5,可见准确率的提升更多依靠的是对类间差小的车型的正确识别.而本文提出的FR-ResNet模型仅使用分类标签,Top-1和Top-5的准确率分别达到了95.3%和99.1%,平均每种类别的错误张数不足0.4张.对分类错误的图像进行分析,并总结错误的原因,可能有:1)复杂背景和环境光照影响了车辆的正确识别(如图9(a)所示);2)车辆本身发生变化,如图9(b)所示,奥迪车车门敞开,使车身部分的有效特征发生了变化;3)车辆在原图中占比过小,如图9(c)所示;4)受拍摄角度的影响,如图9(d)所示,车辆图像是自顶向下拍摄的,而在训练集中缺少相同拍摄角度的样本.图9识别错误的样本Fig.9Samplesoferrorrecognition为体现网络在特征提取方面的优势,并验证网络的鲁棒性,减少训练样本的数量,以验证在少量样本情况下网络仍具有很好的性能.按照数据集官方早期提供的标注信息,其中训练样本数量不足目前标注训练样本数量的一半,我们提取了数据集中旧版标注的16016幅为训练样本,14939幅为测试样本,生成少量样本数据集A,在此基础上继续进行实验.本文提出的FR-ResNet在此数据集上的表现,以及与表2中效果较好的几种经典网络结构的对比结果如表3所示.在没有足量训练数据的情况下,各网络的识别准确率均有所降低.GoogLeNet的准确率Top-1只有65.8%,Top-5为87.9%.更深的ResNet仅有78.3%的Top-1的识别准确率,Top-5准确率也只有93.5%,单纯的残差结构效果并不好.DenseNet通过加强信息传递Top-1识别准确率可以上升到90.6%,Top-5准确率也提高了接近5个百分点,说明特征利用率的提升对车辆型号精细识别有效.本文中提出的FR-ResNet更加专注特征信息的有效利用,其准确率得到了更进一步的提升,Top-1识别率达到了92.5%,Top-5识别率达到了98.4%.为了进一步检验网络性能,我们还尝试使用更小数量的训练样本进行实验.在16016幅训练样本的基础上每类再次减少1/3,形成少量样本数据集B.在Top-1识别率上,GooLeNet仅为52.3%,ResNet,DenseNet分别为69.7%和81.5%,而我们的FR-ResNet达到85.2%,识别效果更好.再次减少训练样本数量,取16016幅训练样本的1/2时,训练过程困难,实验结果不佳,每个网络的准确率均不超过60%.造成这种结果的原因是,原数据集每类样本的数量不均匀,当训练数据减半时,多数种类样本不足20幅,过少的训练样本使得深度学习网络无法完成很好的收敛.表3在CompCars少量样本数据集上的实验结果比较(%)Table3Comparisonofclassi?cationresultsonthesmalltrainingsamplesfromCompCarsdataset(%)少量样本集A少量样本集B模型方法Top-1准确率Top-5准确率Top-1准确率Top-5准确率GoogLeNet65.887.952.376.7ResNet78.393.569.782.3DenseNet90.698.081.590.1FR-ResNet92.598.485.293.83.5特征重用比例FR-ResNet在采用特征重用策略提升网络性能的同时,也增大了网络的规模,特征重用的比例P随着网络深度、特征图数量的变化需要有所调整,以获取最佳实验效果.本文使用Ca?e框架中的Slice层来实现通道选择的功能.Slice层的作用是通过设置多个分割点slicepoint来分割输入的特征图,其中参数axis可以设置特征图分割的维度.由于特征图中各通道在初始化阶段等价,故选取需要设置参数最少的前1/P个通道进行重用.本文中设置axis=1,将特征图按通道分割,使用单个分割点,使得分割点左侧的通道数与总通道数比值为1/P,以达到选取1/P个通道的目的.

1134自动化学报47卷根据深度及特征图数量将网络分成4个不同的阶段,依次进行P值的调优实验,当取值跨度较大时,可通过二分法确定选值.第1阶段为低层网络部分,特征图组中的特征图数量为256,分别使用1/64,1/16,1/8的P值比例进行实验,结果如表4所示,故选择1/16作为该阶段P值.第2阶段同为低层网络部分,特征图组中的特征图数量为512,根据实验结果选择1/16作为该阶段P值.第3阶段为中层网络部分,特征图组中的特征图数量为1024,使用1/64,1/16,1/8的P值比例进行实验,实验结果表明P值为1/64与1/16时提升效果相近但重用特征图数量相差较多,故使用二分法选择更优的P值.最终确定该阶段P值为1/32.第4阶段特征图组中的特征图数量为2048,实验选取P值为1/16.高,Top-1和Top-5的识别率分别提升了2.7%和0.6%.由此可见,数据在网络传播中会丢失部分有效特征,且较低层特征在较高层网络中对识别任务仍然具有贡献.特征图权重学习策略位居第二,其Top-1和Top-5识别率分别提升了1.5%和0.3%,说明了增强有效信息流动的可行性.多尺度输入策略对网络影响较小,但识别率仍有一定的提升,说明该方法仍然存在有效性.提升的结果符合该方法预期的反馈效果,即其在数据扩增和避免局部最优方面的作用.3.6特征图权重学习降维通道池化层选择策略FR-ResNet采用特征图权重学习来增强有效信息比重,如果直接用全连接层提取特征图信息,以用于权重学习,将导致参数量剧增,不利于深层网络的训练.添加池化层是常用的降维方法,能在不额外增加参数的同时提取到有效特征.根据所提取特征的不同和池化方法的不同,可以采取全局平均、全局最大值、局部平均、局部最大值4种单独的池化方案,以及其两两组合的方案.基于上述方案分别进行实验,实验结果如表5所示,从中可以看出单独的池化策略中,全局平均池化的效果最好;而在池化的组合方案中,“全局最大值+局部最大值”的提升效果最弱,可能原因是局部最大值已经包含了全局最大值;“全局平均池化+局部最大值池化”效果最好,因此本文选择了这种组合的池化策略.3.7各改进策略的效果分析FR-ResNet以特征的高效利用为目标,分别采用了三种改进策略来完善网络模型,即:多尺度输入、特征重用和特征图权重学习.为了证明这些方法的有效性,使用控制变量的研究方法在CompCars数据集上进行对比实验.实验结果如图10所示,从中不难看出,三种结构均能提高网络识别准确率.其中,特征重用的效果最为明显,其识别率的提升最表4Table4第1阶段图10Fig.10各结构性能比较Comparisonofperformancesofallstructures4结论本文针对车辆型号精细识别问题进行研究,提出了以残差结构为网络主体结构,以特征重用为主要思想的方法,并基于此设计了深度卷积神经网络模型-ResNet采用了多尺度数据输入、低层特征在高层中重用和特征图权重学习三大策略,有效阻止了网络训练的退化以及陷入局部最优解,提高了对网络中有效特征的利用率,减轻了冗余信息的干扰.在CompCars和StanfordCars两大公开数据集上的测试结果表明FR-ResNet在车辆型号精细识别上具有较高的识别精度,高于其他的一些网络模型.此外,FR-ResNet在车辆姿态变化、复杂背景干扰、训练样本减少时,具有一定的鲁棒性.特征重用比例P值对准确率的影响E?ectoffeaturereuseratioPonrecognitionaccuracy第2阶段第3阶段第4阶段P值准确率(%)1/6493.61/1693.7%1/893.41/6493.61/1694.1%1/893.91/6494.31/3294.6%3/6494.21/1694.21/894.01/6494.61/1694.8%1/894.5%

5期余烨等:基于FR-ResNet的车辆型号精细识别研究1135表5权重学习中池化策略的对比(%)Table5Comparisonresultsofpoolingstrategiesinweightlearning(%)池化选择策略Top-1准确率全局平均池化93.3全局最大值池化92.3局部平均池化92.5局部最大值池化92.6全局平均+局部平均93.4全局平均+局部最大值93.6全局最大值+局部平均93.1全局最大值+局部最大值92.6本文中提出的三大改进策略也可以应用于其他精细识别任务,针对类间差小、种类繁多的目标,设计出具有针对性的卷积神经网络模型.References1SuTi,YangMing,WangChun-Xiang,TangWei,?cationandregressiontreebasedtra?tomaticaSinica,2018,44(1):35?43(苏锑,杨明,王春香,唐卫,王冰.一种基于分类回归树的无人车汇流决策方法.自动化学报,2018,44(1):35?43)2SongD,TharmarasaR,KirubarajanT,ansactionsonIntelligentTransportationSystems,2018,19(5):1375?13863YuY,WangJ,LuJT,XieY,elogorecog-nersandElectricalEngineering,2018,71:273?2834HuCP,BaiX,QiL,WangXG,XueGJ,ansactionsonIntelligentTransportationSystems,2015,16(6):3170?31815RussakovskyO,DengJ,SuH,KrauseJ,SatheeshS,MaS,-ternationalJournalofComputerVision,2014,115(3):211?ationalJournalofComputerVision,2004,60(2):91?1107DalalN,:rnia,USA:IEEE,2005.886?8938LuoJian-Hao,yon?-tomaticaSinica,2017,43(8):1306?1318(罗建豪,吴建鑫.基于深度卷积特征的细粒度图像分类研究综述.自动化学报,2017,43(8):1306?1318)9LiuWY,WenYD,YuZD,LiM,RajB,face::Proceedin,HI,USA:IEEE,2017.10MaoJY,XiaoTT,JiangYN,nhelppedestriandetection?In:Proceedi,HI,USA:IEEE,2017.6034?604311TangP,WangXG,HuangZL,BaiX,tchlearningforweaklysupervisedobjectclassi?nRecognition,2017,71:446?45912KrizhevskyA,SutskeverI,etclassi?esinNeuralInformationProcessingSystems,2012,25(2):1097?110513SimonyanK,reprint,2014,arXiv:1409.155614HeKM,ZhangXY,RenSQ,:Proceedias,Nevada,USA:IEEE,2016.770?77815DongZ,WuYW,PeiMT,etypeclassi?ansactionsonIntelligentTransportationSystems,2015,16(4):2247?225616HsiehJW,ChenLC,ricalSURFanditsansactionsonIntelligentTrans-portationSystems,2014,15(1):6?2017LiaoL,HuRM,XiaoJ,WangQ,XiaoJ,t-inge?ectsofpartsin?:PCity,Canada:IEEE,2015.745?74918BiglariM,SoleimaniA,geProcessing,2017,11(7):483?49119HeHS,ShaoZZ,itionofcarmakesandmodelsfromasingletra?ansac-tionsonIntelligentTransportationSystems,2015,16(6):3182?319220LinYL,MorariuVI,HsuW,yoptimizing3Dmodel?ttingand?ne-grainedclassi?:,Switzerland:Springer,Cham,2014.466?48021KrauseJ,StarkM,DengJ,LiFF.3Dobjectrepresenta-tionsfor?:Proceedin,Australia,NSW:IEEE2014.554?56122SochorJ,HeroutA,s:3DboxesasCNNinputforimproved?:Pro-ceedias,Nevada,USA:IEEE,2016.3006?301523GaoYB,s,2016,16(2):226

1136自动化24LeQV,NgiamJ,ChenZ,ChiaDJH,PangWK,esinNeuralInformationProcessingSystems,2010:1279?128725YuSY,WuY,LiW,SongZJ,for?ne-grainedvehicleclassi?-rocomputing,2017,257:97?10326YuYe,JinQiang,FuYun-Xiang,-grainedclassi?tomaticaSinica,2018,44(10):1864?1875(余烨,金强,傅云翔,路强.基于Fg-CarNet的车辆型号精细分类研究.自动化学报,2018,44(10):1864?1875)27HuB,LaiJH,on-aware?om-puting,2017,243(SupplementC):60?6828FangJ,ZhouY,YuY,-grainedvehiclemodelrecognitionusingacoarse-to-?ansactionsonIntelligentTrans-portationSystems,2017,18(7):1782?179229SrivastavaN,HintonG,KrizhevskyA,SutskeverI,t:Asimplewaytopreventneu-ralnetworksfromover?lofMachineLearningResearch,2014,15(1):1929?195830JiaYQ,ShelhamerE,DonahueJ,KarayevS,LongJ,Gir-shickR,?e::,USA:ACM,2014.675?67831WangJJ,YangJC,YuK,LvFJ,HuangTS,ty-constrainedlinearcodingforimageclassi?-:Proceedingsofthe23rdIEEEConferenceonComputerVisionandPatternRecognition,California,USA:IEEE,2010.3360?336732KrauseJ,GebruT,DengJ,LiLJ,ngfea-turesandpartsfor?:Proceedingsofthe22ndInternationalConferenceonPatternRecognition(ICPR).Stockholm,Sweden,2014.26?3333LiuX,XiaT,WangJ,YangY,ZhouF,-grainedrecognitionwithautomaticande?reprint,2016,arXiv,1603.0676534WangYM,ChoiJ,MorariuVI,dis-criminativetripletsofpatchesfor?ne-grainedclassi?:Proceedias,Nevada,USA:IEEE,2016.1163?117235KrauseJ,JinHL,YangJC,:Proceedin,USA:IEEE,2015.5546?555536YangLJ,LuoP,ChenCL,-scalecardatasetfor?ne-grainedcategorizationandveri?:Proceedin,USA:IEEE,2015.3973?398137SzegedyC,LiuW,JiaYQ,SermanetP,ReedS,:Proceedi,USA:IEEE,2015.1?9学报47卷38HuangG,LiuZ,MaatenLVD,:Proceedi,HI,USA:IEEE,2017.2261?2269余烨合肥工业大学计算机与信息学院副教授.2010年获合肥工业大学计算机科学与技术专业博士学位.主要研究方向为图像处理,计算机视觉,虚拟现实与可视化.本文通信作者.E-mail:*************.cn(YUYeAssociateprofessorattheSchoolofComputerScienceandInfor-mation,earchinterestcoversimageprocessing,computervi-sion,pondingauthorofthispaper.)傅云翔合肥工业大学计算机与信息学院硕士研究生.2016年获得合肥工业大学计算机与信息学院学士学位.主要研究方向为图像处理,计算机视觉与深度学习.E-mail:*****************.(FUYun-XiangMasterstudentattheSchoolofComputerScienceandIn-formation,earchinterestcoversimageprocessing,com-putervision,anddeeplearning.)杨昌东合肥工业大学计算机与信息学院硕士研究生.2017年获得黄山学院信息工程学院学士学位.主要研究方向为图像处理,计算机视觉与深度学习.E-mail:********************.(YANGChang-DongMasterstu-dentattheSchoolofComputerSci-enceandInformation,earchinterestcoversimageprocessing,computervision,anddeeplearning.)路强合肥工业大学计算机与信息学院副教授.2010年获合肥工业大学计算机科学与技术专业博士学位.主要研究方向为可视化,协同计算与图像处理.E-mail:****************.cn(LUQiangAssociateprofessorattheSchoolofComputerScienceandIn-formation,earchinterestcoversvisualiza-tion,cooperativecomputing,andimageprocessing.)

更多推荐

特征,网络,车辆