给我们留言
91学术服务平台

您好,欢迎来到91学术官网!业务合作:91xueshu@sina.com,站长邮箱:91xszz@sina.com

发布论文

论文咨询

基于注意力机制与YOLOv5融合的树脂拉链缺陷检测算法

  2023-09-12    43  上传者:管理员

摘要:针对传统的树脂拉链缺陷人工检测存在的效率低和劳动强度大等问题,本文将YOLOv5算法与注意力机制(convolutional block attention module, CBAM)相结合,对树脂拉链缺陷检测算法进行研究,给出了算法的结构原理,并对树脂拉链缺陷进行检测试验。采集带有坏齿、边缘、内部、挤出、开裂和污染的树脂拉链图像,建立数据集并据此标注。同时,利用数据集对YOLOv5网络模型进行训练,并选择900张树脂拉链缺陷图像进行测试。测试结果表明,不同树脂拉链缺陷的检测准确率不同,模型对坏牙、边缘、内部、挤压、开裂和污染6种树脂拉链缺陷的识别率分别达到99%,100%,100%,100%,100%和99%,检测目标的置信度范围为0.82~0.99,检测准确率较高,效果较好,证明模型测试的精确率达到100%,召回率达到100%,平均准确率达到98%,证明了本文方法的可行性和有效性。本文算法可实现对常见树脂拉链缺陷的检测、分类及定位。该研究对提升树脂拉链制造行业的生产效率具有一定的成效。

  • 关键词:
  • YOLOv5
  • 树脂拉链
  • 注意力机制
  • 深度学习
  • 缺陷检测
  • 加入收藏

树脂拉链缺陷的自动检测在工业自动化生产线的产品质量检测中具有重要作用,但由于树脂拉链缺陷的形状和大小各不相同,传统的对树脂拉链缺陷的检测,主要通过人工方式进行,依赖于检测人员的经验,主观性强[1],识别标准不统一,检测效率低,劳动强度大,并且由于视觉疲劳及个人情绪等无法避免的客观实际,对检测结果影响较大,不能保证检测的准确率和效率。目前,对树脂拉链缺陷检测方法的研究较少,而与之联系最密切的研究主要是对纺织物瑕疵的检测。HU G H等人[2]提出一种基于深度卷积生成对抗网络(deep convolution generative adversarial networks, DCGAN)自动检测织物缺陷的新型无监督方法,该检测方法的准确率较高;MEI S等人[3]提出了一种基于多尺度卷积去噪自编码器网络无监督且高效的织物缺陷检测模型,只需要将少量无缺陷的样本进行训练,即可达到较高的纺织物缺陷检测率;张丽瑶等人[4]采用单发多盒探测器(single shot multibox detector, SSD)网络对4种织物瑕疵目标进行检测与分类,平均准确率达到80%;徐昀等人[5]基于YOLOv4目标检测算法,对复杂光照下的织物疵点目标进行检测,检测准确率达95%;WANG Y等人[6]针对瑕疵点目标小及形状不规则等问题,采用改进的YOLOv5目标检测算法,对织物疵点进行检测与定位,检测平均准确率达到70%以上;王恩芝等人[7]采用改进的YOLOv5算法,对织物表面缺陷进行检测,准确率高达98.8%。由此可以看出,深度学习在织物的瑕疵检测方面具有检测准确率高、检测速度快的优势,而且通过对上述实验进行对比可知,YOLOv5算法的检测准确率以及检测速度均优于SSD和YOLOv4等算法。基于此,本文将YOLOv5算法用在对树脂拉链缺陷的检测中,又因树脂拉链周围纺织物缺陷较难识别,因此在YOLOv5算法中引入CBAM模块。同时,采集带有坏齿、边缘、内部、挤压、分裂以及污染的树脂拉链图像,建立数据集并进行标注,而对数据量不足影响模型性能及图像类别不均衡导致过拟合的问题,采用Imgaug算法对数据集进行增强,并通过实验对模型进行评价和测试。结果表明,本文算法对树脂拉链缺陷检测的准确率和效率都较高,证明了本文方法的可行性和有效性。该研究提升了树脂拉链制造行业的生产效率。


1、算法结构原理


1.1 YOLOv5网格结构

YOLOv5主要由输入端(Input),主干网络(Backbone),颈网络(Neck),预测器(Prediction)4部分组成[8],YOLOv5模型网络结构如图1所示

1)输入端。

选择固定尺寸的图片,训练时,需要对输入图片进行数据处理,处理过程采用Mosaic方法,将4张图片进行翻转和缩放等方式进行处理,处理后进行拼接,对神经网络的鲁棒性起到重要作用。此外,采用自适应计算最佳锚框值和自适应图片缩放方法,对图片进行处理。

2)主干网络。

主干网络包含Focus网络和跨阶段局部网络(cross stage partial networks, CSP)。Focus网络通过对输入进行切片及卷积操作,增强对图像特征的提取;CSP网络是由一系列卷积和残差网络构成。

3)颈网络。

颈网络采用特征金字塔网络(feature pyramid network, FPN)+路径聚合网络( path aggregation network, FPN)结构,处于主干网络和预测期之间,主要是进一步处理主干网络的特征,提高应用的合理性。

4)预测器。

预测器是由损失函数(GIOU_Loss)和非极大值抑制(non-maximum suppression, NMS)组成,解决了目标框和预测框不重合的问题,增强了对遮挡目标的检测。

1.2注意力机制

注意力在人类感知中起着重要作用[9,10,11]。在人类视觉系统中,尽管一次性获取的场景量巨大,但人类会选择性的进行处理,该处理方式使想要的场景部分更加突出,以便更好地捕捉视觉结构[12]。CBAM是由通道注意力模块(channel attention module, CAM)与空间注意力模块(spatial attention module, SAM)组合而成,CBAM原理图如图2所示。

通道注意力模块通过主动的网络学习,获得每个特征通道的重要程度,再给予其不用的权重系数,从而加强重要的特征,抑制不重要的特征。SAM通过将图片原始信息转换到另一空间,且在这个过程中保留关键信息,并为每个位置生成的权重掩膜加权输出,从而使图像感兴趣区域得到增强,无关区域被弱化。

1.3评价指标

目标检测需要对图片进行分类和检测[13],并采用平均精度均值(mean average precision, mAP),对检测效果进行综合评估。在目标检测过程中,模型将对图像计算输出的预测框按照判断结果,可分成TP、FP、FN、TN四个类别,然后计算评价指标[14]。

真阳性(true positive, TP)表示预测框将目标分为正样本,且实际为正样本数量;假阳性(false positive, FP)表示预测框将目标分为正样本,但实际为负样本数量;假阴性(false negative, FN)表示预测框将目标分类为负样本,但实际为正样本数量;真阴性(true negative, TN)表示预测框将目标分为负样本,且实际为负样本数量。根据上述4类样本的分布情况,可以得到模型的各种评价指标。数据集中,第i个样本为Ii,第j个类别目标为Cj的精确度(precision),表示预测框检测到该类别目标中,确实包含了目标Cj的比例,即该图像中,包含目标Cj预测正确的框的数量与所有预测包含j类目标预测框的比值,即

Pcj(Ii)=TP/TP+FP (1)

召回率(recall)反映了图像中包含类别目标Cj分类正确的预测框数量与该类别目标真实标签框数量的比值,即

Rcj(Ii)=TP/TP+FN (2)

漏检率(missed inspection)反映了实际包含目标类别Cj,但预测框中未检测到的数量与该类目标真实标签框的数量的比值,与召回率呈相反的变化趋势,即

Mcj(Ii)=FN/TP+FN=1-R(Ii) (3)

误检率(false inspection)反映了预测框中分类为包含目标类别Cj,但该分类错误的数量与模型输出预测框中包含目标类别Cj的数量比值,即

Fcj(Ii)=FP/TP+FP=1-Pcj(Ii) (4)

平均精确率(average precision, AP),当验证集包含M张图像时,AP值即为这些图像中目标类别Cj的精确率平均值,即

APcj=∑i=1MPcj(Ii)/MAΡcj=∑i=1ΜΡcj(Ιi)/Μ (5)

在进行实际测试过程中,以置信度对满足某一类目标的IOU阈值条件的预测框进行排序,置信度的变化会引起精确率P和召回率R的变化,其中精确率P和置信度成反比,召回率R和置信度成正比。以横轴为召回率R,纵轴为精确率P进行曲线绘制,可以直观呈现三者的变化趋势。

绘制P-R曲线后,便能计算AP值(即为P-R曲线下的面积),一般采用插值法,设置1组阈值[0,0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,1],分别令召回率R取该组阈值的每一个值,可得该阈值最大精确率,并对所有的精确率取平均值,则为该类的 AP 值,即

APcj=111∑R∈{0,0.1,0.2,⋯,}maxP(R)AΡcj=111∑R∈{0,0.1,0.2,⋯,}maxΡ(R) (6)

为评判模型对不同种类目标的检测结果,采用评价指标mAP,该指标表示验证集中所有目标类别的平均精确率的均值,即

mAP=∑j=1NcAPcj/M∑j=1ΝcAΡcj/Μ (7)

其中,Nc为验证集中目标类别的数量,即共有Nc个类别。mAP是深度学习中评价模型性能的重要指标, 对模型调整其有重要的参考意义。


2、树脂拉链缺陷检测实验


2.1数据集准备

本文使用的数据集来自公开数据集[15]和自主采集,其包含不同款式的树脂拉链缺陷的特征,包括坏齿、边缘、内部、挤压、分裂及污染6类,树脂拉链缺陷数据集图片如图3所示。数据集共有486张图片,其中坏齿43张,边缘41张,内部40张,挤压40张,分裂42张,污染41张,正常类别246张。

直接使用采集的图像数据无法训练模型,还需将每个图像的种类和识别区域进行标签化,本文使用Labelimg标注工具进行标注。在模型训练中,如果训练使用的数据集图片数量不足,就会影响模型性能[16]。由于本文采集的数据集图片数量有限,图像类别不均衡,会使训练出的模型存在偏向性和较差的泛化能力,容易产生过拟合现象。为解决这些问题,需要对数据集中的图像进行数据增强[17],目前,在模型训练中常用的数据增强方法主要有调整图像色彩、尺寸变化、随机剪裁、几何变换、添加噪声、条件生成对抗网络(Conditional GANs)[18,19]等。本文使用Python的图像增强工具Imgaug进行数据增强,它通过不同的策略改变图片,达到数据增强的目的[20],经过数据增强,原数据集扩充到2 706张图像。数据增强算法流程如图4所示。图像增强的参数设置如表1所示。2.2模型训练与评价

对于YOLOv5深度学习模型,选择PyTorch作为深度学习框架,工作机系统环境为Win10专业版。增强后的数据集分为训练集和验证集,其中训练集占90%,验证集占10%。模型训练迭代运行次数为300次,训练图片的分辨率为640×640,每次送入网络的图片数量为16张。训练过程中各项指标变化情况如图5所示。

由图5可以看出,该模型达到了收敛的状态,精度和召回率达到了100%,各个损失函数均值维持在很低的水平。当训练集损失函数减小时,验证集损失函数没有增加,模型没有过拟合,并且精度和召回率平稳无较大波动,训练效果较好。

当300次迭代后,该模型达到收敛状态。在模型训练过程中,其准确率和召回率稳定提升。当模型达到饱和后,其准确率(Precision)、召回率(Recall)和平均精度均值(mAP_0.5)均达到100%;调和均值(mAP_0.5∶0.95)保持在98%左右,整体训练达到预期效果。

2.3实验结果与分析

本研究选择900张树脂拉链缺陷图像进行测试,其中每种树脂拉链缺陷数量均为150,检测后,部分识别结果如图6所示。

树脂拉链缺陷检测算法包括对目标的识别,分类及定位,树脂拉链缺陷识别结果如表2所示。由表2可以看出,不同树脂拉链缺陷的检测准确率不同,边缘、内部、挤压、分裂缺陷达到完全识别,150个污染中有1处未识别,未识别的对象为单个齿极小范围断裂和黑色纺线上微小尺寸油污这一特征不明显对象。6种树脂拉链缺陷的识别率分别为99%,100%,100%,100%,100%,99%。表中的置信度,代表当前识别出的区域是否有对象,若有对象时,则预测对象和真实对象的匹配度,该值是评价检测效果好坏的一个重要指标,置信度数值越大,证明检测效果越好,表中检测目标的置信度范围为0.82~0.99,检测效果较好。综上可知,该模型对熨烫目标的检测效果满足实验要求。作为对比,选择百度飞桨的Easy DL平台的目标检测模块对树脂拉链缺陷进行深度学习。数据集与YOLOv5的数据集一致,训练方式、算法、环境等均选择该模块的默认配置方式,暨公有云部署、常规训练、超高精度通用算法。Easy DL平台将使用模型数据中70%的图片进行训练,30%的图片用于测试模型的有效性,训练时间大约需要2个小时。mAP是Easy DL培训平台中衡量模型效果的指标。对于目标检测任务,每一类检测目标都可以计算出精确率和召回率,在不同阈值下多次计算或试验,每一类都可得到一条P-R曲线,曲线下的面积就是AP值。mAP值越接近于1,模型效果越好。精确率为正确识别的物体数与识别物体总数之比,召回率为正确识别的物体数与真实物体数之比。该模型训练后,mAP值达到98.5%,精确率为98.8%,召回率为98.1%。将上述900张测试集图片放入该模型中进行测试,Easy DL平台树脂拉链缺陷识别结果如表3所示。

由表3可以看出,不同树脂拉链缺陷的检测精度不同。150个边缘、挤压和分裂缺陷被完全识别,150个污染中的3个、150个内部和150个坏齿中的3个未被识别。6种树脂拉链缺陷的识别率分别为98%,100%,98%,100%,100%,98%。由此可知,YOLOv5算法对6种树脂拉链缺陷检测的准确率、召回率和检测效率均优于Easy DL平台算法。


3、结束语


本文将注意力机制与YOLOv5算法融合,构建了常见树脂拉链缺陷的检测、分类及定位的检测系统。经实验检测,能够准确的识别本文样本中的树脂拉链常见的6种缺陷,对于提升树脂拉链制造行业的生产效率有一定的成效。算法对于树脂拉链的污染识别率仍需进一步提高,可从提高镜头分辨率、增强光照等硬件方面提高识别率,也可进一步改进检测算法,从而提高树脂拉链污染缺陷的识别率,这也是以后的研究方向。


参考文献:

[1] 梁磊.基于深度学习的树脂拉链表面缺陷检测技术研究[D].深圳:深圳大学,2021.

[2] 张丽瑶,王志鹏,徐功平.基于SSD的织物瑕疵检测的研究[J].电子设计工程,2020,28(6):40-44.

[3] 徐昀.基于深度学习的光照不均匀织物图像缺陷检测算法研究[D].武汉:湖北工业大学,2021.

[4] 孙越.基于视频的铁路专用线非电气化区段列车定位系统方案设计[D].北京:北京交通大学,2021.

[5] 王恩芝,张团善,刘亚.基于改进Yolov5的织物缺陷检测方法[J].轻工机械,2022,40(2):54-60.

[6] 黄佩璠.基于深度学习的布匹瑕疵检测识别的研究和应用[D].南昌:南昌大学,2021.


文章来源:孙传珠,李斌,符朝兴.基于注意力机制与YOLOv5融合的树脂拉链缺陷检测算法研究[J].青岛大学学报(工程技术版),2023,38(03):23-29.

分享:

91学术论文范文

相关论文

推荐期刊

网友评论

我要评论

郑州轻工业学院学报(社会科学版)

期刊名称:郑州轻工业学院学报(社会科学版)

期刊人气:375

期刊详情

主管单位:河南省教育厅

主办单位:郑州轻工业学院

出版地方:河南

专业分类:教育

国际刊号:1009-3729

国内刊号:41-1312/C

邮发代号:36-200

创刊时间:2000年

发行周期:双月刊

期刊开本:大16开

见刊时间:4-6个月

论文导航

查看更多

相关期刊

热门论文

【91学术】(www.91xueshu.com)属于综合性学术交流平台,信息来自源互联网共享,如有版权协议请告知删除,ICP备案:冀ICP备19018493号

400-069-1609

微信咨询

返回顶部

发布论文

上传文件

发布论文

上传文件

发布论文

您的论文已提交,我们会尽快联系您,请耐心等待!

知 道 了

登录

点击换一张
点击换一张
已经有账号?立即登录
已经有账号?立即登录

找回密码

找回密码

你的密码已发送到您的邮箱,请查看!

确 定