首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 296 毫秒
1.
随着海参养殖业快速发展,利用水下机器人代替人工作业的海参智能捕捞已成为发展趋势。浅海环境复杂,海参体色与环境区分性差、海参呈现半遮蔽状态等原因,导致目标识别准确率低下。此外由于景深运动,远端海参作为小目标常常未被识别成功。为解决上述问题,该研究提出一种基于改进SSD网络的海参目标检测算法。首先通过RFB(Receptive Field Block)模块扩大浅层特征感受野,利用膨胀卷积对特征图进行下采样,增加海参细节、位置等信息,并结合注意力机制,对不同深度特征进行强化,将计算得出的权重与原特征信息相乘以此获得特征图,使结果包含最具代表性的特征,也抑制无关特征。最后实现特征图融合,进一步提升水下海参的识别精度。以实际拍摄的视频进行测试验证,在网络结构层面上,对传统算法进行改进。试验结果表明,基于改进的SSD网络的海参目标检测算法的平均精度均值为95.63%,检测帧速为10.70帧/s,相较于传统的SSD算法,在平均精度均值提高3.85个百分点的同时检测帧速仅减少2.8帧/s。与Faster R-CNN算法和YOLOv4算法进行对比试验,该研究算法在平均精度均值指标上,分别比YOLOv4、Faster R-CNN算法提高4.19个百分点、1.74个百分点。在检测速度方面,该研究算法较YOLOv4、Faster R-CNN算法分别低4.6帧/s、高3.95帧/s,试验结果表明,综合考虑准确率与运行速度,改进后的SSD算法较适合进行海参智能捕捞任务。研究结果为海参智能捕捞提供参考。  相似文献   

2.
基于改进YOLOv5s的名优绿茶品质检测   总被引:1,自引:1,他引:0  
针对实际检测过程中茶叶数量多、体积小、茶叶之间颜色和纹理相似等特点,该研究提出了一种基于YOLOv5s的名优绿茶品质检测算法。首先,该算法在骨干网络层引入膨胀卷积网络,通过增大感受野的方式增强茶叶微小特征的提取。其次,改进特征融合进程,基于通道注意力和空间注意力抑制无关信息的干扰,构建CBAM注意力机制优化检测器。接着根据Swin transformer网络结构在多个维度对小尺度茶叶的特征进行交互和融合。最后,配合SimOTA匹配算法动态分配茶叶正样本,提高不同品质茶叶的识别能力。结果表明,改进后的算法精准度、召回率、平均精度均值、模型体积、检测速度分别为97.4%、89.7%、91.9%、7.11MB和51帧/s,相较于基础的YOLOv5s平均精度均值提高了3.8个百分点,检测速度提高了7帧/s。利用相同数据集在不同目标检测模型上进行对比试验,与Faster-RCNN、SSD、YOLOv3、YOLOv4等模型相比,平均精度均值分别提升10.8、22.9、18.6、8.4个百分点,进一步验证了该研究方法的有效性和可靠性。  相似文献   

3.
为解决光线遮蔽、藻萍干扰以及稻叶尖形状相似等复杂环境导致稻田杂草识别效果不理想问题,该研究提出一种基于组合深度学习的杂草识别方法。引入MSRCP(Multi-Scale Retinex with Color Preservation)对图像进行增强,以提高图像亮度及对比度;加入ViT分类网络去除干扰背景,以提高模型在复杂环境下对小目标杂草的识别性能。在YOLOv7模型中主干特征提取网络替换为GhostNet网络,并引入CA注意力机制,以增强主干特征提取网络对杂草特征提取能力及简化模型参数计算量。消融试验表明:改进后的YOLOv7模型平均精度均值为88.2 %,较原YOLOv7模型提高了3.3个百分点,参数量减少10.43 M,计算量减少66.54×109次/s,有效提高模型速度与精度。识别前先经过MSRCP图像增强后,改进YOLOv7模型的平均精度均值提高了2.6个百分点,模型对光线遮蔽、藻萍干扰以及稻叶尖形状相似的复杂环境下平均精度均值分别提高5.3、3.6、3.1个百分点;再加入ViT分类网络后,模型平均精度均值进一步提高,较原模型平均精度均值整体提升了4.4个百分点,在复杂环境下的平均精度均值较原模型整体提升了6.2、6.1、5.7个百分点。ViT-改进YOLOv7模型的平均精度均值为92.6 %,相比于YOLOv5s、YOLOXs、MobilenetV3-YOLOv7、YOLOv8和改进YOLOv7分别提高了11.6、10.1、5.0、4.2、4.4个百分点。研究结果可为稻田复杂环境的杂草精准识别提供支撑。  相似文献   

4.
为提高橙果采摘定位精度和作业速度,提出一种便于迁移至移动终端的改进YOLOv4模型,可从RealSense深度相机所成彩色图像中获取果实质心二维坐标,经配准提取对应深度图中质心点深度值,实现果实的三维空间定位。改进YOLOv4模型以MobileNet v2为主干网络,在颈部结构中使用深度可分离卷积替换普通卷积,实现模型轻量化并提高检测速度。训练后的改进模型对513张独立橙果测试集数据的识别平均精度达97.24%,与原始YOLOv4模型相比,平均检测时间减少11.39 ms,模型大小减少197.5 M。与经典Faster RCNN、SSD模型相比,检测平均精度分别提高了2.85和3.30个百分点,模型大小分别减少了474.5和44.1 M。与轻量化模型YOLOv4-tiny相比,召回率提升了4.79个百分点,较Ghostnet-YOLOv4,检测速度提升了27.64个百分点。为验证该改进算法实用性,应用改进模型获取果园中78个橙果的位置信息,结果表明:果实二维识别成功率达98.72%,水平方向及垂直方向的平均绝对百分比误差均在1%以内。果实三维定位成功率达96.15%,深度信息平均绝对百分比误差为2.72%,满足采摘机械手精准定位需求。该方法为复杂场景下采摘作业实现提供了鲁棒性强、实时性好、精准度高的目标定位途径。  相似文献   

5.
为提高诱虫板图像蔬菜害虫检测精度,针对背景区域容易导致误检的问题基于显著图分析技术构建了一种注意力深度网络害虫智能视觉检测方法。首先通过显著图筛选出粗候选区域;然后在粗候选区域内用全卷积神经网络精选出细候选区域;接着用神经网络分类器识别细候选区域害虫种类,得到含有冗余的若干检测框;最后用改进的非极大值抑制消除冗余检测框,实现诱虫板图像中目标害虫的检测。针对小菜蛾和瓜实蝇展开试验,获得86.4%的平均精度均值和0.111只的平均绝对计数误差均值,所提方法平均精度均值比Faster R-CNN和YOLOv4分别高2.74和1.56个百分点,平均绝对计数误差均值比Faster R-CNN和YOLOv4分别低0.006和0.003只;同时,消融试验中移除显著图注意力模块后平均精度均值下降了4个百分点、平均绝对计数误差均值增加了0.207只。试验结果表明,所提方法有效提高了诱虫板图像蔬菜害虫检测精度,其中,引入显著图注意力模块对提升检测精度有重要作用。  相似文献   

6.
为解决自然环境中苹果叶片病害检测场景复杂、小目标病害检测难度高以及模型参数大无法在移动端和嵌入式设备部署等问题,提出一种基于YOLOv5s的苹果叶片小目标病害轻量化检测方法。该方法将YOLOv5s的骨干网络更改为ShuffleNet v2轻量化网络,引入CBAM(convolutional block attention module)注意力模块使模型关注苹果叶片小目标病害,添加改进RFB-s(receptive field block-s)支路获取多尺度特征,提高苹果叶片病害检测精度,并更改边界框回归损失函数为SIoU(scylla-intersection over union),增强病斑定位能力。试验表明改进后的YOLOv5s模型在IoU大于0.5时的平均精度均值(mean average precision,mAP0.5)和每秒传输帧数(frame per second,FPS)分别达到90.6%和175帧/s,对小目标的平均检测准确率为38.2%,与基准模型YOLOv5s相比,其mAP0.5提升了0.8个百分点,参数量减少了6.17 MB,计算量减少了13.8 G,对小目标的检测准确率提高了3个百分点。改进后的YOLOv5s目标检测模型与Faster R-CNN、SSD、YOLOv5m、YOLOv7、YOLOv8和YOLOv5s目标检测模型相比,具有最小的参数量和计算量,对小目标病害叶斑病和锈病的检测准确率分别提高了1.4、4.1、0.5、5.7、3.5、3.9和1.5、4.3、1.2、2.1、4、2.6个百分点,该方法为真实自然环境下苹果叶片病害尤其是小目标病害的轻量化检测提供参考依据。  相似文献   

7.
针对目前三七检测算法在复杂田间收获工况下检测精度低、模型复杂度大、移动端部署难等问题,该研究提出一种基于YOLOv5s的轻量化三七目标检测方法。首先,采用GSConv卷积方法替换原始颈部网络的传统卷积,引入Slim-neck轻量级颈部网络,降低了模型复杂度,同时提升了模型精度;其次,使用ShuffleNetv2轻量型特征提取网络对主干网络进行轻量化改进,提升了模型实时检测性能,并采用角度惩罚度量的损失(SIoU)优化边界框损失函数,提升了轻量化后的模型精度和泛化能力。试验结果表明,改进后的PN-YOLOv5s模型参数量、计算量、模型大小分别为原YOLOv5s模型的46.65%、34.18%和48.75%,检测速度提升了1.2倍,F1值较原始模型提升了0.22个百分点,平均精度均值达到了94.20%,较原始模型低0.6个百分点,与SSD、Faster R-CNN、YOLOv4-tiny、YOLOv7-tiny和YOLOv8s模型相比能够更好地平衡检测精度与速度,检测效果更好。台架试验测试结果表明,4种输送分离作业工况下三七目标检测的准确率达90%以上,F1值达86%以上,平均精度均值达87%以上,最低检测速度为105帧/s,实际收获工况下模型的检测性能良好,可为后续三七收获作业质量实时监测与精准分级输送提供技术支撑。  相似文献   

8.
为解决新梅在树干树叶遮挡、果实重叠情况下难以准确检测的问题,该研究建立了新梅目标检测模型SFF-YOLOv5s。在真实果园环境下构建新梅数据集,以YOLOv5s模型作为基础网络,首先在Backbone骨干网络C3模块中引入CA(coordinate attention)注意力机制以增强模型对新梅关键特征信息的提取能力并减少模型的参数量;其次在Neck层中引入加权双向特征金字塔网络,增强模型不同特征层之间的融合能力,从而提高模型的平均精度均值;最后使用SIoU损失函数替换原模型中的CIoU损失函数提高模型的检测准确率。试验结果表明,SSF-YOLOv5s模型对新梅检测准确率为93.4%,召回率为92.9%,平均精度均值为97.7%,模型权重仅为13.6MB,单幅图像平均检测时间12.1ms,与Faster R-CNN、YOLOv3、YOLOv4、YOLOv5s、YOLOv7、YOLOv8s检测模型相比平均精度均值分别提升了3.6、6.8、13.1、0.6、0.4、0.5个百分点,能够满足果园复杂环境下对新梅进行实时检测的需求,为后续新梅采摘机器人的视觉感知环节提供了技术支持。  相似文献   

9.
基于区域亮度自适应校正的茶叶嫩芽检测模型   总被引:2,自引:2,他引:0  
自然光照下不同时间采集的茶叶图像存在亮度不均的现象。由于高亮度图像对比度差且嫩芽特征显著性弱,造成高亮度图像中存在较多嫩芽的漏检。针对现有茶叶嫩芽图像自动检测方法对光照变化的敏感性,该研究提出一种基于区域亮度自适应校正的茶叶嫩芽检测模型。首先,对不同时间采集的龙井43茶叶图像进行灰度化;然后,计算灰度图的平均灰度(Average Gray,AG)值,对AG值在[170,230]的高亮度图像进行不同尺寸的分块处理和局部区域伽马亮度自适应校正;最后,在相同的训练集和测试集训练多个深度学习检测模型。测试结果表明,基于YOLOv5+CSPDarknet53的检测模型比SSD+VGG16、Faster RCNN+VGG16、YOLOv3+Darknet53和YOLOv4+CSPDarknet53模型具有更优的嫩芽检测性能,精确率和召回率分别为88.2%和82.1%。对YOLOv5检测结果进行检测抑制,有效避免了同一目标被多次框选的冗余现象。[30,90)和[90,170)亮度区间内嫩芽图像具有较强的显著性特征和较高的检测精度与召回率。相较于AG值在[170,230)的高亮度原始图像的检测结果,对高亮度图像进行2×3分块和局部区域亮度自适应校正后,YOLOv5嫩芽检测召回率提高了19.2个百分点。对不同光照条件下采集的茶叶图像进行测试,基于区域亮度自适应校正的茶叶嫩芽YOLOv5检测模型获得了92.4%的检测精度和90.4%的召回率。该模型对光照强度变化具有较强的鲁棒性,研究结果为自然光照条件下茶叶嫩芽机械采摘作业提供参考。  相似文献   

10.
为解决传统小肠绒毛需要专业人员手动检测耗时耗力且存在主观性和不稳定性等问题,同时提高在复杂病理学图像中小肠绒毛检测的准确率和效率,该研究提出基于改进YOLOv5s检测复杂病理学图像下猪只小肠绒毛的方法。首先,采用串联形式的混合池化对空间金字塔进行优化,增强特征提取与特征表达,提升检测精度;然后引入一种基于注意力机制的网络模块(simpleattentionmechanism,SimAM)与Bottleneck中的残差连接相结合,使用SimAM对Bottleneck中的特征图进行加权,得到加权后的特征表示,利用注意力机制加强模型对目标的感知。试验结果表明,该研究算法的平均精度(average precision)和每秒传输帧数(frame per second,FPS)达到92.43%和40帧/s。改进后的YOLOv5s在召回率和平均精度上相较改进前提高2.49和4.62个百分点,在不增加模型参数量的情况下,每帧图片的推理时间缩短1.04 ms。与经典的目标检测算法SSD、Faster R-CNN、YOLOv6s、YOLOX相比,平均精度分别提高15.16、10.56、2.03和4.07...  相似文献   

11.
小白菜是中国种植面积较广、深受大众喜爱的蔬菜,但真实菜地环境中虫害往往出现在叶片的特定区域,且受环境因素如光照和背景干扰较大,影响对其的智能检测。为提高小白菜虫害的检测效率和准确率,该研究提出一种基于YOLOv5s网络框架改进的YOLOPC小白菜虫害识别模型。首先,引入CBAM(Convolutional Block Attention Module)注意力机制,将其放在CBS(卷积层Convolution+归一化层Batch normalization+激活函数层SILU)的输入端构成CBAM-CBS的结构,动态调整特征图中各个通道和空间位置的权重;使用上采样和1×1卷积操作来调整特征图的尺寸和通道数,实现不同层次特征的融合,增强模型的特征表示能力。同时,改进损失函数,使其更适合边界框回归的准确性需求;利用空洞卷积的优势提高网络的感受野范围,使模型能够更好地理解图像的上下文信息。试验结果表明,与改进前的YOLOv5s模型相比,YOLOPC模型对小白菜小菜蛾和潜叶蝇虫害检测的平均精度(mean Average Precision, mAP)达到91.40%,提高了12.9个百分点;每秒传输帧数(Frame Per Second, FPS)为58.82帧/s,增加了11.2帧/s,增加幅度达23.53个百分点;参数量仅为14.4 MB,降低了25.78个百分点。与经典的目标检测算法SSD、Faster R-CNN、YOLOv3、YOLOv7和YOLOv8相比,YOLOPC模型的平均精度分别高出20.1、24.6、14、13.4和13.3个百分点,此外,其准确率、召回率、帧速率和参数量均展现出显著优势。该模型可为复杂背景下小白菜虫害的快速准确检测提供技术支持。  相似文献   

12.
现有的目标检测算法检测茶叶嫩芽的精度较低,为提高茶叶嫩芽的检测精度,该研究提出一种基于改进YOLOv5s网络模型的茶叶嫩芽检测算法。该算法将骨干特征提取网络中的空间金字塔池化结构(spatial pyramid pooling-fast,SPPF)替换为空洞空间卷积池化金字塔结构(atrous spatial pyramid pooling,ASPP),增强模型对不同分辨率下目标的识别能力;针对茶叶嫩芽的小目标特征,在颈部网络中引入可加权重的双向特征金字塔网络(bidirectional feature pyramid network,BiFPN),提高特征融合的效率,同时在颈部网络中的每个集中综合卷积模块(concentrated-comprehensive convolution block,C3)后添加卷积注意力模块(convolutional block attention module,CBAM)来提高模型关注小目标特征的能力。试验结果表明,改进后获得的Tea-YOLOv5s比原模型的准确率(precision,P)、召回率(recall,R)和平均精度值(mean average precision,mAP)分别高出4.4、0.5和4个百分点,且模型鲁棒性强,在多个场景下茶叶嫩芽的检测中具有更高的置信度分数。改进后的模型可为茶叶的产量估计和茶叶采摘机器人的嫩芽识别奠定基础。  相似文献   

13.
为解决自然环境中番茄叶片病虫害检测场景复杂、检测精度较低,计算复杂度高等问题,提出一种SLP-YOLOv7-tiny的深度学习算法。首先,将主干特征提取网络中部分3×3的卷积Conv2D(2D convolution)改为分布偏移卷积DSConv2D(2D Depthwise Separable Convolution),以减少网络的计算量,并且使计算速度更快,占用内存更少;其次,将无参数注意力机制(parameter-free attention module, SimAM)融合到骨干特征提取网络中,加强模型对病虫害特征的有效提取能力和特征整合能力;最后,将原始YOLOv7-tiny的CIOU损失函数,更替为Focal-EIOU损失函数,加快模型收敛并降低损失值。试验结果表明,SLP-YOLOv7-tiny模型整体识别精准度、召回率、平均精度均值mAP0.5(IOU阈值为0.5时的平均精度)、mAP0.5~0.95(IOU阈值从0.5到0.95之间的所有值进行平均计算的平均精度)分别为95.9%、94.6%、98.0%、91.4%,与改进前YOLOv7-tiny相比,分别提升14.7、29.2、20.2、30个百分点,同时,计算量降低了62.6%,检测速度提升了13.2%。与YOLOv5n、YOLOv5s、YOLOv5m、YOLOv7、YOLOv7-tiny、Faster-RCNN、SSD目标检测模型相比,mAP0.5分别提升了2.0、1.6、2.0、2.2、20.2、6.1和5.3个百分点,而计算量大小仅为YOLOv5s、YOLOv5m、YOLOv7、Faster-RCNN、SSD的31.5%、10.6%、4.9%、4.3%、3.8%。结果表明SLP-YOLOv7-tiny可以准确快速地实现番茄叶片病虫害的检测,且模型较小,可为番茄叶片病虫害的快速精准检测的发展提供一定的技术支持。  相似文献   

14.
快速精准识别棚内草莓的改进YOLOv4-Tiny模型   总被引:5,自引:5,他引:0  
为了实现棚内草莓果实的快速精准识别,该研究提出一种基于改进YOLOv4-Tiny的草莓检测模型。首先,为了大幅度减少模型计算量,采用轻量型网络GhostNet作为特征提取网络,并在GhostBottleneck结构中嵌入卷积注意力模块以加强网络的特征提取能力;其次,在颈部网络中添加空间金字塔池化模块和特征金字塔网络结构,融合多尺度特征提升小目标草莓的检测效果;最后,采用高效交并比损失作为边界框回归损失函数,加速网络收敛并提高模型的检测准确率。结果表明,改进YOLOv4-Tiny模型权重大小仅为4.68 MB,平均每幅图片的检测时间为5.63 ms,在测试集上的平均精度均值达到92.62%,相较于原YOLOv4-Tiny模型提升了5.77个百分点。与主流的目标检测模型SSD、CenterNet、YOLOv3、YOLOv4和YOLOv5s相比,改进YOLOv4-Tiny模型平均精度均值分别高出9.11、4.80、2.26、1.22、1.91个百分点,并且模型权重大小和检测速度方面均具有绝对优势,该研究可为后续果实智能化采摘提供技术支撑。  相似文献   

15.
果实表型数据高通量、自动获取是果树新品种育种研究的基础,实现幼果精准检测是获取生长数据的关键。幼果期果实微小且与叶片颜色相近,检测难度大。为了实现自然环境下苹果幼果的高效检测,采用融合挤压激发块(Squeeze-and-Excitation block, SE block)和非局部块(Non-Local block, NL block)两种视觉注意机制,提出了一种改进的YOLOv4网络模型(YOLOv4-SENL)。YOLOv4模型的骨干网络提取高级视觉特征后,利用SE block在通道维度整合高级特征,实现通道信息的加强。在模型改进路径聚合网络(Path Aggregation Network, PAN)的3个路径中加入NL block,结合非局部信息与局部信息增强特征。SE block和NL block两种视觉注意机制从通道和非局部两个方面重新整合高级特征,强调特征中的通道信息和长程依赖,提高网络对背景与果实的特征捕捉能力。最后由不同尺寸的特征图实现不同大小幼果的坐标和类别计算。经过1 920幅训练集图像训练,网络在600幅测试集上的平均精度为96.9%,分别比SSD、Faster R-CNN和YOLOv4模型的平均精度提高了6.9百分点、1.5百分点和0.2百分点,表明该算法可准确地实现幼果期苹果目标检测。模型在480幅验证集的消融试验结果表明,仅保留YOLOv4-SENL中的SE block比YOLOv4模型精度提高了3.8百分点;仅保留YOLOv4-SENL中3个NL block视觉注意模块比YOLOv4模型的精度提高了2.7百分点;将YOLOv4-SENL中SE block与NL blocks相换,比YOLOv4模型的精度提高了4.1百分点,表明两种视觉注意机制可在增加少量参数的基础上显著提升网络对苹果幼果的感知能力。该研究结果可为果树育种研究获取果实信息提供参考。  相似文献   

16.
针对名优茶智能采摘中茶叶嫩梢识别精度不足的问题,该研究对YOLOv8n模型进行优化。首先,在主干网络中引入动态蛇形卷积(dynamic snake convolution,DSConv),增强模型对茶叶嫩梢形状信息的捕捉能力;其次,将颈部的路径聚合网络(path aggregation network,PANet)替换为加权双向特征金字塔网络(bi-directional feature pyramid network,BiFPN),强化模型的特征融合效能;最后,在颈部网络的每个C2F模块后增设了无参注意力模块(simple attention module,SimAM),提升模型对茶叶嫩梢的识别关注度。试验结果表明,改进后的模型比原始模型的精确率(precision,P)、召回率(recall,R)、平均精确率均值(mean average precision,mAP)、F1得分(F1 score,F1)分别提升了4.2、2.9、3.7和3.3个百分点,推理速度为42 帧/s,模型大小为6.7 MB,满足低算力移动设备的部署条件。与Faster-RCNN、YOLOv5n、YOLOv7n和YOLOv8n目标检测算法相比,该研究提出的改进模型精确率分别高出57.4、4.4、4.7和4.2个百分点,召回率分别高出53.0、3.6、2.8和2.9个百分点,平均精确率均值分别高出58.9、5.0、4.6和3.7个百分点,F1得分分别高出了56.8、3.9、3.7和3.3个百分点,在茶叶嫩梢检测任务中展现出了更高的精确度和更低的漏检率,能够为名优茶的智能采摘提供算法参考。  相似文献   

17.
棉田虫害的快速检测与准确识别是预防棉田虫害、提高棉花品质的重要前提。针对真实棉田环境下昆虫相似度高、背景干扰严重的问题,提出一种ECSF-YOLOv7棉田虫害检测模型。首先,采用EfficientFormerV2作为特征提取网络,以加强网络的特征提取能力并减少模型参数量;同时,将卷积注意力模块(convolution block attention module,CBAM)嵌入到模型的主干输出端,以增强模型对小目标的特征提取能力并削弱背景干扰;其次,使用GSConv卷积搭建Slim-Neck颈部网络结构,在减少模型参数量的同时保持模型的识别精度;最后,采用Focal-EIOU(focal and efficient IOU loss,Focal-EIOU)作为边界框回归损失函数,加速网络收敛并提高模型的检测准确率。结果表明,改进的ECSF-YOLOv7模型在棉田虫害测试集上的平均精度均值(mean average precision,mAP)为95.71%,检测速度为69.47帧/s。与主流的目标检测模型YOLOv7、SSD、YOLOv5l和YOLOX-m相比,ECSF-YOLOv7模型的mAP分别高出1.43、9.08、1.94、1.52个百分点,并且改进模型具有参数量更小、检测速度更快的优势,可为棉田虫害快速准确检测提供技术支持。  相似文献   

18.
基于改进YOLOv5的茶叶杂质检测算法   总被引:1,自引:1,他引:0  
针对现有目标检测算法检测茶叶杂质精度低、速度慢的问题,该研究提出了一种基于改进YOLOv5的茶叶杂质检测算法。采用K-Means聚类算法对杂质真实框聚类,以获取适合茶叶杂质特征的锚框尺寸;通过在主干特征提取网络CSPDarkNet中引入前馈卷积注意力机制(Convolutional Block Attention Module,CBAM),将茶叶杂质输入特征图依次经过通道注意力模块和空间注意力模块,获得特征图通道维度和空间维度的关键特征;在颈部网络中添加空间金字塔池化(Spatial Pyramid Pooling,SPP)模块,融合并提取不同感受野的关键特征信息;将普通卷积替换成深度可分离卷积,增大小目标预测特征图的置信度损失权重,构建了轻量化的改进YOLOv5网络结构模型;分别制作了铁观音茶叶中混合有稻谷、瓜子壳、竹片和茶梗4种杂质的数据集并进行茶叶杂质检测试验。结果表明,改进的YOLOv5比常规YOLOv5在茶叶杂质检测中具有更高的置信度分数,且定位更为准确,未出现漏检现象。改进YOLOv5的多类别平均精度(Mean Average Precision,mAP)和每秒传输帧数(Frame Per Second,FPS)达到96.05%和62帧/s,均优于主流的目标检测算法,验证了改进算法的高效性和鲁棒性。该研究成果可为提升茶叶制作过程中小目标杂质检测精度与检测速度奠定基础。  相似文献   

19.
基于改进YOLOv4-Tiny的蓝莓成熟度识别方法   总被引:3,自引:2,他引:1  
为实现自然环境下蓝莓果实成熟度的精确快速识别,该研究对YOLOv4-Tiny网络结构进行改进,提出一种含有注意力模块的目标检测网络(I-YOLOv4-Tiny)。该检测网络采用CSPDarknet53-Tiny网络模型作为主干网络,将卷积注意力模块(Convolution Block Attention Module,CBAM)加入到YOLOv4-Tiny网络结构的特征金字塔(Feature Pyramid Network,FPN)中,通过对每个通道的特征进行权重分配来学习不同通道间特征的相关性,加强网络结构深层信息的传递,从而降低复杂背景对目标识别的干扰,且该检测网络的网络层数较少,占用内存低,以此提升蓝莓果实检测的精度与速度。对该研究识别方法进行性能评估与对比试验的结果表明,经过训练的I-YOLOv4-Tiny目标检测网络在验证集下的平均精度达到97.30%,能有效地利用自然环境中的彩色图像识别蓝莓果实并检测果实成熟度。对比YOLOv4-Tiny、YOLOv4、SSD-MobileNet、Faster R-CNN目标检测网络,该研究在遮挡与光照不均等复杂场景中,平均精度能达到96.24%。平均检测时间为5.723 ms,可以同时满足蓝莓果实识别精度与速度的需求。I-YOLOv4-Tiny网络结构占用内存仅为24.20 M,为采摘机器人与早期产量预估提供快速精准的目标识别指导。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号