首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到12条相似文献,搜索用时 62 毫秒
1.
针对现有目标检测算法检测茶叶杂质精度低、速度慢的问题,该研究提出了一种基于改进YOLOv5的茶叶杂质检测算法。采用K-Means聚类算法对杂质真实框聚类,以获取适合茶叶杂质特征的锚框尺寸;通过在主干特征提取网络CSPDarkNet中引入前馈卷积注意力机制(Convolutional Block Attention Module,CBAM),将茶叶杂质输入特征图依次经过通道注意力模块和空间注意力模块,获得特征图通道维度和空间维度的关键特征;在颈部网络中添加空间金字塔池化(Spatial Pyramid Pooling,SPP)模块,融合并提取不同感受野的关键特征信息;将普通卷积替换成深度可分离卷积,增大小目标预测特征图的置信度损失权重,构建了轻量化的改进YOLOv5网络结构模型;分别制作了铁观音茶叶中混合有稻谷、瓜子壳、竹片和茶梗4种杂质的数据集并进行茶叶杂质检测试验。结果表明,改进的YOLOv5比常规YOLOv5在茶叶杂质检测中具有更高的置信度分数,且定位更为准确,未出现漏检现象。改进YOLOv5的多类别平均精度(Mean Average Precision,mAP)和每秒传输帧数(Frame Per Second,FPS)达到96.05%和62帧/s,均优于主流的目标检测算法,验证了改进算法的高效性和鲁棒性。该研究成果可为提升茶叶制作过程中小目标杂质检测精度与检测速度奠定基础。  相似文献   

2.
为提高金银花采摘机器人的工作效率和采摘精度,实现将模型方便快速部署到移动端,该研究提出一种基于改进YOLOv5s的轻量化金银花识别方法。用EfficientNet的主干网络替换YOLOv5s的Backbone层,并在改进之后的Backbone层加入原YOLOv5s的SPPF特征融合模块,减少了模型的参数量和计算量,同时降低模型权重的大小,便于之后移动端的部署;其次,为提高模型对于金银花的识别效果,该研究在Neck层中用CARAFE上采样模块替换原始模型中的上采样模块,在略微提高参数量的前提下提高了模型识别金银花的精确度和平均精度,提高了采摘效率。试验结果显示,改进后的轻量化模型参数量仅为3.89 × 106 M,为原始YOLOv5s模型的55.5%;计算量仅为7.8 GFLOPs,为原始模型的49.4%;权重仅为7.8 MB,为原始模型的57.4%,并且精确度和平均精度达到了90.7%和91.8%,相比原始YOLOv5s模型分别提高1.9和0.6个百分点。改进后的轻量化模型与当前主流的Faster-RCNN、SSD、YOLO系列目标检测模型相比,不但提高了检测精度,还大幅减少了模型的参数量、计算量和权重大小,研究结果为后续金银花采摘机器人的识别和移动端的部署提供了参考和依据。  相似文献   

3.
为解决自然环境中苹果叶片病害检测场景复杂、小目标病害检测难度高以及模型参数大无法在移动端和嵌入式设备部署等问题,提出一种基于YOLOv5s的苹果叶片小目标病害轻量化检测方法。该方法将YOLOv5s的骨干网络更改为ShuffleNet v2轻量化网络,引入CBAM(convolutional block attention module)注意力模块使模型关注苹果叶片小目标病害,添加改进RFB-s(receptive field block-s)支路获取多尺度特征,提高苹果叶片病害检测精度,并更改边界框回归损失函数为SIoU(scylla-intersection over union),增强病斑定位能力。试验表明改进后的YOLOv5s模型在IoU大于0.5时的平均精度均值(mean average precision,mAP0.5)和每秒传输帧数(frame per second,FPS)分别达到90.6%和175帧/s,对小目标的平均检测准确率为38.2%,与基准模型YOLOv5s相比,其mAP0.5提升了0.8个百分点,参数量减少了6.17 MB,计算量减少了13.8 G,对小目标的检测准确率提高了3个百分点。改进后的YOLOv5s目标检测模型与Faster R-CNN、SSD、YOLOv5m、YOLOv7、YOLOv8和YOLOv5s目标检测模型相比,具有最小的参数量和计算量,对小目标病害叶斑病和锈病的检测准确率分别提高了1.4、4.1、0.5、5.7、3.5、3.9和1.5、4.3、1.2、2.1、4、2.6个百分点,该方法为真实自然环境下苹果叶片病害尤其是小目标病害的轻量化检测提供参考依据。  相似文献   

4.
针对现有目标检测模型对自然环境下茶叶病害识别易受复杂背景干扰、早期病斑难以检测等问题,该研究提出了YOLOv5-CBM茶叶病害识别模型。YOLOv5-CBM以YOLOv5s模型为基础,在主干特征提取阶段,将一个带有Transformer的C3模块和一个CA(coordinate attention)注意力机制融入特征提取网络中,实现对病害特征的提取。其次,利用加权双向特征金字塔(BiFPN)作为网络的Neck,通过自适应调节每个尺度特征的权重,使网络在获得不同尺寸特征时更好地将其融合,提高识别的准确率。最后,在检测端新增一个小目标检测头,解决了茶叶病害初期病斑较小容易出现漏检的问题。在包含有3种常见茶叶病害的数据集上进行试验,结果表明,YOLOv5-CBM对自然环境下的初期病斑检测效果有明显提高,与原始YOLOv5s模型相比,对早期茶饼病和早期茶轮斑病识别的平均精度分别提高了1.9和0.9个百分点,对不同病害检测的平均精度均值达到了97.3%,检测速度为8ms/幅,均优于其他目标检测算法。该模型具有较高的识别准确率与较强的鲁棒性,可为茶叶病害的智能诊断提供参考。  相似文献   

5.
自然光照下不同时间采集的茶叶图像存在亮度不均的现象。由于高亮度图像对比度差且嫩芽特征显著性弱,造成高亮度图像中存在较多嫩芽的漏检。针对现有茶叶嫩芽图像自动检测方法对光照变化的敏感性,该研究提出一种基于区域亮度自适应校正的茶叶嫩芽检测模型。首先,对不同时间采集的龙井43茶叶图像进行灰度化;然后,计算灰度图的平均灰度(Average Gray,AG)值,对AG值在[170,230]的高亮度图像进行不同尺寸的分块处理和局部区域伽马亮度自适应校正;最后,在相同的训练集和测试集训练多个深度学习检测模型。测试结果表明,基于YOLOv5+CSPDarknet53的检测模型比SSD+VGG16、Faster RCNN+VGG16、YOLOv3+Darknet53和YOLOv4+CSPDarknet53模型具有更优的嫩芽检测性能,精确率和召回率分别为88.2%和82.1%。对YOLOv5检测结果进行检测抑制,有效避免了同一目标被多次框选的冗余现象。[30,90)和[90,170)亮度区间内嫩芽图像具有较强的显著性特征和较高的检测精度与召回率。相较于AG值在[170,230)的高亮度原始图像的检测结果,对高亮度图像进行2×3分块和局部区域亮度自适应校正后,YOLOv5嫩芽检测召回率提高了19.2个百分点。对不同光照条件下采集的茶叶图像进行测试,基于区域亮度自适应校正的茶叶嫩芽YOLOv5检测模型获得了92.4%的检测精度和90.4%的召回率。该模型对光照强度变化具有较强的鲁棒性,研究结果为自然光照条件下茶叶嫩芽机械采摘作业提供参考。  相似文献   

6.
针对目前在水下复杂环境中池塘养殖河蟹与饵料的检测算法存在检测精度低、速度慢等问题,该研究提出了基于改进YOLOv5s(you only look once version 5 small)的河蟹与饵料检测方法。首先,采用轻量化卷积Ghost替换普通卷积,同时利用GhostBottleneck结构替换原主干网络中的残差结构快速提取网络特征,减少模型计算量,满足安卓端的应用要求。其次,为了弥补因网络参数量减少造成网络检测精度稍有降低的问题,借鉴BiFPN(bidirectional feature pyramid network)的思想改进原始YOLOv5s的双向融合骨干网络,以较低的计算成本提高网络对小目标的检测精度。此外,为了帮助网络进一步更好地识别目标,加入了CA(coordinate attention)注意力机制,使得图像中感兴趣的区域能够更准确地被捕获。试验结果表明:该研究改进模型平均精度均值为96.9%,计算量为8.5GFLOPs,与当前主流的单阶段有锚框目标检测算法SSD(single shot multibox detector)和YOLOv3相比,具有更高的检测精度以及更少的计算量。相比于原始YOLOv5s模型,本文改进模型平均精度均值提高了2.2个百分点,计算量和模型内存都降低了40%以上。最后,将改进前后的模型部署到安卓设备上测试。测试结果表明:改进后模型的平均检测速度为148ms/帧,相较于原始模型检测速度提高了20.9%,并且保持了较好的检测效果,平衡了安卓设备对模型检测精度以及速度的性能需求,能够为河蟹养殖投饵量的精准确定提供参考。  相似文献   

7.
在香菇栽培中,需要评估其生长发育状态,以便调控栽培环境和采取适当的栽培措施。针对香菇生育期子实体外观特征变化不显著,机器自动采收时部分成熟期香菇子实体易误检和漏检的问题,该研究提出了一种基于改进YOLOv5的香菇子实体生育期识别方法。首先替换YOLOv5模型中上采样模块,采用一种包含上采样预测模块和特征重组模块的轻量级上采样模块;其次在YOLOv5l模型中添加小目标检测层,增加模型对香菇子实体生育期特征信息的提取,提高模型区分香菇生育期和识别小香菇的能力。试验结果表明,改进的 YOLOv5l 模型具有较好的检测能力,平均帧率为 45.25 帧/s,平均精确度均值为92.70%,与SSD、Faster-RCNN、Mushroom-YOLO和YOLOv5相比平均精确度均值分别提升22.6、28.38、6.8和2.5个百分点。该研究方法能够满足对香菇子实体不同生育期识别的精度与速度要求,为香菇子实体生育期识别提供了一种方法参考。  相似文献   

8.
为实现对苹果果实病害的快速准确识别,提出了一种基于改进YOLOv5s的果实病害识别模型:GHTR2-YOLOv5s (YOLOv5s with Ghost structure and TR2 module),并通过迁移学习策略对其进行优化。在YOLOv5s基础上通过加入幻影结构和调整特征图整体宽度得到小型基线模型,通过卷积块注意力模块(Convolutional Block Attention Module, CBAM)和加权双向特征金字塔网络(Bidirectional Feature Pyramid Network, BIFPN)提高模型精度,使用TR2(Two Transformer)作为检测头增强模型对全局信息的获取能力。改进后模型大小和识别速度为2.06 MB和0.065 s/张,分别为YOLOv5s模型的1/6和2.5倍;IoU阈值为0.5下的平均精度均值(mAP0.5)达到0.909,能快速准确地识别苹果果实病害。研究通过在线图像增强与迁移学习相结合的方式提高模型收敛速度,进一步提高模型精度,其mAP0.5达到0.916,较原始模型提升8.5%。试验结果表明,该研究提出的基于GHTR2-YOLOv5s和迁移学习的苹果病害识别方法有效优化了模型训练过程,实现了占用较少计算资源的情况下对苹果病害进行快速准确地识别。  相似文献   

9.
为解决莲田环境下不同成熟期莲蓬的视觉感知问题,该研究提出了一种改进YOLOv5s的莲蓬成熟期检测方法。首先,通过在主干特征网络中引入BoT(bottleneck transformer)自注意力机制模块,构建融合整体与局部混合特征的映射结构,增强不同成熟期莲蓬的区分度;其次,采用高效交并比损失函数EIoU(efficient IoU)提高了边界框回归定位精度,提升模型的检测精度;再者,采用K-means++聚类算法优化初始锚框尺寸的计算方法,提高网络的收敛速度。试验结果表明,改进后YOLOv5s模型在测试集下的精确率P、召回率R、平均精度均值mAP分别为98.95%、97.00%、98.30%,平均检测时间为6.4ms,模型尺寸为13.4M。与YOLOv3、 YOLOv3-tiny、 YOLOv4-tiny、 YOLOv5s、YOLOv7检测模型对比,平均精度均值mAP分别提升0.2、1.8、1.5、0.5、0.9个百分点。基于建立的模型,该研究搭建了莲蓬成熟期视觉检测试验平台,将改进YOLOv5s模型部署在移动控制器Raspberry Pi 4B中,对4种距离范围下获取的莲蓬场景图像...  相似文献   

10.
为实现花椒簇的快速准确检测,该研究提出了一种基于改进YOLOv5s的花椒簇检测模型。首先,使用MBConv(MobileNetV3 block convolution,MBConv)模块和基于ReLU的轻量级自注意力机制优化了EfficientViT网络,用其代替YOLOv5s的主干,减少模型的参数量、增强模型对重要特征的表达能力。其次,在模型的训练过程中采用了OTA(optimal transport assignment)标签分配策略,优化训练中的标签分配结果。最后,使用WIoU损失函数对原损失函数CIoU进行替换,提高锚框的质量。试验结果表明,改进YOLOv5s模型的平均准确度均值(mean average precision,mAP)为97.3%、参数量为5.9 M、检测速度为131.6帧/s。相较于YOLOv5s模型,mAP提升1.9个百分点、参数量降低15.7%、检测速度提高14.5%。结果表明,该研究提出的改进YOLOv5s模型准确度高、参数量低、检测速度快,可实现对花椒簇的有效检测。  相似文献   

11.
针对实际检测过程中茶叶数量多、体积小、茶叶之间颜色和纹理相似等特点,该研究提出了一种基于YOLOv5s的名优绿茶品质检测算法。首先,该算法在骨干网络层引入膨胀卷积网络,通过增大感受野的方式增强茶叶微小特征的提取。其次,改进特征融合进程,基于通道注意力和空间注意力抑制无关信息的干扰,构建CBAM注意力机制优化检测器。接着根据swin transformer网络结构在多个维度对小尺度茶叶的特征进行交互和融合。最后,配合SimOTA匹配算法动态分配茶叶正样本,提高不同品质茶叶的识别能力。结果表明,改进后的算法精准度、召回率、平均精度均值、模型体积、检测速度分别为97.4%、89.7%、91.9%、7.11MB和51帧/s,相较于基础的YOLOv5s平均精度均值提高了3.8个百分点,检测速度提高了7帧/s。利用相同数据集在不同目标检测模型上进行对比试验,与Faster-RCNN、SSD、YOLOv3、YOLOv4等模型相比,平均精度均值分别提升10.8、22.9、18.6、8.4个百分点,进一步验证了该研究方法的有效性和可靠性。  相似文献   

12.
针对目前日光温室损伤程度的统计方法普遍依靠人工目视导致的检测效率低、耗时长、精确度低等问题,该研究提出了一种基于改进YOLOv5s的日光温室损伤等级遥感影像检测模型。首先,采用轻量级MobileNetV3作为主干特征提取网络,减少模型的参数量;其次,利用轻量级的内容感知重组特征嵌入模块(content aware reassembly feature embedding,CARAFE)更新模型的上采样操作,增强特征信息的表达能力,并引入显式视觉中心块(explicit visual center block,EVCBlock)替换和更新颈部层,进一步提升检测精度;最后将目标边界框的原始回归损失函数替换为EIoU(efficient intersection over union)损失函数,提高模型的检测准确率。试验结果表明,与基准模型相比,改进后模型的参数数量和每秒浮点运算次数分别减少了17.91和15.19个百分点,准确率和平均精度均值分别提升了0.4和0.8个百分点;经过实地调查,该模型的平均识别准确率为84.00%,优于Faster R-CNN、SSD、Centernet、YOLOv3等经典目标检测算法。日光温室损伤等级快速识别方法可以快速检测日光温室的数量、损伤等级等信息,减少设施农业管理中的人力成本,为现代化设施农业的建设、管理和改造升级提供信息支持。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号