首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
针对自然环境下橙子检测存在枝叶遮挡、相邻果实重叠等情况而导致检测效果差的问题,提出一种改进的YOLO v5方法。首先,在主干网络部分使用RepVGG(re-param VGG)模块替换原始C3模块,加强网络对特征信息的提取能力;其次,在颈部网络使用鬼影混洗卷积(ghost-shuffle convolution)代替原有的标准卷积,能够在保证精度的前提下,降低模型参数量;再次,在预测头前加入ECA(efficient channel attention)注意力模块,能够更加准确定位目标信息;最后,引入EIOU(efficient intersection over union)损失函数加速预测框的收敛,提高其回归精度。改进的YOLO v5网络在自然环境下的橙子检测中平均精度达到90.1%,相比于目前热门的检测网络CenterNet、YOLO v3和YOLO v4其在识别效果方面有一定的提升。可见,所提出的改进网络在橙子检测上更有优势,能为今后智能采摘机器人的研发提供理论支撑和技术参考。  相似文献   

2.
针对水稻害虫识别过程中存在的检测难度大、模型精度低、计算量大等问题,以稻纵卷叶螟等14类水稻害虫为研究对象,改进了YOLO v5检测算法,引入高效通道注意力机制(efficient channel attention, ECA)与EIoU(efficient-IoU)损失函数,并结合Ghost卷积,提出了一种基于改进的YOLO v5水稻害虫识别方法:(1)通过引入ECA注意力机制实现对水稻害虫识别过程中重要信息的处理,采用跨通道信息交互,保证模型性能和降低复杂度;(2)引入EIoU损失函数代替CIoU(complete-IoU)损失函数,从而降低原有CIoU损失函数存在的回归精度问题;(3)利用Ghost卷积替换CBS模块及C3模块中的标准卷积,实现模型轻量化处理。结果表明,改进后的模型较原始YOLO v5模型精度略微提升,参数量减少,模型体积降低至7.38 MB,较原模型减少了46%,与YOLO v7、Faster-RCNN模型相比,mAP比YOLO v7高1.49百分点,比Faster-RCNN高12.89百分点,且本研究模型体积最小,检测速度满足实时性要求,使水稻害虫检测识别能够...  相似文献   

3.
番茄检测模型的检测速度和识别精度会直接影响到番茄采摘机器人的采摘效率,因此,为实现复杂温室环境下对番茄精准实时的检测与识别,为采摘机器人视觉系统研究提供重要的参考价值,提出一种以YOLO v5s模型为基础,使用改进的MobileNet v3结构替换主干网络,平衡模型速度和精度。同时,在颈部网络引入Ghost轻量化模块和CBAM注意力机制,在保证模型检测精度的同时提高模型的检测速度。通过扩大网络的输入尺寸,并设置不同尺度的检测网络来提高对远距离小目标番茄的识别精度。采用SIoU损失函数来提高模型训练的收敛速度。最终,改进YOLO v5s模型检测番茄的精度为94.4%、召回率为92.5%、均值平均精度为96.6%、模型大小为7.1 MB、参数量为3.69 M、浮点运算(FLOPs)为6.0 G,改进的模型很好地平衡了模型检测速度和模型识别精度,能够快速准确地检测和识别复杂温室环境下的番茄,且对远距离小目标番茄等复杂场景都能实现准确检测与识别,该轻量化模型未来能够应用到嵌入式设备,对复杂环境下的温室番茄实现实时准确的检测与识别。  相似文献   

4.
为评估日光温室蓝莓开花窗口期内授粉蜜蜂投放量的合理性,基于机器视觉对蓝莓的蜜蜂授粉次数进行统计。针对检测环境复杂、目标尺度小、易被遮挡等问题,对数据集进行改进泊松融合数据增强处理;并优化设计YOLOv5模型结构,通过引入GAM注意力机制和Transformer模块,增强模型特征提取能力,特征金字塔网络采用BiFPN结构及CARAFE模块补充上下文信息;使用EIoU损失函数和Soft NMS边界框筛选算法,提高边界框的定位精度,解决目标遮挡漏检问题。结果显示,改进后网络的平均精度均值达到96.6%,较原网络提高3.5个百分点,在GPU上对单张蓝莓授粉图像的平均检测时间为11.4 ms。研究结果表明,本研究建立的模型的识别准确度、检测速度及鲁棒性能满足对蓝莓的蜜蜂授粉次数的实时监测。  相似文献   

5.
针对工业施工场所背景复杂导致安全帽检测精度低及漏检等问题,提出一种融合注意力机制的安全帽检测算法。该算法在YOLOv5s网络模型的基础上,在主干网络中加入坐标注意力模块,使得网络可以有效关注目标信息的特征,提升远距离目标的检测能力。在网络训练过程中优化损失函数,将原有的CIoU损失函数更换为EIoU损失函数,优化了目标边界框回归的收敛速度,可以生成定位更精准的边界框,提高了模型检测精度。实验结果表明,改进后的算法平均精度达到94.5%,相较于原始模型提高了1.9个百分点,相较于YOLOv3算法提高了12.3个百分点。提出的算法有效地改善了原算法中安全帽漏检、误检的情况,同时提高了检测精度。  相似文献   

6.
针对现有番茄叶片病害识别存在背景复杂、识别准确率低、模型参数量大、计算量大以及难以部署至移动设备或嵌入式设备等问题,提出一种改进的轻量化YOLO v5n的番茄叶片病害识别方法。首先收集细菌性斑疹病、早疫病、晚疫病、叶霉病、斑枯病、褐斑病等6种常见番茄叶片病害图像以及番茄健康叶片图像,对图像进行镜像翻转、高斯模糊等数据增强方式增加样本多样性,提升模型识别和泛化能力。接着在YOLO v5n网络基础上,选择采用轻量化的C3Ghost模块替换C3模块以压缩卷积过程中的计算量、模型权重和大小,同时在颈部网络中融合轻量级卷积技术GSConv和VOV-GSCSP模块,在增强特征提取能力的同时降低模型参数量。最后引入PAGCP算法对改进后的模型进行全局通道剪枝压缩参数量并减少训练开销。试验结果表明,改进后的YOLO v5n平均精度均值达到99.0%,参数量减少66.67%,计算量降低了2.6 G,模型权重压缩了2.23 MB。本研究提出的番茄叶片病害识别方法在降低了模型大小、参数量、计算量的同时仍保持较高的识别精度,为移动设备上实现番茄叶片病害识别提供技术参考。  相似文献   

7.
针对自然环境中,人工目视解译苹果叶部病害耗时耗力、人为主观因素强的问题。本研究提出了一种融合自注意力机制和Transformer模块的目标检测算法——BCE-YOLOv5,实现对自然环境下对苹果叶片病虫害的自动识别与检测。该算法首先使用BotNet、ConvNeXt模块分别替换Backbone网络和Neck网络的CSP结构,增加自注意力机制对目标的特征提取能力。通过将改进的CBAM引入YOLOv5的特征融合网络之后,使注意力机制对特征融合信息更加地关注。最后,用α-IoU损失函数替换IoU损失函数,使得网络在模型训练过程中收敛的更加稳定。BCE-YOLOv5算法在传统算法YOLOv5基础上平均精准率均值提升了2.9百分点,并且改进后的算法的模型大小和计算量较传统算法分别减小了0.2 M和0.9 GFLOPs。平均精度均值比YOLOv4s、YOLOv6s、YOLOx-s和YOLOv7模型分别高2.5、1.3、3.5、2.2百分点。该方法能快速准确识别苹果叶部病害,为苹果种植过程中提供智能化管理做参考。  相似文献   

8.
针对现有检测模型不能满足在自然环境中准确识别多种类柑橘病虫害的问题,提出一种基于改进YOLOv5s模型的常见柑橘病虫害检测方法。改进模型引入ConvNeXtV2模型,构建一个CXV2模块替换YOLOv5s的C3模块,增强提取特征的多样性;添加了动态检测头DYHEAD,提高模型对不同空间尺度、不同任务目标的处理能力;采用CARAFE上采样模块,提高特征提取效率。结果显示,改进后的YOLOv5s-CDC的召回率和平均精度均值分别为81.6%、87.3%,比原模型分别提高了4.9、3.4百分点。与其他YOLO系列模型在多个场景下的检测对比,具有更高的准确率和较强的鲁棒性。结果表明,该方法可用于自然复杂环境下的柑橘病虫害的检测。  相似文献   

9.
为快速准确识别自然环境下的番茄叶片病害,提出一种基于改进YOLOv4算法的轻量化番茄叶部病害识别方法。该方法根据番茄病害特征采用K均值聚类算法调整先验框的维度,并使用宽度因子为0.25的MobileNetv1代替YOLOv4原有的主干网络CSPDarknet53进行特征提取,并在特征融合网络PANet中引入深度可分离卷积代替原有的3×3标准卷积,同时在主干网络的2个输出特征层和空间金字塔池化输出层分别嵌入卷积块注意力模块(CBAM),提高模型识别精度。试验结果表明,改进后的模型对8类番茄叶片整体检测精准性(mAP)为98.76%,参数量为12.64 M,传输帧数为1 s 101.76帧,相较于原YOLOv4模型,模型参数量减少80%,每秒传输帧数比原始YOLOv4模型提高了130%。  相似文献   

10.
针对现有目标检测算法对自然环境下核桃识别存在漏检、误检等问题,提出了一种基于Swin Transformer多层特征融合改进的YOLOX-S核桃识别算法。首先,在主干特征提取网络中引入基于Swin Transformer的多层特征融合模块,借助Swin Transformer的多头注意力机制对小目标的特征信息进行提取并与特征图进行融合,可以有效解决因网络层数加深导致的高层特征图中小目标特征信息丢失问题;其次,为了提高算法的检测精度,引入更高效的Repblock模块对原网络中的CSP模块进行替换;最后,为了提高下采样效果,使用更为优秀的Transition Block模块作为主干特征提取网络的下采样模块。结果表明,改进后的YOLOX-S模型在采集的自然环境下核桃数据集上平均精度AP50达到96.72%,分别比Faster-RCNN、YOLOv5-S、YOLOX-S算法提高7.36、1.38、0.62百分点,检测速度达到46 f/s,模型参数大小为20.55 M。改进后的YOLOX-S算法具有更好的精度,改善了漏检和误检问题,对自然环境下的核桃有更好的识别效果。  相似文献   

11.
为了解决电动车驾乘人员头盔佩戴检测问题,提出了一种基于改进YOLOv5s模型的电动车头盔佩戴检测方法.该方法以YOLOv5s模型为基础,首先使用GhostBottleneck模块替换YOLOv5s中的卷积模块以减少参数量;其次设计了 GhostCSP-Bottleneck来优化特征提取结构;最后在主干网络增加注意力机制...  相似文献   

12.
为实现冬枣园机械化自动化采摘以及冬枣树精准化管理,针对自然场景下冬枣果实的快速、准确分类识别问题,提出一种基于YOLO v4模型改进的冬枣果实分类识别模型CC-YOLO v4。利用改进的CSP跨阶段部分连接结构和多尺度特征融合的CBAM卷积注意力模块,减小网络规模的同时增强特征提取能力,改善果实分类识别的误检和遮挡目标的漏检情况;采用Softmax交叉熵损失函数代替Sigmoid二元交叉熵损失函数作为分类损失函数,引入EIoU损失函数代替CIoU损失函数作为边界框回归损失,进一步改善果实分类识别的误检并提升预测框精度。试验结果表明,CC-YOLO v4模型对3类冬枣果实的查准率P均值为81.86%,平均检测精度均值mAP为82.46%,IoU均值为81.35%,模型参数量和大小分别为26.9 M和108 MB,检测速度可达28.8 F/s。与其他模型相比,本模型具有更好的分类识别能力、识别速度和较小的模型复杂度。在不同果实数量情况下进一步试验,本研究方法具有良好的精度和鲁棒性,对解决自然场景下冬枣果实的精准分类识别问题具有重要参考价值。  相似文献   

13.
[目的]肉鹅姿态是预警肉鹅异常行为、评判肉鹅健康状态的重要指标,针对传统养殖场人工观察肉鹅姿态耗时费力且有很大主观性等问题,提出了一种基于深度学习模型自动识别肉鹅姿态的检测算法。[方法]利用YOLO v5模型对扬州鹅4种姿态(站立、休憩、饮水和梳羽)进行识别;对YOLO v5模型加入SENet、CBAM、ECA三种注意力模块改进网络结构,提高模型的识别能力;设计明暗试验和密集场景试验进一步验证模型在复杂场景下的鲁棒性。[结果]YOLO v5+ECA模型的平均检测精度(mAP)为88.93%,相比YOLO v5提升了2.27%。在识别精度(AP)上,站立姿态为91.85%,休憩姿态为93.42%,饮水姿态为90.02%,梳羽姿态为80.42%。在明暗试验和密集场景试验中,YOLO v5+ECA模型性能表现稳定,漏检现象和误检现象相对较少。[结论]该模型可以实现养殖场复杂场景下肉鹅姿态准确快速检测,为后续肉鹅行为监控和健康防疫提供数据支撑。  相似文献   

14.
针对现有番茄检测精度低、没有品质检测和部署难度高等问题,提出基于YOLOv5s改进的番茄及品质实时检测方法,并与原始YOLOv5模型及其他经典模型进行对比研究。结果表明,针对番茄大小不同的问题,采用K-Means++算法重新计算先验锚框提高模型定位精度;在YOLOv5s主干网络末端添加GAM注意力模块,提升模型检测精度并改善鲁棒性;应用加权双向特征金字塔网络(BiFPN)修改原有结构,完成更深层次的加权特征融合;颈部添加转换器(transformer),增强网络对多尺度目标的检测能力。改进后的YOLOv5s番茄识别算法检测速度达到72帧/s。在测试集中对番茄检测均值平均精度(mAP)达到93.9%,分别比SSD、Faster-RCNN、YOLOv4-Tiny、原始YOLOv5s模型提高17.2、13.1、5.5、3.3百分点。本研究提出的番茄实时检测方法,在保持检测速度的同时,可降低背景因素干扰,实现复杂场景下对番茄的精准识别,具有非常好的应用前景,为实现番茄自动采摘提供相应技术支持。  相似文献   

15.
为实现密集条件下芝麻蒴果的准确检测,提出基于YOLOX模型的芝麻蒴果检测定位方法(CE-YOLOX模型)。该模型以CSPDarknet-53作为主干特征提取网络,在路径聚合网络PANet中增加104×104大尺度特征层,增强对目标细粒度特征信息的获取;通过引入注意力机制模块获取目标重要的轮廓特征和空间位置信息;将传统的NMS替换为更有利于重叠目标检测的Soft-NMS算法来降低漏检情况。结果表明,在IoU阈值为0.5时,CE-YOLOX模型在全部测试集上的调和均值(F1)、召回率、平均精度分别为0.99、98.65%、99.71%,与原模型YOLOX相比,该模型分别提升了0.05、6.27个百分点、3.28个百分点。通过蒴果计数试验,CE-YOLOX模型计数准确率为96.84%,比YOLOX模型提高了5.28个百分点。改进后的模型CE-YOLOX适用于密集条件下芝麻蒴果检测。  相似文献   

16.
[目的]针对广佛手在田间真实环境下病虫害识别较为困难的问题,提出一种基于改进SSD(single shot MultiBox detector)算法——SSD-Res50-3C的广佛手病虫害检测方法。[方法]SSD-Res50-3C算法主干网络部分用ResNet50网络替换原有的VGG16网络,增加模型在田间真实环境下对广佛手病虫害特征的提取能力;在预测特征层之前加入一种轻量高效的特征融合模块提升SSD算法的多尺度特征融合能力,进一步提高SSD算法在田间真实环境下的抗干扰能力。[结果]SSD-Res50-3C算法平均精度均值达到92.86%,相较原始的SSD算法提升6.61%,FPS(frames per second)达到64.1。相比YOLO v3、YOLO v4、YOLO v5x6、Faster R-CNN和EfficientDet-D3模型,SSD-Res50-3C算法的平均精度均值分别高6.41%、2.01%、0.79%、0.58%和5.10%,FPS分别高16.20、40.280、24.40、36.20和54.84。[结论]基于改进SSD算法的广佛手病虫害检测方法能够弱化田...  相似文献   

17.
针对复杂环境下目前现有的玉米病虫害检测方法的精度不理想、模型复杂、难以在移动端部署等问题,本研究提出了基于轻量化改进型YOLOv5s的玉米病虫害检测方法。首先,采用轻量级网络GhostNet替换原始YOLOv5s模型中特征提取网络和特征融合网络的卷积层,降低模型的计算量和参数量,提高运行速度,以满足移动端的部署要求;其次,为弥补GhostNet所带来的检测精度下降缺陷,在模型的主干特征提取网络中引入注意力机制,更加全面地评估特征权值,以增强玉米病虫害的特征,减弱无关信息的干扰,提升检测性能;最后,将模型的损失函数由CIOU替换为EIOU,以增强模型对目标的精确定位能力,从而提升模型的收敛速度和回归精度。试验结果表明,改进模型相比原始YOLOv5s模型在对供试玉米病虫害检测中,P、R和mAP分别提高了1.9个百分点、2.2个百分点和2.0个百分点,分别达到了94.6%、80.2%和88.8%;在保持较高检测精度的同时,模型的计算量、参数量和模型大小分别减少了50.6%、52.9%和50.4%,解决了检测模型在移动端的部署问题。  相似文献   

18.
针对YOLO v5检测模型存在的漏检率和误检率问题,改进目标检测技术,提升苹果叶部病害早期发现及定位的准确性和速度,从而减少经济损失。先采用加权双向特征金字塔网络(BiFPN)特征融合方法,有效改善PANet对多尺度特征融合的不良影响,并引入Transformer机制,有效改进原始网络结构,使其专注于有用的信息,并增强特征融合效果。再使用ATCSP模块和自上而下的特征融合方法,增强模型对多尺度疾病的检测效果,并将强大的语义信息传达至模型底层,进一步提高检测精度。使用数据集由实验室采集的苹果树叶样本构成,包含3 331张标记图像的矩形位置来标记病害。由于图像亮度分布不均匀,采用直方图均衡化和改进的直方图均衡化处理,使图像对比度得到增强,大幅降低后续图像特征提取的计算量。在训练和测试过程中,还对原始病害图像进行旋转、随机亮度增强、随机色度增强、随机对比度增强和锐化等数据增强操作。结果表明,改进的YOLO v5检测算法可以显著提高苹果叶部病害检测的精度,对比原始算法,平均精度mAP@0.5提高20.8%。改进YOLO v5苹果叶部病害检测算法能够及时发现和定位苹果叶部病害,进而为深度学习技术...  相似文献   

19.
为实现在自然环境下对柑橘果实的识别,提出一种基于YOLOv5改进模型的柑橘识别方法。通过引入CBAM(convolutional block attention module,卷积注意力模块)注意力机制模块来提高网络的特征提取能力,改善遮挡目标与小目标的漏检问题;采用α-IoU损失函数代替GIoU损失函数作为边界框回归损失函数,提高边界框定位精度。结果显示:本研究提出的模型平均精度AP值达到91.3%,在GPU上对单张柑橘果实图像的检测时间为16.7 ms,模型占用内存为14.5 Mb。结果表明,本研究基于YOLOv5的改进算法可实现在自然环境下快速准确地识别柑橘果实,满足实时目标检测的实际应用需求。  相似文献   

20.
为实现自然环境下不同成熟度火龙果在不同光照、不同遮挡场景下的精确快速识别,提出了一种基于对YOLOv5的网络模型改进的一种检测模型(PITAYA-YOLOv5)。首先,使用k-means++算法重新生成火龙果数据集的锚框,提高了网络的特征提取能力;其次,将CSPDarkNet替换成PPLCNet作为骨干网络,并加入SE注意力模块(Squeeze-and-Excitation block),在降低网络参数量的同时保持检测精度;同时加入加权双向特征金字塔网络(Bi-FPN)替换YOLOv5的特征融合网络,提高网络对不同尺度特征图的融合效率;引入αDIoU损失函数,提高了模型的收敛效果。试验结果表明:PITAYA-YOLOv5目标检测模型的平均精度均值为94.90%,较原模型提高1.33个百分点,F1值为91.37%,较原模型提高1.12个百分点,平均检测速度达到20.2 ms,占用内存仅有8.1 M。针对枝条遮挡和果间遮挡下的火龙果检测能力明显增强。对比Faster R-CNN、CenterNet、YOLOv3、YOLOv5以及轻量化骨干网络ShuffleNetv2,该模型具有良好的检测精...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号