首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 250 毫秒
1.
为实现田间环境下对玉米苗和杂草的高精度实时检测,本文提出一种融合带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration, MSRCR)增强算法的改进YOLOv4-tiny模型。首先,针对田间环境的图像特点采用MSRCR算法进行图像特征增强预处理,提高图像的对比度和细节质量;然后使用Mosaic在线数据增强方式,丰富目标检测背景,提高训练效率和小目标的检测精度;最后对YOLOv4-tiny模型使用K-means++聚类算法进行先验框聚类分析和通道剪枝处理。改进和简化后的模型总参数量降低了45.3%,模型占用内存减少了45.8%,平均精度均值(Mean average precision, mAP)提高了2.5个百分点,在Jetson Nano嵌入式平台上平均检测帧耗时减少了22.4%。本文提出的Prune-YOLOv4-tiny模型与Faster RCNN、YOLOv3-tiny、YOLOv4 3种常用的目标检测模型进行比较,结果表明:Prune-YOLOv4-tiny的mAP为96.6%,分别比Faster RCNN和YOLOv3...  相似文献   

2.
基于改进YOLOv3网络模型的茶草位置检测算法   总被引:1,自引:0,他引:1  
精准高效的茶草识别是智能茶园植保机械进行除草工作的关键。针对目前茶园除草智能化程度较低等问题,提出改进YOLOv3网络模型的茶草检测算法。首先,分季节和时间段,在多个茶叶品种的种植园中以自适应的距离和角度采集茶草混合图像并建立试验数据集。接着,使用K均值聚类算法重新设计先验锚框尺度。然后,以YOLOv3网络模型为基础,选取17×17的网格划分图像区域;采用残差网络(ResNet)作为主干网;加入过程提取层,增强草株检测性能。最后在原损失函数中引入广义交并比损失。通过消融试验和不同目标检测算法对比试验验证此改进算法对茶树与杂草的检测效果。试验结果表明,改进 YOLOv3网络模型对杂草的检测精确率和召回率分别为85.34%和91.38%,对茶树的检测精确率和召回率最高达到82.56%和90.12%;与原YOLOv3网络模型相比,检测精确率提高8.05%,并且每秒传输帧数达到52.83 Hz,是Faster R-CNN网络模型的16倍。这些数据说明所提算法在茶园复杂环境下,不仅对于茶树和杂草具有更好的识别效果,而且满足实时检测的要求,可以为智能茶园植保机械提供技术支持。  相似文献   

3.
为实现对不同品种核桃的分类与定位,提出一种基于深度学习的核桃检测方法。首先,以新疆南疆地区主产的三种核桃为对象进行图像采集,并对图像进行翻转、裁剪、去噪、光照变换等操作制作核桃数据集;然后,采用基于YOLOv5的检测模型进行试验,并与YOLOv3、YOLOv4和Faster RCNN算法进行比较。结果表明,基于YOLOv5的模型对新2、新光和温185核桃检测的平均精度均值分别为99.5%、98.4%和97.1%,单幅图像检测耗时为7 ms。在相同数据集、相同试验环境下,该模型的检测速度是Faster RCNN的7倍,该模型的检测精度比YOLOv4高2.8%且模型大小仅为YOLOv4的1/14。试验结果表明,基于YOLOv5的核桃检测方法在检测精度和速度上是所有对比算法中最高的,适合本研究的检测需求,可为机器人自主分拣核桃提供研究基础。  相似文献   

4.
为提高草莓的总产量,合理监控和防治草莓病害是有效的手段,提出一种基于改进YOLOv5的草莓病害识别算法。该检测算法以CSPDarknet作为主干特征提取网络,能够有效提高模型的性能和训练效率,并使用EIOU Loss损失函数与K-means聚类算法,来提高模型的收敛速度。同时,在模型中增加CBAM注意力机制来提高检测精度,最终构建基于改进YOLOv5的CBAM-YOLOv5l算法。试验结果表明,改进后的模型较之原始模型,在检测精度上有所提升且依然能保证高效的检测速度。另外,经过训练的CBAM-YOLOv5l目标检测算法在验证集下的总体平均精度达到96.52%,平均检测时间为27.52 ms,对比YOLOv4、YOLOv4-Tiny、Faster_R-CNN等目标检测算法,该检测算法在精度上具有更大的优势,在实际的草莓果园环境中具有良好的鲁棒性与实时性,可以满足草莓病害识别精度的需求,能够可靠地提示草莓健康状态,从而及时地实现精准施药等保护措施。  相似文献   

5.
曾俊  陈仁凡  邹腾跃 《南方农机》2023,(24):24-27+41
【目的】解决自然环境下不同成熟度桃子快速准确检测的问题,课题组提出一种基于改进YOLOv5s的目标检测算法YOLO-Faster。【方法】使用YOLOv5s网络模型作为基础网络,将主干特征提取网络替换为FasterNet,使模型轻量化,并在主干和颈部之间增加串联的CBAM卷积注意力模块和常规卷积块,增强对图像重要特征的捕捉与表达,同时引入SIoU损失函数缓解预测框与真实框之间方向的不匹配。【结果】改进后模型的m AP为88.6%,与YOLOv5s相比提升1个百分点,模型权重缩减39.4%,浮点运算量降低44.3%,在GPU、CPU上的单张图像平均检测时间分别减少12.6%和24%。此外,本研究将训练好的模型部署到嵌入式设备Jetson Nano上,模型在Jetson Nano上的检测时间比YOLOv5s减少30.4%。【结论】改进后的轻量级模型能够快速准确地检测自然环境下不同成熟度的桃子,可以为桃子采摘机器人的视觉识别系统提供技术支持。  相似文献   

6.
刘志军 《南方农机》2023,(23):68-73
【目的】解决麦穗检测中麦穗之间相互遮挡、麦穗在图像中难以检测和不同环境造成目标模糊等情况导致麦穗检测精度低的问题。【方法】笔者提出一种基于改进YOLOv5s的算法,通过将数据集同时进行离线增强和在线增强,再将YOLOv5s的骨干网络进行改进,增添具有注意力机制的transformer模块,强化主干网络的全局特征信息提取能力,neck结构由原来的PAFPN改为具有双向加强融合的BiFPN特征融合网络,进行多尺度的特征融合。最后,在head部分使用EIoU-NMS来替代NMS,提高对遮挡麦穗的识别度。【结果】相比于其他改进单一结构的YOLOv5s模型,此综合性改进模型具有更好的检测效果,使mAP@0.5:0.95提高了1.4%,改进的算法比原始YOLOv5s算法的mAP@0.5提高了1.8%。【结论】使用离线增强和在线增强的方式可以使模型的精度有所提升;该模型的改进有效增强了麦穗识别过程中特征融合的效率,提高了麦穗检测的效果,能够为后续相关模型的改进升级提供参考。  相似文献   

7.
基于改进YOLO v5的夜间温室番茄果实快速识别   总被引:2,自引:0,他引:2  
为实现日光温室夜间环境下采摘机器人正常工作以及番茄快速识别,提出一种基于改进YOLO v5的夜间番茄果实的识别方法。采集夜间环境下番茄图像2 000幅作为训练样本,通过建立一种基于交并比的CIOU目标位置损失函数,对原损失函数进行改进,根据计算函数anchor生成自适应锚定框,确定最佳锚定框尺寸,构建改进型YOLO v5网络模型。试验结果表明,改进YOLO v5网络模型对夜间环境下番茄绿色果实识别精度、红色果实识别精度、综合平均识别精度分别为96.2%、97.6%和96.8%,对比CNN卷积网络模型及YOLO v5模型,提高了被遮挡特征物与暗光下特征物的识别精度,改善了模型鲁棒性。将改进YOLO v5网络模型通过编译将训练结果写入安卓系统制作快速检测应用软件,验证了模型对夜间环境下番茄果实识别的可靠性与准确性,可为番茄实时检测系统的相关研究提供参考。  相似文献   

8.
基于改进YOLOX的自然环境中火龙果检测方法   总被引:1,自引:0,他引:1  
自然环境下果实的精准检测是火龙果采摘机器人执行采摘作业的先决条件。为提高自然环境下果实识别的精确性、鲁棒性和检测效率,本研究对YOLOX(You Only Look Once X)网络进行改进,提出了一种含有注意力模块的目标检测方法。为便于在嵌入式设备上部署,本方法以YOLOX-Nano网络为基准,将卷积注意力模块(Convolutional Block Attention Module,CBAM)添加到YOLOX-Nano的主干特征提取网络中,通过为主干网络提取到不同尺度的特征层分配权重系数来学习不同通道间特征的相关性,加强网络深层信息的传递,降低自然环境背景下对火龙果识别的干扰。对该方法进行性能评估和对比试验,经过训练后,该火龙果目标检测网络在测试集的AP0.5值为98.9%,AP0.5:0.95的值为72.4%。在相同试验条件下对比其它YOLO网络模型,该方法平均检测精度分别超越YOLOv3、YOLOv4-Tiny和YOLOv5-S模型26.2%、9.8%和7.9%。最后对不同分辨率的火龙果果园自然环境下采集的视频进行实时测试。试验结果表明,本研究提出的改进YOLOX-Nano目标检测方法,每帧平均检测时间为21.72 ms,F1值为0.99,模型大小仅3.76 MB,检测速度、检测精度和模型大小满足自然环境下火龙果采摘的技术要求。  相似文献   

9.
针对苹果叶部病害缺陷检测效率低下、误检率高、实时性差等问题,以苹果叶部的灰斑病、黑星病、锈病、斑点落叶病作为研究对象,提出一种基于改进YOLOv4算法的苹果叶部病害缺陷检测算法。首先通过数据扩增对数据集扩充提升鲁棒性,算法通过二分K均值聚类算法确定锚框以解决预设锚框不适用苹果叶部病害的问题,引入DenseNet121作为特征提取网络,提升对苹果叶部病害缺陷的检测性能,并且减小模型大小,降低存储开销。将模型与YOLOv4模型进行对比验证,试验结果表明,改进后的YOLOv4模型平均精度均值(mAP)达到97.52%,与改进前相比提升0.89%,模型大小为62.71 MB,与改进前相比减小182.82 MB,检测速度为26.33 FPS,与改进前相比提升6.78 FPS。能够满足实际生活中对苹果叶部病害检测的需求。  相似文献   

10.
针对不同光照,遮挡重叠,大视场等复杂环境下,自动采摘机器人无法快速准确地识别果蔬目标的问题,提出一种用于复杂环境下果蔬检测的改进YOLOv5(You Only Look Once v5)算法。首先,在主干网络Backbone中的CBL模块中嵌入卷积注意力机制(Convolutional Block Attention Module, CBAM),提高目标特征的提取能力。其次,引入完全交并比非极大抑制算法(Complete IOU Non-maximum suppression, CIOU-NMS),考虑长宽边长真实差,提高回归精度。最后,用加权双向特征金字塔网络(Bidirectional Feature Pyramid Network, BiFPN)替换原始YOLOv5的路径聚合网络(PANet),融合多尺度特征提高识别精度和准确率。以苹果为例进行试验,结果表明:改进YOLOv5算法精准率为94.7%,召回率为87%,平均精度为92.5%,相比于原始YOLOv5算法AP提高3.5%,在GPU下的检测时间为11 ms,可以实现复杂情况下的果蔬快速准确识别。  相似文献   

11.
破损鸡蛋导致的漏液会污染自动化生产线和完好鸡蛋,不仅影响生产效率,还会干扰裂纹鸡蛋的检测.为实现破损鸡蛋快速、准确、低成本的识别,本文利用机器视觉技术,并结合深度学习网络深层次特征提取、高精度检测分类的特性,提出一种基于YOLOv4网络的破损鸡蛋检测方法.构建破损鸡蛋图像数据集,搭建YOLOv4深度学习网络,训练含有破...  相似文献   

12.
冀汶莉  刘洲  邢海花 《农业机械学报》2024,55(1):212-222,293
针对已有杂草识别模型对复杂农田环境下多种目标杂草的识别率低、模型内存占用量大、参数多、识别速度慢等问题,提出了基于YOLO v5的轻量化杂草识别方法。利用带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration,MSRCR)增强算法对部分图像数据进行预处理,提高边缘细节模糊的图像清晰度,降低图像中的阴影干扰。使用轻量级网络PP-LCNet重置了识别模型中的特征提取网络,减少模型参数量。采用Ghost卷积模块轻量化特征融合网络,进一步降低计算量。为了弥补轻量化造成的模型性能损耗,在特征融合网络末端添加基于标准化的注意力模块(Normalization-based attention module,NAM),增强模型对杂草和玉米幼苗的特征提取能力。此外,通过优化主干网络注意力机制的激活函数来提高模型的非线性拟合能力。在自建数据集上进行实验,实验结果显示,与当前主流目标检测算法YOLO v5s以及成熟的轻量化目标检测算法MobileNet v3-YOLO v5s、ShuffleNet v2-YOLO v5s比较,轻量化后杂草识别模型内存占用量为6.23MB,分别缩小54.5%、12%和18%;平均精度均值(Mean average precision,mAP)为97.8%,分别提高1.3、5.1、4.4个百分点。单幅图像检测时间为118.1ms,达到了轻量化要求。在保持较高模型识别精度的同时大幅降低了模型复杂度,可为采用资源有限的移动端设备进行农田杂草识别提供技术支持。  相似文献   

13.
在城市规划与园林景观中,人工养护的草坪起到美化环境的作用,但是各类草坪杂草的滋生,严重损害景观草坪的观赏性。而人工分辨杂草费时费力,影响后续的除草效率。因此,借助深度学习的研究成果,对现有的Retina-Net目标检测模型进行针对性改进,通过提取训练集目标图像特征信息、增设多尺度感受野、改进软池化层等方式,提升模型的杂草检测和种类分辨的能力,有助于后续除草工作的高效展开。最终试验对6类杂草的识别率分别为85.3%,84%,896%,86.7%,95.1%,91.5%。相比较于其他主流目标检测算法,识别率分别提高2.2%~9.3%。  相似文献   

14.
苹果产业作为苹果主产区经济发展的支柱产业,为当地果农增收、农业增效做出了重要贡献。随着产业的转型升级,苹果生产机械化和智能化的发展程度将影响其经济效益。为推进苹果生产智能化技术研究与智能装备研发,本文概述了苹果生产各个环节机械化水平,阐述了动力底盘、除草装备、收获装备等苹果生产装备主要技术特点,归纳了自动调平与控制、自主导航、自动避障、杂草识别、杂草去除、苹果识别、苹果定位、苹果分离等技术分别在智能化动力底盘、智能除草装备、苹果采收机器人上的研究与应用进展,并阐明了上述3种智能装备关键技术的基本原理和特点。在此基础上,指出了目前苹果生产智能装备技术面临的挑战,并提出了发展建议。  相似文献   

15.
稻田杂草位置获取是靶向喷施除草剂和机械智能除草的基础,为实现自然光照环境和水田复杂背景下稻田苗期杂草的信息获取。以稻田恶性杂草野慈姑为研究对象,提出一种基于全卷积神经网络的稻田苗期杂草语义分割方法,利用DeepLabV3+对秧苗和杂草进行语义分割进而获取的杂草位置信息。首先人工田间采集稻田苗期杂草野慈姑的RGB图像,通过图像标注工具LabelMe人工标注图像中秧苗、杂草和背景的各个像素点,70%数据集用于DeepLabV3+网络模型参数的训练,30%数据集用于测试DeepLabV3+性能。然后与FCN和U-Net两种语义分割方法进行比较,所提出的DeepLabV3+语义分割方法准确率、均正比、频权交并比和F值等性能指标都最优,试验得出:DeepLabV3+模型像素准确率最高达到92.2%,高于U-Net和FCN方法的准确率92.1%和84.7%。所提出的方法能对稻田苗期杂草、秧苗和背景像素进行准确分割,满足智能除草和除草剂靶向喷施的实际应用需求。  相似文献   

16.
月季病虫害严重影响月季产量和观赏性,将目标检测算法应用到月季病虫害检测中有利于提高月季病虫害检测效率,对实现月季智能化种植培育起到重要支撑作用。针对实际种植场景中复杂背景对病虫害检测的影响,以及病虫害形状大小特点,提出两阶段月季病虫害检测方法TSDDP,首先添加调优后的Inception模块改进YOLOv3模型特征提取与融合能力对自然环境下拍摄的月季多叶片图像进行叶片检测,去除复杂背景中存在的影响因素,然后通过K-means聚类Anchor box优化Faster R-CNN以满足月季病虫害目标检测需求,基于叶片检测结果对叶片病虫害进行检测。通过比较YOLOv3、Faster R-CNN和TSDDP对自然环境下的月季多叶片病虫害检测效果,试验结果表明TSDDP的检测精度和定位准确度均高于其他算法,最终病虫害平均检测精度达到82.26%,有效减少复杂背景造成误检的同时改善小尺度病虫害的检测和定位效果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号