首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
对经济林木虫害进行目标检测有助于及时发现虫情,从而更有针对性地控制虫害。首先采用加权双向特征融合技术丰富各级特征图的语义信息和修改自适应Anchor计算方法对YOLOv5主干网络模型进行改进,然后在含20种经济林木虫害的图像扩增数据集上进行试验,最后与多种基于深度学习的目标检测方法进行对比。试验结果表明:改进后的YOLOv5模型相对于YOLOv3、YOLOv4、YOLOv5、Faster-RCNN和CenterNet模型,其平均精度均值分别提升0.133、0.156、0.113、0.128和0.078,最优达到0.923,模型推断速度为64.9帧。因此,改进的YOLOv5模型对经济林木虫害检测已达到实际应用水平,可为经济林木虫害预警系统提供算法支撑。  相似文献   

2.
为快速准确获取玉米收获过程中遗失籽粒数信息,进行收割损失调节等管理,对比评估了单阶段和两阶段主流目标检测网络对田间玉米籽粒计数的性能。首先,利用RGB相机获取包含不同背景和不同光照的图像数据,并进一步生成数据集;其次,构建籽粒识别的不同目标检测网络,包括Mask R-CNN、EfficientDet-D5、YOLOv5-L、YOLOX-L,并利用所采集的420幅有效图像对构建的四种网络进行训练、验证、测试,图像数分别为200、40和180幅;最后,依据测试集图像的识别结果进行籽粒计数性能评价。试验结果表明,YOLOv5-L网络对测试集图像检测的平均精度为78.3%,模型尺寸仅为89.3 MB;籽粒计数的检测正确率、漏检率和F1值分别为90.7%、9.3%和91.1%,处理速度为55.55 f/s,识别与计数性能均优于Mask R-CNN、EfficientDet-D5和YOLOX-L网络,并对具有不同地表遮挡程度和籽粒聚集状态的图像具有较强的鲁棒性。深度学习目标检测网络YOLOv5-L可实现实际作业中玉米收获损失籽粒的实时监测,精度高、适用性强。  相似文献   

3.
为实现对不同品种核桃的分类与定位,提出一种基于深度学习的核桃检测方法。首先,以新疆南疆地区主产的三种核桃为对象进行图像采集,并对图像进行翻转、裁剪、去噪、光照变换等操作制作核桃数据集;然后,采用基于YOLOv5的检测模型进行试验,并与YOLOv3、YOLOv4和Faster RCNN算法进行比较。结果表明,基于YOLOv5的模型对新2、新光和温185核桃检测的平均精度均值分别为99.5%、98.4%和97.1%,单幅图像检测耗时为7 ms。在相同数据集、相同试验环境下,该模型的检测速度是Faster RCNN的7倍,该模型的检测精度比YOLOv4高2.8%且模型大小仅为YOLOv4的1/14。试验结果表明,基于YOLOv5的核桃检测方法在检测精度和速度上是所有对比算法中最高的,适合本研究的检测需求,可为机器人自主分拣核桃提供研究基础。  相似文献   

4.
针对果园目标检测时相机抖动以及物体相对运动导致检测图像模糊的问题,本文提出一种将DeblurGAN-v2去模糊网络和YOLOv5s目标检测网络相融合的D2-YOLO一阶段去模糊识别深度网络,用于检测识别果园模糊场景图像中的障碍物。为了减少融合网络的参数量并提升检测速度,首先将YOLOv5s骨干网络中的标准卷积替换成深度可分离卷积,并且在输出预测端使用CIoU_Loss进行边界框回归预测。融合网络使用改进的CSPDarknet作为骨干网络进行特征提取,将模糊图像恢复原始自然信息后,结合多尺度特征进行模型预测。为了验证本文方法的有效性,选取果园中7种常见的障碍物作为目标检测对象,在Pytorch深度学习框架上进行模型训练和测试。试验结果表明,本文提出的D2-YOLO去模糊识别网络准确率和召回率分别为91.33%和89.12%,与分步式DeblurGAN-v2+YOLOv5s相比提升1.36、2.7个百分点,与YOLOv5s相比分别提升9.54、9.99个百分点,能够满足果园机器人障碍物去模糊识别的准确性和实时性要求。  相似文献   

5.
基于双目相机与改进YOLOv3算法的果园行人检测与定位   总被引:2,自引:0,他引:2  
景亮  王瑞  刘慧  沈跃 《农业机械学报》2020,51(9):34-39,25
针对复杂果园环境中行人难以精确检测并定位的问题,提出了一种双目相机结合改进YOLOv3目标检测算法的行人障碍物检测和定位方法。该方法采用ZED双目相机采集左右视图,通过视差原理获取图像像素点的距离信息;将双目相机一侧的RGB图像作为用树形特征融合模块改进的YOLOv3算法的输入,得到行人障碍物在图像中的位置信息,结合双目相机获得的像素位置信息计算出相对于相机的三维坐标。用卡耐基梅隆大学国家机器人工程中心开放的果园行人检测数据集测试改进的YOLOv3算法,结果表明,准确率和召回率分别达到95.34%和91.52%,高于原模型的94.86%和90.19%,检测速度达到30.26 f/ms。行人检测与定位试验表明,行人障碍物的定位在深度距离方向平均相对误差为1.65%,最大相对误差为3.80%。该方法具有快速性和准确性,可以较好地实现果园环境中的行人检测与定位,为无人驾驶农机的避障决策提供依据。  相似文献   

6.
毛桃等果实的准确检测是实现机械化、智能化农艺管理的必要前提。然而,由于光照不均和严重遮挡,在果园中实现毛桃,尤其是套袋毛桃的检测一直面临着挑战。本研究基于改进YOLOv5s和多模态视觉数据提出了面向机械化采摘的毛桃多分类准确检测。具体地,构建了一个多类标签的裸桃和套袋毛桃的RGB-D数据集,包括4127组由消费级RGB-D相机获取的像素对齐的彩色、深度和红外图像。随后,通过引入方向感知和位置敏感的注意力机制,提出了改进的轻量级YOLOv5s(小深度)模型,该模型可以沿一个空间方向捕捉长距离依赖,并沿另一个空间方向保留准确的位置信息,提高毛桃检测精度。同时,通过将卷积操作分解为深度方向的卷积与宽度、高度方向的卷积,使用深度可分离卷积在保持模型检测准确性的同时减少模型的计算量、训练和推理时间。实验结果表明,使用多模态视觉数据的改进YOLOv5s模型在复杂光照和严重遮挡环境下,对裸桃和套袋毛桃的平均精度(Mean Average Precision,mAP)分别为98.6%和88.9%,比仅使用RGB图像提高了5.3%和16.5%,比YOLOv5s提高了2.8%和6.2%。在套袋毛桃检测方面,改进YOLOv5s的mAP比YOLOX-Nano、PP-YOLO-Tiny和EfficientDet-D0分别提升了16.3%、8.1%和4.5%。此外,多模态图像、改进YOLOv5s对提升自然果园中的裸桃和套袋毛桃的准确检测均有贡献,所提出的改进YOLOv5s模型在检测公开数据集中的富士苹果和猕猴桃时,也获得了优于传统方法的结果,验证了所提出的模型具有良好的泛化能力。最后,在主流移动式硬件平台上,改进后的YOLOv5s模型使用五通道多模态图像时检测速度可达每秒19幅,能够实现毛桃的实时检测。上述结果证明了改进的YOLOv5s网络和含多类标签的多模态视觉数据在实现果实自动采摘系统视觉智能方面的应用潜力。  相似文献   

7.
基于YOLOv4的猪只饮食行为检测方法   总被引:7,自引:0,他引:7  
针对猪舍环境下猪只饮食行为自动化检测程度较低的问题,提出了一种基于YOLOv4的猪只饮食行为检测模型.基于多时间段、多视角和不同程度遮挡的猪只饮食图像,建立了猪只饮食行为图像数据库,利用YOLOv4深度学习网络的深层次特征提取、高精度检测分类特性,对猪只饮食行为进行检测.结果表明,基于YOLOv4的猪只饮食行为检测模型...  相似文献   

8.
刘志军 《南方农机》2023,(23):68-73
【目的】解决麦穗检测中麦穗之间相互遮挡、麦穗在图像中难以检测和不同环境造成目标模糊等情况导致麦穗检测精度低的问题。【方法】笔者提出一种基于改进YOLOv5s的算法,通过将数据集同时进行离线增强和在线增强,再将YOLOv5s的骨干网络进行改进,增添具有注意力机制的transformer模块,强化主干网络的全局特征信息提取能力,neck结构由原来的PAFPN改为具有双向加强融合的BiFPN特征融合网络,进行多尺度的特征融合。最后,在head部分使用EIoU-NMS来替代NMS,提高对遮挡麦穗的识别度。【结果】相比于其他改进单一结构的YOLOv5s模型,此综合性改进模型具有更好的检测效果,使mAP@0.5:0.95提高了1.4%,改进的算法比原始YOLOv5s算法的mAP@0.5提高了1.8%。【结论】使用离线增强和在线增强的方式可以使模型的精度有所提升;该模型的改进有效增强了麦穗识别过程中特征融合的效率,提高了麦穗检测的效果,能够为后续相关模型的改进升级提供参考。  相似文献   

9.
基于改进YOLOv3网络模型的茶草位置检测算法   总被引:1,自引:0,他引:1  
精准高效的茶草识别是智能茶园植保机械进行除草工作的关键。针对目前茶园除草智能化程度较低等问题,提出改进YOLOv3网络模型的茶草检测算法。首先,分季节和时间段,在多个茶叶品种的种植园中以自适应的距离和角度采集茶草混合图像并建立试验数据集。接着,使用K均值聚类算法重新设计先验锚框尺度。然后,以YOLOv3网络模型为基础,选取17×17的网格划分图像区域;采用残差网络(ResNet)作为主干网;加入过程提取层,增强草株检测性能。最后在原损失函数中引入广义交并比损失。通过消融试验和不同目标检测算法对比试验验证此改进算法对茶树与杂草的检测效果。试验结果表明,改进 YOLOv3网络模型对杂草的检测精确率和召回率分别为85.34%和91.38%,对茶树的检测精确率和召回率最高达到82.56%和90.12%;与原YOLOv3网络模型相比,检测精确率提高8.05%,并且每秒传输帧数达到52.83 Hz,是Faster R-CNN网络模型的16倍。这些数据说明所提算法在茶园复杂环境下,不仅对于茶树和杂草具有更好的识别效果,而且满足实时检测的要求,可以为智能茶园植保机械提供技术支持。  相似文献   

10.
针对人工检测缺陷时间慢和错检率高的缺点,提出将卷积神经网络应用于机械零件表面缺陷检测,该方法首先对图像进行预处理操作,然后利用图像块数据集用卷积神经网络进行训练,研究网络参数,确定网络模型,最后测试。实验结果表明,该方法在机械零件缺陷检测上面具有较为理想的准确率。  相似文献   

11.
水果是我国重要的经济作物之一,果业对于农民的增收和国家经济的发展都具有重要意义。为实现复杂自然环境下对果树树干的识别,提升当前果园生产水平,本文提出一种以YOLOv5模型为基线的果树树干识别检测模型(YOLOv5-SR)。在YOLOv5的backbone网络中以Rep VGG模块代替部分C3模块,利用Rep VGG模块结构重参数化特点实现提升网络模型的检测速度,满足实时性的要求;其次,在网络模型中引入Sim AM注意力机制模块,利用Sim AM注意力机制无参的特点在不影响模型速度的情况下加强对检测目标的提取能力,提升模型的检测精度。实验结果表明,改进后的模型相比较于YOLOv5,检测速度提升了10%,平均精度均值提升了6%,实现速度与精度上的提升。该研究满足在复杂环境下实时检测果树树干,有助于进一步推动智能化果园机器人的研发与应用。  相似文献   

12.
破损鸡蛋导致的漏液会污染自动化生产线和完好鸡蛋,不仅影响生产效率,还会干扰裂纹鸡蛋的检测.为实现破损鸡蛋快速、准确、低成本的识别,本文利用机器视觉技术,并结合深度学习网络深层次特征提取、高精度检测分类的特性,提出一种基于YOLOv4网络的破损鸡蛋检测方法.构建破损鸡蛋图像数据集,搭建YOLOv4深度学习网络,训练含有破...  相似文献   

13.
果实识别是视觉检测技术重要的环节,其识别精度易受复杂的生长环境及果实状态的影响。以大棚环境下单个、一簇、光照、阴影、遮挡、重叠6种复杂生长状态下的番茄果实为对象,提出一种基于改进YOLOv4网络模型与迁移学习相结合的番茄果实识别方法。首先利用ImageNet数据集与VGG网络模型前端16卷积层进行模型参数预训练,将训练的模型参数初始化改进模型的权值以代替原始的初始化操作,然后使用番茄数据集在VGG19的卷积层与YOLOV4的主干网络相结合的新模型中进行训练,获得最优权重实现对复杂环境下的番茄果实进行检测。最后,将改进模型与Faster RCNN、YOLOv4-Tiny、YOLOv4网络模型进行比较。研究结果表明,改进模型在6种复杂环境下番茄果实平均检测精度值mAP达到89.07%、92.82%、92.48%、93.39%、93.20%、93.11%,在成熟、半成熟、未成熟3种不同成熟度下的F1分数值为84%、77%、85%,其识别精度优于比较模型。本文方法实现了在6种复杂环境下有效地番茄果实检测识别,为番茄果实的智能采摘提供理论基础。  相似文献   

14.
[目的/意义]针对小麦叶片病虫害在自然环境下形态和颜色特征较为复杂、区分度较低等特点,提出一种高质量高效的病虫害检测模型,即YOLOv8-SS (You Only Look Once Version 8-SS),为病虫害的预防与科学化治理提供准确的依据。[方法]基于YOLOv8算法,采用改进的轻量级卷积神经网络ShuffleNet V2作为主干网络提取图像特征即YOLOv8-S,在保持检测精度的同时,减少模型的参数数量和计算负载;在此基础上增加小目标检测层和注意力机制SEnet (Squeeze and Excitation Network),对YOLOv8-S进行改进,在不降低检测速度和不损失模型轻量化程度的情况下提高检测精度,提出YOLOv8-SS小麦叶片病虫害检测模型。[结果与讨论]YOLOv8-SS模型在实验数据集上的平均识别精度和检测准确率分别达89.41%和91.00%,对比原模型分别提高10.11%和7.42%。因此,本研究所提出的方法可显著提高农作物病虫害的检测鲁棒性,并增强模型对小目标图像特征的提取能力,从而高效准确地进行病虫害的检测和识别。[结论]本研究使用的方法具...  相似文献   

15.
为快速、准确识别马铃薯芽眼,提高种薯发芽率,提出一种基于卷积神经网络的马铃薯芽眼识别方法。针对多视角和不同程度重叠的马铃薯芽眼图像,通过数据增广及图像预处理建立数据库。在此基础上,利用YOLOv3网络的高性能特征提取特性,实现马铃薯芽眼的快速准确识别。结果表明:YOLOv3网络对含有单个无遮挡芽眼的样本、含有多个有遮挡芽眼的样本及含有机械损伤、虫眼及杂质的样本均能够实现良好稳定的识别,最终检测精确度P为97.97%,召回率R为96.61%,调和平均值F1为97%,识别平均精度mAP为98.44%,单张检测时间为0.018 s。对比分析YOLOv4-tiny及SSD等网络后可知,YOLOv3模型可同时满足马铃薯芽眼识别的精度与速度要求。因此,YOLOv3网络对马铃薯芽眼识别具有良好的鲁棒性,为马铃薯切种机实现自动化切种奠定基础。  相似文献   

16.
为了提高农业机器人在复杂野外环境下采摘油茶果的速度和准确性,针对机器人视觉感知的关键技术,设计了一种农业机器人果实检测、定位和采摘系统。首先,使用双目相机采集油茶果的左右图像;然后,应用先进的目标检测网络YOLOv4-tiny检测出左右图像中的油茶果;再次,不同于传统的双目相机图像的立体匹配技术,根据YOLOv4-tiny网络生成的预测框提取出油茶果图像的感兴趣区域,并根据预测框的生成机制自适应地进行立体匹配以求解出视差,为后续使用三角测量原理求出油茶果采摘点提供参考;最后,使用基于Eye-in-Hand手眼标定的农业机器人进行采摘试验,验证了本研究的可行性和准确性。试验结果表明:YOLOv4-tiny网络能够精确和实时地检测油茶果,提出的定位方法满足采摘机器人的应用需求,验证了本研究的可行性和准确性。研究可为果园环境中作业的农业采摘机器人视觉感知关键技术提供参考。  相似文献   

17.
为实现在复杂水体下对鱼道过鱼进行监测,提出了一种基于YOLOv5s的改进模型,并用TensorRT部署应用于某水电站鱼道现场。首先,针对水下图像模糊、目标检测困难的问题,提出了将Swin Transformer(STR)作为检测层,提升了模型对目标的检测能力;其次,针对鱼群密集、图像信息少的问题,将Efficient channel attention(ECA)注意力机制作为主干特征提取网络C3结构的Bottleneck,减少了计算参数并提升了检测精度;然后,针对检测目标定位差、回归不收敛的问题,将Focal and efficient IOU loss(FIOU)作为模型损失函数,优化了模型整体性能;最后将模型部署在TensorRT框架进行优化,处理速度得到了大幅度提升。基于实际采集的复杂水体数据集进行实验,结果表明,本文算法mAP为91.9%,单幅图像处理时间为10.4ms,在相同条件下,精度比YOLOv5s提升4.8个百分点,处理时间减少0.4ms。模型使用TensorRT部署后单幅图像推理时间达到2.3ms,在不影响检测精度的前提下,推理速度提高4.5倍。综上,本文算法模型在保证快速检测的基础上,具有较高的准确性,更适用于复杂水体下鱼道过鱼监测。  相似文献   

18.
基于YOLOv3目标检测的秧苗列中心线提取方法   总被引:3,自引:0,他引:3  
针对秧苗列中心线的检测结果易受到水田中的浮萍、蓝藻以及水面反射、风速、光照情况等自然条件影响的问题,提出一种基于YOLOv3目标检测的秧苗列中心线检测算法。基于透视投影计算提取图像的ROI(Region of interest)区域,采用ROI图像构建数据集,对YOLOv3模型进行训练,训练过程中通过减少YOLOv3模型的输出降低运算量,利用模型识别定位ROI内的秧苗,并输出其检测框,对同列秧苗的检测框进行自适应聚类。在对秧苗图像进行灰度化和滤波处理后,在同类检测框内提取秧苗SUSAN(Smallest univalue segment assimilating nucleus)角点特征,采用最小二乘法拟合秧苗列中心线。试验结果表明,该算法对于秧苗的不同生长时期,以及在大风、蓝藻、浮萍和秧苗倒影、水面强光反射、暗光线的特殊场景下均能成功提取秧苗列中心线,鲁棒性较好,模型的平均精度为91.47%,提取的水田秧苗列中心线平均角度误差为0.97°,单幅图像(分辨率640像素×480像素)在GPU下的平均处理时间为82.6 ms,能够满足视觉导航的实时性要求。为复杂环境下作物中心线的提取提供了有效技术途径。  相似文献   

19.
为实现割草机器人在计算资源有限的情况下快速、准确地定位并识别工作环境中的障碍物,提出一种基于滤波器剪枝的改进YOLOv5s深度学习模型的割草机器人工作环境下障碍物的检测方法。首先,将YOLOv5模型中的Bottleneck残差块改为分层残差结构,以更细粒度地表示多尺度特征,同时增加网络感受野;另外,在残差块尾部加入SE模块,用来对特征图重新标定;其次,对改进后的算法进行滤波器剪枝;最后,针对割草机器人工作环境中的常见障碍物建立相关数据集,并使用剪枝后改进YOLOv5s作为深度学习模型进行检测。试验结果表明:改进后的YOLOv5模型大小减少188%,mAP增加0.1%。对改进YOLOv5模型进行剪枝后,比原YOLOv5模型计算量降低36.6%,模型大小降低333%,推理速度减少1.9 ms。剪枝后本文模型的mAP值分别比YOLOv4,YOLOv4-tiny,YOLOv3,YOLOv3-tiny高1.3%,9.5%,5.8%,22.1%。  相似文献   

20.
针对传统的YOLOv5算法对叶片中小尺度及密集黑斑病辨识精度不高的问题,提出一种用于黑斑病检测的改进YOLOv5算法。首先,增加小尺度检测层,提升网络对小尺度目标的辨识能力,以此来增加对小尺度叶片黑斑病的检测正确率;其次,加入注意力机制,提升网络的特征提取能力,从而提升对叶片黑斑病的检测正确率;最后,将YOLOv5算法的非极大值抑制(Non-Maximum Suppression,NMS)改为DIoU_NMS,提升网络对重叠目标的检测效果,以便对叶片中密集的黑斑病进行识别。实验结果表明:相比于传统的YOLOv5方法,改进后的YOLOv5算法的精准率(Precision,P)和召回率(Recall,R)分别由86.4%、77.8%提升至93.5%、80.0%,平均精度均值(mean Average Precision,mAP)也由85.1%提升到88.7%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号