首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 62 毫秒
1.
为解决复杂环境下,猪只粘连和猪栏遮挡等因素给生猪个体多目标实例检测带来的困难,该研究以群养猪圈场景下8栏(日龄20~105 d)共计45头生猪为研究对象,以视频为数据源,采用平视视角、镜头位置不固定的数据采集方式,共获得标注图像3834张,并将其划分为训练集2490张、验证集480张、测试集864张.引入一种融合通道注...  相似文献   

2.
采用改进CenterNet模型检测群养生猪目标   总被引:1,自引:4,他引:1  
为实现对群养环境下生猪个体目标快速精准的检测,该研究提出了一种针对群养生猪的改进型目标检测网络MF-CenterNet(MobileNet-FPN-CenterNet)模型,为确保目标检测的精确度,该模型首先以无锚式的CenterNet为基础结构,通过引入轻量级的MobileNet网络作为模型特征提取网络,以降低模型大小和提高检测速度,同时加入特征金字塔结构FPN(Feature Pyramid Networks)以提高模型特征提取能力,在保证模型轻量化、实时性的同时,提高遮挡目标和小目标的检测精度。该研究以某商业猪场群养生猪录制视频作为数据源,采集视频帧1 683张,经图像增强后共得到6 732张图像。试验结果表明,MF-CenterNet模型大小仅为21 MB,满足边缘计算端的部署,同时对生猪目标检测平均精确度达到94.30%,检测速度达到69 帧/s,相较于Faster-RCNN、SSD、YOLOv3、YOLOv4目标检测网络模型,检测精度分别提高了6.39%、4.46%、6.01%、2.74%,检测速度分别提高了54、47、45、43 帧/s,相关结果表明了该研究所提出的改进型的轻量级MF-CenterNet模型,能够在满足目标检测实时性的同时提高了对群养生猪的检测精度,为生产现场端的群养生猪行为实时检测与分析提供了有效方法。  相似文献   

3.
基于特征金字塔注意力与深度卷积网络的多目标生猪检测   总被引:1,自引:12,他引:1  
在生猪饲养环境中,猪只黏连、杂物遮挡等给生猪个体多目标检测带来很大困难。该研究以猪圈群养生猪为研究对象,以视频帧为数据源,提出一种适用于生猪形体检测的特征金字塔注意力(Feature Pyramid Attention,FPA)与Tiny-YOLO相结合的模型FPA-Tiny-YOLO。该模型将注意力信息融入到特征提取过程,在不大幅增加计算量的前提下即可提升特征提取能力、提高检测精度。对8栏日龄20~105 d的45头生猪视频截取图像进行图像处理,获得标注图片4 102张,构建了4种深度FPA模块分别加入YOLOV3与Tiny-YOLO模型中。试验表明,深度为3的FPA模块(即FPA-3)的Tiny-YOLO模型在测试集上对群养生猪多目标检测的召回率Recall、F1与平均检测精度mAP指标值最佳,分别达到86.09%、91.47%和85.85%,比未引入FPA模块的Tiny-YOLO模型均有不同程度的提高。选用不同的IOU(Intersection Over Union)和score阈值超参数值对模型预测结果均有不同程度影响;将测试集图像按照是否黏连与遮挡划分4种场景来探究该模型的鲁棒性。试验表明,加入FPA-3模块后Tiny-YOLO的Recall、F1与mAP比Tiny-YOLO分别提升6.73、4.34和7.33个百分点,说明特征金字塔注意力信息有利于精确、有效地对不同场景群养生猪进行多目标检测。研究结果可为后续开展生猪身份识别和行为分析移动端应用提供参考。  相似文献   

4.
为实现群养生猪在不同场景下(白天与黑夜,猪只稀疏与稠密)的猪只个体准确检测与实时跟踪,该研究提出一种联合检测与跟踪(Joint Detection and Embedding,JDE)模型。首先利用特征提取模块对输入视频序列提取不同尺度的图像特征,产生3个预测头,预测头通过多任务协同学习输出3个分支,分别为分类信息、边界框回归信息和外观信息。3种信息在数据关联模块进行处理,其中分类信息和边界框回归信息输出检测框的位置,结合外观信息,通过包含卡尔曼滤波和匈牙利算法的数据关联算法输出视频序列。试验结果表明,本文JDE模型在公开数据集和自建数据集的总体检测平均精度均值(mean Average Precision,mAP)为92.9%,多目标跟踪精度(Multiple Object Tracking Accuracy,MOTA)为83.9%,IDF1得分为79.6%,每秒传输帧数(Frames Per Second,FPS)为73.9帧/s。在公开数据集中,对比目标检测和跟踪模块分离(Separate Detection and Embedding,SDE)模型,本文JDE模型在MOTA提升0.5个百分点的基础上,FPS提升340%,解决了采用SDE模型多目标跟踪实时性不足问题。对比TransTrack模型,本文JDE模型的MOTA和IDF1分别提升10.4个百分点和6.6个百分点,FPS提升324%。实现养殖环境下的群养生猪多目标实时跟踪,可为大规模生猪养殖的精准管理提供技术支持。  相似文献   

5.
小白菜是中国种植面积较广、深受大众喜爱的蔬菜,但真实菜地环境中虫害往往出现在叶片的特定区域,且受环境因素如光照和背景干扰较大,影响对其的智能检测。为提高小白菜虫害的检测效率和准确率,该研究提出一种基于YOLOv5s网络框架改进的YOLOPC小白菜虫害识别模型。首先,引入CBAM(Convolutional Block Attention Module)注意力机制,将其放在CBS(卷积层Convolution+归一化层Batch normalization+激活函数层SILU)的输入端构成CBAM-CBS的结构,动态调整特征图中各个通道和空间位置的权重;使用上采样和1×1卷积操作来调整特征图的尺寸和通道数,实现不同层次特征的融合,增强模型的特征表示能力。同时,改进损失函数,使其更适合边界框回归的准确性需求;利用空洞卷积的优势提高网络的感受野范围,使模型能够更好地理解图像的上下文信息。试验结果表明,与改进前的YOLOv5s模型相比,YOLOPC模型对小白菜小菜蛾和潜叶蝇虫害检测的平均精度(mean Average Precision, mAP)达到91.40%,提高了12.9个百分点;每秒传输帧数(Frame Per Second, FPS)为58.82帧/s,增加了11.2帧/s,增加幅度达23.53个百分点;参数量仅为14.4 MB,降低了25.78个百分点。与经典的目标检测算法SSD、Faster R-CNN、YOLOv3、YOLOv7和YOLOv8相比,YOLOPC模型的平均精度分别高出20.1、24.6、14、13.4和13.3个百分点,此外,其准确率、召回率、帧速率和参数量均展现出显著优势。该模型可为复杂背景下小白菜虫害的快速准确检测提供技术支持。  相似文献   

6.
在复杂果园环境中,传统机器视觉算法难以处理光影变化、遮挡、杂草等因素的干扰,导致导航道路分割不准确。针对此问题,该研究提出了一种改进YOLOv7的果园内导航线检测方法。将注意力机制模块(convolutional block attention module,CBAM)引入到原始YOLOv7模型的检测头网络中,增强果树目标特征,削弱背景干扰;在ELAN-H(efficient layer aggregation networks-head,ELAN-H)模块和Repconv(re-parameterization convolution,Repconv)模块之间引入SPD-Conv(space-to-depth,non-strided convolution,SPD-Conv)模块,提高模型对低分辨率图像或小尺寸目标的检测能力。以树干根部中点作为导航定位基点,利用改进YOLOv7模型得到两侧果树行线的定位参照点,然后利用最小二乘法拟合两侧果树行线和导航线。试验结果表明,改进YOLOv7模型检测精度为95.21%,检测速度为42.07帧/s,相比于原始YOLOv7模型分别提升了2.31个百分点和4.85帧/s,能够较为准确地识别出树干,且对树干较密的枣园图像也能达到较好的检测效果;提取到的定位参照点与人工标记树干中点的平均误差为8.85 cm,拟合导航线与人工观测导航线的平均偏差为4.90 cm,处理1帧图像平均耗时为0.044 s,能够满足果园内导航需求。  相似文献   

7.
该研究旨在解决桑蚕养殖过程中对蚕虫计数的难题,特别是针对蚕虫目标小、分布密集且易被遮挡的特点,通过改进的目标检测算法,实现对蚕虫数量的高效、准确检测与计数,以支持蚕虫的科学喂养与健康成长管理。本文提出了一种基于YOLOv8模型改进的蚕虫检测与计数新方法(SDM-YOLO)。该方法的核心创新包括:1) 引入RCS-OSA模块作为残差模块,替代原YOLOv8中的C2f模块,以增强网络的多尺度特征提取能力并融合不同感受野的信息,提升对密集分布蚕虫的识别能力;2) 改造检测头为动态预测头(dynamic prediction head),结合尺寸、空间和通道三个维度的特征信息,提高蚕虫识别的精确度,减少误检;3) 优化损失函数,采用EIOU LOSS作为边界框回归的损失函数,以改善密集场景下蚕虫目标的漏检问题。经过试验验证,SDM-YOLO方法在多个评估指标上均表现出色。具体而言,该方法在精确度上达到了88.2%,召回率为87.2%,平均准确度mAP@0.5为93.2%,而mAP@0.5:0.95也达到了74.7%。这些结果充分证明了与一阶段检测模型YOLO系列相比,SDM-YOLO在蚕虫检测与计数方面具有比较明显的优势。  相似文献   

8.
群猪检测是现代化猪场智慧管理的关键环节。针对群猪计数过程中,小目标或被遮挡的猪只个体易漏检的问题,该研究提出了基于多尺度融合注意力机制的群猪检测方法。首先基于YOLOv7模型构建了群猪目标检测网络YOLOpig,该网络设计了融合注意力机制的小目标尺度检测网络结构,并基于残差思想优化了最大池化卷积模块,实现了对被遮挡与小目标猪只个体的准确检测;其次结合GradCAM算法进行猪只检测信息的特征可视化,验证群猪检测试验特征提取的有效性。最后使用目标跟踪算法StrongSORT实现猪只个体的准确跟踪,为猪只的检测任务提供身份信息。研究以育肥阶段的长白猪为测试对象,基于不同视角采集的视频数据集进行测试,验证了YOLOpig网络结合StongSORT算法的准确性和实时性。试验结果表明,该研究提出的YOLOpig模型精确率、召回率及平均精度分别为90.4%、85.5%和92.4%,相较于基础YOLOv7模型平均精度提高了5.1个百分点,检测速度提升7.14%,比YOLOv5、YOLOv7tiny和YOLOv8n 3种模型的平均精度分别提高了12.1、16.8和5.7个百分点,该文模型可以实现群猪的有...  相似文献   

9.
为实现自然环境下桃树缩叶病的检测,该研究提出了一种基于YOLOv5su的桃树缩叶病识别改进模型DLL-YOLOv5su。首先,针对桃树缩叶病目标特征变化较大的问题,在骨干网络最后一层C3模块中加入可变形自注意力模块(deformable attention,DA),使模型更加关注目标区域,降低背景对模型的影响,提高模型在复杂背景下的拟合能力。其次在SPPF(fast spatial pyramid pooling)模块中引入LSKA(large separable kernel attention)结构,大核卷积增大了模型的感受野,使模型能够关注更多信息。最后,提出了LAWD(lightweight adaptive weighted downsampling)模块,使用轻量化的下采样结构替换卷积模块,减少计算开销。在桃树缩叶病数据集上进行试验,结果显示,DLL-YOLOv5su模型权重大小为17.6MB,检测速度为83帧/s。识别准确率P、召回率R和平均精度均值mAP50分别达到了80.7%、73.1%和80.4%,相较于原始YOLOv5su分别提高了4.2、2.4和4.3个百分点。与YOLOv3-tiny、Faster R-CNN、YOLOv7和YOLOv8相比mAP50分别高出了28.5、11.8、2.1和4.1个百分点。改进模型识别精度高,误检、漏检率低,检测速度满足实时检测的要求,可以为桃树缩叶病的实时监测和预警提供参考。  相似文献   

10.
随着食用菌行业由自动化向智能化、信息化发展的趋势越来越明显,为了实现现代化菇房中平菇的准确检测,解决工厂化平菇栽培中收获阶段平菇之间相互遮挡等问题,帮助平菇采收机器人进行准确的自动化采收,该文提出了一种基于YOLOv5(you only look once version 5)模型的OMM-YOLO(ostreatus measure modle-YOLO)平菇目标检测与分类模型。通过在YOLOv5模型的Backbone层添加注意力模块,对输入的平菇图像特征进行动态加权,以获得更详细的特征信息,并在Neck层采用加权双向特征金字塔网络,通过与不同的特征层融合,提高算法的平菇目标检测的精度。此外,为了改善算法的准确性和边界框纵横比的收敛速度,该文采用了EIoU(enhanced intersection over union)损失函数替代了原有的损失函数。试验结果表明,与原始模型相比,改进模型OMM-YOLO对成熟平菇、未成熟平菇和未生长平菇的平均精度均值分别提高了0.4个百分点、4.5个百分点和1.1个百分点。与当前主流模型Resnet50、VGG16、YOLOv3、YOLOv4、YOLOv5m和YOLOv7相比,该模型的精确率、召回率和检测精度均处于优势,适用于收集现代化菇房中的平菇信息,有效避免了平菇之间因相互遮挡而产生的误检测现象。菇房平菇目标检测可以自动化地检测平菇的数量、生长状态等信息,帮助菇房工作人员掌握菇房内的菇况,及时调整温湿度等环境条件,提高生产效率,并且对可以对平菇进行质量控制,确保平菇产品的统一性和品质稳定性。同时可以减少对人工的依赖,降低人力成本,实现可持续发展,对智能化现代菇房建设具有积极作用。  相似文献   

11.
为确保油茶果实处于最佳成熟度进行采摘,提高油茶果实的出油率及茶油品质,该研究针对自然环境下油茶果实多被遮挡的问题,以原始YOLOv7模型为基础进行改进,提出一种油茶果实成熟度检测方法。首先,在主干网络中引入十字交叉注意力机制(criss-cross attention,CCA)加强对被枝叶遮挡果实成熟度特征的提取能力;其次,使用基于距离和交并比的非极大值抑制(distance-iou non-maximum suppression,DIoU-NMS)算法代替传统非极大值抑制(nonmaximum suppression,NMS)算法,从而加强模型对相互遮挡果实的检测能力;最后,以训练集中3 098张油茶果实图像训练改进的YOLOv7模型,验证集中442张图像用于在训练过程中评估模型,并对测试集中885张图像进行测试。改进后的YOLOv7模型在测试集下的精确率P为93.52%,召回率R为90.25%,F1分数为91.86%,平均精度均值mAP为94.60%,平均检测时间为0.77 s,模型权重大小为82.6 M。与Faster R-CNN、EfficientDet、YOLOv3、YOLO...  相似文献   

12.
使用机器视觉对果实检测并进行估产是实现果园智能化管理的重要途径,针对自然环境下青皮核桃与叶片颜色差异小、核桃体积较小导致青皮核桃不易检出的问题,提出一种基于改进YOLOv3的青皮核桃视觉检测方法。依据数据集特征进行数据增强,引入Mixup数据增强方法,该研究使模型从更深的维度学习核桃特征;针对核桃单种类目标检测比较不同预训练模型,选择精度提升更明显的Microsoft Common Objects in Context(COCO)数据集预训练模型;依据标注框尺寸统计对锚框进行调整,避免锚框集中,提升模型多尺度优势。在消融试验中,前期改进将平均精度均值提升至93.30%,在此基础上,引入MobilNet-v3骨干网络替换YOLOv3算法中原始骨干网络,提升模型检测能力及轻量化。试验表明,基于改进YOLOv3的青皮核桃检测平均精度均值为94.52%,超越YOLOv3其他2个骨干网络和Faster RCNN-ResNet-50网络。本文改进模型大小为88.6 M,检测速度为31帧/s,检测速度是Faster RCNN-ResNet-50网络的3倍,可以满足青皮核桃实时准确检测需求。该方法可为核桃果园智能化管理中的估产、采收规划等提供技术支撑,也可为近背景颜色的小果实实时准确检测提供思路。  相似文献   

13.
为解决传统小肠绒毛需要专业人员手动检测耗时耗力且存在主观性和不稳定性等问题,同时提高在复杂病理学图像中小肠绒毛检测的准确率和效率,该研究提出基于改进YOLOv5s检测复杂病理学图像下猪只小肠绒毛的方法。首先,采用串联形式的混合池化对空间金字塔进行优化,增强特征提取与特征表达,提升检测精度;然后引入一种基于注意力机制的网络模块(simpleattentionmechanism,SimAM)与Bottleneck中的残差连接相结合,使用SimAM对Bottleneck中的特征图进行加权,得到加权后的特征表示,利用注意力机制加强模型对目标的感知。试验结果表明,该研究算法的平均精度(average precision)和每秒传输帧数(frame per second,FPS)达到92.43%和40帧/s。改进后的YOLOv5s在召回率和平均精度上相较改进前提高2.49和4.62个百分点,在不增加模型参数量的情况下,每帧图片的推理时间缩短1.04 ms。与经典的目标检测算法SSD、Faster R-CNN、YOLOv6s、YOLOX相比,平均精度分别提高15.16、10.56、2.03和4.07...  相似文献   

14.
基于改进YOLOv3的果园复杂环境下苹果果实识别   总被引:1,自引:4,他引:1  
为使采摘机器人能够全天候在不同光照、重叠遮挡、大视场等果园复杂环境下对不同成熟度的果实进行快速、准确识别,该研究提出了一种基于改进YOLOv3的果实识别方法。首先,将DarkNet53网络中的残差模块与CSPNet(Cross Stage Paritial Network)结合,在保持检测精度的同时降低网络的计算量;其次,在原始YOLOv3模型的检测网络中加入SPP(Spatial Pyramid Pooling)模块,将果实的全局和局部特征进行融合,提高对极小果实目标的召回率;同时,采用Soft NMS(Soft Non-Maximum Suppression)算法代替传统NMS(Non-Maximum Suppression)算法,增强对重叠遮挡果实的识别能力;最后,采用基于Focal Loss和CIoU Loss的联合损失函数对模型进行优化,提高识别精度。以苹果为例进行的试验结果表明:经过数据集训练之后的改进模型,在测试集下的MAP(Mean Average Precision)值达到96.3%,较原模型提高了3.8个百分点;F1值达到91.8%,较原模型提高了3.8个百分点;在GPU下的平均检测速度达到27.8帧/s,较原模型提高了5.6帧/s。与Faster RCNN、RetinaNet等几种目前先进的检测方法进行比较并在不同数目、不同光照情况下的对比试验结果表明,该方法具有优异的检测精度及良好的鲁棒性和实时性,对解决复杂环境下果实的精准识别问题具有重要参考价值。  相似文献   

15.
自然环境下自动准确地检测油橄榄果实的成熟度是实现油橄榄果实自动化采摘的基础。该研究根据成熟期油橄榄果实表型特征的变化以及参考国际油橄榄理事会和中国林业行业标准的建议制定了油橄榄果实成熟度标准,并针对油橄榄果实相邻成熟度特征差异不明显以及果实之间相互遮挡问题,提出一种改进EfficientDet的油橄榄果实成熟度检测方法。首先改进特征提取网络,在特征提取网络中引入卷积注意力模块(Convolution Block Attention Module,CBAM)细化不同成熟度之间的特征映射;其次改进特征融合网络,在加权双向特征金字塔网络(Bidirectional Feature Pyramid Network,Bi-FPN)中增加跨级的数据流加强果实的相对位置信息,最后通过623幅油橄榄测试图像对改进的EfficientDet模型进行测试。改进EfficientDet模型在测试集下的精确率P、召回率R和平均精度均值mAP分别为92.89%、93.59%和94.60%,平均检测时间为0.337 s,模型大小为32.4 M。对比SSD、EfficientDet、YOLOv3、YOLOv5s和Faster R-CNN模型,平均精度均值mAP分别提升7.85、4.77、3.73、1.15和1.04个百分点。改进EfficientDet模型能够为油橄榄果实的自动化采摘提供有效探索。  相似文献   

16.
为了快速检测和统计杨梅树的数量,该研究提出了一种基于改进YOLOv7的杨梅树单木检测模型:YOLOv7-ACGDmix。首先,对YOLOv7的可扩展高效长程注意力网络(extended-efficient long-range attention networks, E-ELAN)进行改进,通过融合兼具卷积和注意力机制优势的ACmix(a mixed model that enjoys the benefit of both self-attention and convolution)结构得到AC-E-ELAN模块,提升模型的学习和推理能力,引入可变形卷积(deformable convolutional networks version 2, DCNv2)结构得到DCNv2-E-ELAN模块,增强模型对不同尺寸目标的提取能力;其次,采用内容感知特征重组(content-aware reassembly of features, CARAFE)上采样模块,提高模型对重要特征的提取能力;然后,在主干和头部网络部分添加全局注意力机制(global-attention mechanism, GAM),强化特征中的语义信息和位置信息,提高模型特征融合能力;最后,采用WIoU(wise intersection over union)损失函数减少因正负样本数据不平衡造成的干扰,增强模型的泛化性。在公开数据集上的试验结果表明,YOLOv7-ACGDmix模型的精确率达到89.1%,召回率达到89.0%,平均精度均值(mean average precision, mAP)达到95.1%,F1-score达到89.0%,相比于原YOLOv7模型分别提高1.8、4.0、2.3和3.0个百分点。与Faster R-CNN、SSD、YOLOv8模型相比,改进模型的平均精度均值(mAP0.5)分别提高了9.8、2.2、0.7个百分点。实地采集杨梅树样本数据的检测精确率87.3%、召回率85.7%。试验表明,改进模型为基于无人机影像的杨梅树单木检测提供了一种有效的解决方案,对果园精准管理的发展具有重要意义。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号