首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 351 毫秒
1.
奶牛身体部位的精准分割广泛应用于奶牛体况评分、姿态检测、行为分析及体尺测量等领域。受奶牛表面污渍和遮挡等因素的影响,现有奶牛部位精准分割方法实用性较差。本研究在YOLO v8n-seg模型的基础上,加入多尺度融合模块与双向跨尺度加权特征金字塔结构,提出了YOLO v8n-seg-FCA-BiFPN奶牛身体部位分割模型。其中,多尺度融合模块使模型更好地提取小目标几何特征信息,双向跨尺度加权特征金字塔结构实现了更高层次的特征融合。首先在奶牛运动通道处采集奶牛侧面图像作为数据集,为保证数据集质量,采用结构相似性算法剔除相似图像,共得到1452幅图像。然后对目标奶牛的前肢、后肢、乳房、尾部、腹部、头部、颈部和躯干8个部位进行标注并输入模型训练。测试结果表明,模型精确率为96.6%,召回率为94.6%,平均精度均值为97.1%,参数量为3.3×106,检测速度为6.2f/s。各部位精确率在90.3%~98.2%之间,平均精度均值为96.3%。与原始YOLO v8n-seg相比,YOLO v8n-seg-FCA-BiFPN的精确率提高3.2个百分点,召回率提高2.6个百分点,平均精度均值提高3.1个百分点,改进后的模型在参数量基本保持不变的情况下具有更强的鲁棒性。遮挡情况下该模型检测结果表明,精确率为93.8%,召回率为91.67%,平均精度均值为93.15%。结果表明,YOLO v8n-seg-FCA-BiFPN网络可以准确、快速地实现奶牛身体部位精准分割。  相似文献   

2.
山羊的脸部检测对羊场的智能化管理有着重要的意义。针对实际饲养环境中,羊群存在多角度、分布随机、灵活多变、羊脸检测难度大的问题,以YOLO v5s为基础目标检测网络,提出了一种结合坐标信息的山羊脸部检测模型。首先,通过移动设备获取舍内、舍外、单头以及多头山羊的图像并构建数据集。其次,在YOLO v5s的主干网络融入坐标注意力机制,以充分利用目标的位置信息,提高遮挡区域、小目标、多视角样本的检测精度。试验结果表明,改进YOLO v5s模型的检测精确率为95.6%,召回率为83.0%,mAP0.5为90.2%,帧速率为69 f/s,模型内存占用量为13.2 MB;与YOLO v5s模型相比,检测精度提高1.3个百分点,模型所占内存空间减少1.2 MB;且模型的整体性能远优于Faster R-CNN、YOLO v4、YOLO v5s模型。此外,本文构建了不同光照和相机抖动的数据集,来进一步验证本文方法的可行性。改进后的模型可快速有效地对复杂场景下山羊的脸部进行精准检测及定位,为动物精细化养殖时目标检测识别提供了检测思路和技术支持。  相似文献   

3.
为在自然环境下自动准确地检测樱桃番茄果实的成熟度,实现樱桃番茄果实自动化采摘,根据成熟期樱桃番茄果实表型特征的变化以及国家标准GH/T 1193—2021制定了5级樱桃番茄果实成熟度级别(绿熟期、转色期、初熟期、中熟期和完熟期),并针对樱桃番茄相邻成熟度特征差异不明显以及果实之间相互遮挡问题,提出一种改进的轻量化YOLO v7模型的樱桃番茄果实成熟度检测方法。该方法将MobileNetV3引入YOLO v7模型中作为骨干特征提取网络,以减少网络的参数量,同时在特征融合网络中加入全局注意力机制(Global attention mechanism, GAM)模块以提高网络的特征表达能力。试验结果表明,改进的YOLO v7模型在测试集下的精确率、召回率和平均精度均值分别为98.6%、98.1%和98.2%,单幅图像平均检测时间为82 ms,模型内存占用量为66.5 MB。对比Faster R-CNN、YOLO v3、YOLO v5s和YOLO v7模型,平均精度均值分别提升18.7、0.2、0.3、0.1个百分点,模型内存占用量也最少。研究表明改进的YOLO v7模型能够为樱桃番茄果实的自...  相似文献   

4.
基于YOLO v5-MDC的重度粘连小麦籽粒检测方法   总被引:1,自引:0,他引:1  
小麦籽粒检测在千粒质量计算及作物育种方面有着重要应用,重度粘连籽粒的有效检测是其关键。本研究设计了一种YOLO v5-MDC的轻量型网络用于重度粘连小麦籽粒检测。该网络在YOLO v5s检测网络的基础上,用混合深度可分离卷积(Mixed depthwise convolutional, MDC)模块进行改进,同时将MDC模块与压缩激励(Squeeze and excitation, SE)模块相结合,以达到在基本不损失模型精度的前提下减少模型参数的目的。YOLO v5-MDC网络将YOLO v5s特征提取网络骨干部分的卷积、归一化、激活函数(Convolution, Batch normal, Hardswish, CBH)模块替换为MDC模块,减少了模型的参数,经过500次迭代训练,模型的精确率P为93.15%,召回率R为99.96%,平均精度均值(mAP)为99.46%。根据模型在测试集上的检测效果,本研究探究了训练次数、不同光源与不同拍摄距离对模型检测结果的影响,统计结果表明,在绿色光源下模型检测精确率最高,为98.00%,在5 cm拍摄高度下图像的检测精确率最高,为98.60%...  相似文献   

5.
为方便调查宁夏全区荒漠草原植物种类及其分布,需对植物识别方法进行研究。针对YOLO v5s模型参数量大,对复杂背景下的植物不易识别等问题,提出一种复杂背景下植物目标识别轻量化模型YOLO v5s-CBD。改进模型YOLO v5s-CBD在特征提取网络中引入带有Transformer模块的主干网络BoTNet(Bottleneck transformer network),使卷积和自注意力相结合,提高模型的感受野;同时在特征提取网络融入坐标注意力(Coordinate attention, CA),有效捕获通道和位置的关系,提高模型的特征提取能力;引入SIoU函数计算回归损失,解决预测框与真实框不匹配问题;使用深度可分离卷积(Depthwise separable convolution, DSC)减小模型内存占用量。实验结果表明,YOLO v5s-CBD模型在单块Nvidia GTX A5000 GPU单幅图像推理时间仅为8 ms,模型内存占用量为8.9 MB,精确率P为95.1%,召回率R为92.9%,综合评价指标F1值为94.0%,平均精度均值(mAP)为95.7%,在VOC数据集...  相似文献   

6.
针对肉牛行为识别过程中,多目标骨架提取精度随目标数量增多而大幅降低的问题,提出了一种改进YOLO v3算法(Not classify RFB-YOLO v3,NC-YOLO v3),在主干网络后引入RFB(Receptive field block)扩大模型感受野,剔除分类模块提高检测效率,结合8SH(8-Stacked Hourglass)算法实现实际养殖环境下的肉牛多目标检测与骨架提取。实验为肉牛骨架设置16个关键节点形成肉牛骨架点位信息,通过对图像多尺度和多方向训练提高检测精度。针对多目标骨架提取模型检测的关键点信息进行统计分析,提出一种对肉牛站立和卧倒行为识别的方法。实验结果表明:在目标检测方面,NC-YOLO v3模型的召回率可达99.00%,精度可达97.80%,平均精度可达97.18%。与原模型相比,平均精度提高4.13个百分点,去除的网络参数量为13.81 MB;在单牛骨架提取方面,采用8层堆叠的Hourglass网络检测关键点位置,平均精度均值可达90.75%;在多牛骨架提取方面,NC-YOLO v3构建的模型相对于YOLO v3构建的模型,平均精度均值提高4.11个...  相似文献   

7.
芽眼检测是马铃薯种薯智能切块首先要解决的问题,为实现种薯芽眼精准高效检测,提出了一种基于改进YOLO v5s的马铃薯种薯芽眼检测方法。首先通过加入CBAM注意力机制,加强对马铃薯种薯芽眼图像的特征学习和特征提取,同时弱化与芽眼相似的马铃薯种薯表面背景对检测结果的影响。其次引入加权双向特征金字塔BiFPN增加经骨干网络提取的种薯芽眼原始信息,为不同尺度特征图赋予不同权重,使得多尺度特征融合更加合理。最后替换为改进的高效解耦头Decoupled Head区分回归和分类,加快模型收敛速度,进一步提升马铃薯种薯芽眼检测性能。试验结果表明,改进YOLO v5s模型准确率、召回率和平均精度均值分别为93.3%、93.4%和95.2%;相比原始YOLO v5s模型,平均精度均值提高3.2个百分点,准确率、召回率分别提高0.9、1.7个百分点;不同模型对比分析表明,改进YOLO v5s模型与Faster R-CNN、YOLO v3、YOLO v6、YOLOX和YOLO v7等模型相比有着较大优势,平均精度均值分别提高8.4、3.1、9.0、12.9、4.4个百分点。在种薯自动切块芽眼检测试验中,改进Y...  相似文献   

8.
为了实现复杂环境下农业机器人对番茄果实的快速准确识别,提出了一种基于注意力机制与改进YOLO v5s的温室番茄目标快速检测方法。根据YOLO v5s模型小、速度快等特点,在骨干网络中加入卷积注意力模块(CBAM),通过串联空间注意力模块和通道注意力模块,对绿色番茄目标特征给予更多的关注,提高识别精度,解决绿色番茄在相似颜色背景中难识别问题;通过将CIoU Loss替换GIoU Loss作为算法的损失函数,在提高边界框回归速率的同时提高果实目标定位精度。试验结果表明,CB-YOLO网络模型对温室环境下红色番茄检测精度、绿色番茄检测精度、平均精度均值分别为99.88%、99.18%和99.53%,果实检测精度和平均精度均值高于Faster R-CNN模型、YOLO v4-tiny模型和YOLO v5模型。将CB-YOLO模型部署到安卓手机端,通过不同型号手机测试,验证了模型在移动终端设备上运行的稳定性,可为设施环境下基于移动边缘计算的机器人目标识别及采收作业提供技术支持。  相似文献   

9.
针对自然环境下油茶果存在严重遮挡、近景色、小目标等现象,使用YOLO网络存在检测精度低、漏检现象严重等问题,提出对YOLO v8n网络进行改进。首先使用MPDIOU作为YOLO v8n的损失函数,有效解决因为果实重叠导致的漏检问题;其次调整网络,向其中加入小目标检测层,使网络能够关注小目标油茶以及被树叶遮挡的油茶;最后使用SCConv作为特征提取网络,既能兼顾检测精度又能兼顾检测速度。改进COF-YOLO v8n网络精确率、召回率、平均精度均值分别达到97.7%、97%、99%,比未改进的YOLO v8n分别提高3.2、4.8、2.4个百分点,其中严重遮挡情况下油茶检测精确率、召回率、平均精度均值分别达到 95.9%、95%、98.5%,分别比YOLO v8n提高4.0、9.1、4.6个百分点。因此改进后COF-YOLO v8n网络能够明显提高油茶在严重遮挡、近景色、小目标均存在情况下的识别精度,减小油茶的漏检。此外,模型能够实现动、静态输入条件下油茶果计数。动态计数借鉴DeepSORT算法的多目标跟踪思想,将改进后COF-YOLO v8n的识别输出作为DeepSORT的输入,实现油茶果实的追踪计数。所得改进模型具有很好的鲁棒性,且模型简单可以嵌入到边缘设备中,不仅可用于指导自动化采收,还可用于果园产量估计,为果园物流分配提供可靠借鉴。  相似文献   

10.
为准确高效地实现无接触式奶山羊个体识别,以圈养环境下奶山羊面部图像为研究对象,提出一种基于改进YOLO v5s的奶山羊个体识别方法。首先,从网络上随机采集350幅羊脸图像构成羊脸面部检测数据集,使用迁移学习思想预训练YOLO v5s模型,使其能够检测羊脸位置。其次,构建包含31头奶山羊3 844幅不同生长期的面部图像数据集,基于预训练的YOLO v5s,在特征提取层中引入SimAM注意力模块,增强模型的学习能力,并在特征融合层引入CARAFE上采样模块以更好地恢复面部细节,提升模型对奶山羊个体面部的识别精度。实验结果表明,改进YOLO v5s模型平均精度均值为97.41%,比Faster R-CNN、SSD、YOLO v4模型分别提高6.33、8.22、15.95个百分点,比YOLO v5s模型高2.21个百分点,改进模型检测速度为56.00 f/s,模型内存占用量为14.45 MB。本文方法能够准确识别具有相似面部特征的奶山羊个体,为智慧养殖中的家畜个体识别提供了一种方法支持。  相似文献   

11.
基于YOLO v7-ECA模型的苹果幼果检测   总被引:1,自引:0,他引:1  
为实现自然环境下苹果幼果的快速准确检测,针对幼果期苹果果色与叶片颜色高度相似、体积微小、分布密集,识别难度大的问题,提出了一种融合高效通道注意力(Efficient channel attention, ECA)机制的改进YOLO v7模型(YOLO v7-ECA)。在模型的3条重参数化路径中插入ECA机制,可在不降低通道维数的前提下实现相邻通道局部跨通道交互,有效强调苹果幼果重要信息、抑制冗余无用特征,提高模型效率。采集自然环境下苹果幼果图像2 557幅作为训练样本、547幅作为验证样本、550幅作为测试样本,输入模型进行训练测试。结果表明,YOLO v7-ECA网络模型准确率为97.2%、召回率为93.6%、平均精度均值(Mean average precision, mAP)为98.2%、F1值为95.37%。与Faster R-CNN、SSD、Scaled-YOLO v4、YOLO v5、YOLO v6、YOLO v7网络模型相比,其mAP分别提高15.5、4.6、1.6、1.8、3.0、1.8个百分点,准确率分别提高49.7、0.9、18.5、1.2、0.9、1.0个百分点,...  相似文献   

12.
基于DeepSORT算法的肉牛多目标跟踪方法   总被引:1,自引:0,他引:1  
肉牛的运动行为反映其健康状况,在实际养殖环境下如何识别肉牛并对其进行跟踪,对感知肉牛的运动行为至关重要。基于YOLO v3改进算法(LSRCEM-YOLO),利用视频监控实现了实际养殖环境下的肉牛实时跟踪。该方法采用MobileNet v2作为目标检测骨干网络,根据肉牛分布不均、目标尺度变化较大的特点,提出通过添加长短距离语义增强模块(LSRCEM)进行多尺度融合,结合Mudeep重识别模型实现了肉牛多目标跟踪。结果表明:在目标检测方面,LSRCEM-YOLO的mAP值达到了92.3%,模型参数量仅为YOLO v3的10%,相比YOLO v3-tiny也降低了31.34%;在肉牛重识别方面,采用基于调整感受野的Mudeep模型,获得了更多的多尺度特征,其Rank-1指标达到了96.5%;多目标跟踪的多目标跟踪准确率相对于DeepSORT算法从32.3%提高到了45.2%,ID switch次数降低了69.2%。本文方法可为实际环境下的肉牛行为实时跟踪、行为感知提供技术参考。  相似文献   

13.
基于改进YOLO v3的自然场景下冬枣果实识别方法   总被引:4,自引:0,他引:4  
为实现自然场景下冬枣果实的快速、精准识别,考虑到光线变化、枝叶遮挡、果实密集重叠等复杂因素,基于YOLO v3深度卷积神经网络提出了一种基于改进YOLO v3(YOLO v3-SE)的冬枣果实识别方法。YOLO v3-SE模型利用SE Net 的SE Block结构将特征层的特征权重校准为特征权值,强化了有效特征,弱化了低效或无效特征,提高了特征图的表现能力,从而提高了模型识别精度。YOLO v3-SE模型经过训练和比较,选取0.55作为置信度最优阈值用于冬枣果实检测,检测结果准确率P为88.71%、召回率R为83.80%、综合评价指标F为86.19%、平均检测精度为82.01%,与YOLO v3模型相比,F提升了2.38个百分点,mAP提升了4.78个百分点,检测速度无明显差异。为检验改进模型在冬枣园自然场景下的适应性,在光线不足、密集遮挡和冬枣不同成熟期的情况下对冬枣果实图像进行检测,并与YOLO v3模型的检测效果进行对比,结果表明,本文模型召回率提升了2.43~5.08个百分点,F提升了1.75~2.77个百分点,mAP提升了2.38~4.81个百分点,从而验证了本文模型的有效性。  相似文献   

14.
为实现作物病害早期识别,本文提出一种基于红外热成像和改进YOLO v5的作物病害早期检测模型,以CSPD-arknet为主干特征提取网络,YOLO v5 stride-2卷积替换为SPD-Conv模块,分别为主干网络中的5个stride-2卷积层和Neck中的2个stride-2卷积层,可以提高其准确性,同时保持相同级别的参数大小,并向下阶段输出3个不同尺度的特征层;为增强建模通道之间的相互依赖性,自适应地重新校准通道特征响应,引入SE机制提升特征提取能力;为减少模型计算量,提高模型速度,引入SPPF。经测试,改进后YOLO v5网络检测性能最佳,mAP为95.7%,相比YOLO v3、YOLO v4、SSD和YOLO v5网络分别提高4.7、8.8、19.0、3.5个百分点。改进后模型相比改进前对不同温度梯度下的作物病害检测也有提高,5个梯度mAP分别为91.0%、91.6%、90.4%、92.6%和94.0%,分别高于改进前3.6、1.5、7.2、0.6、0.9个百分点。改进YOLO v5网络内存占用量为13.755MB,低于改进前基础模型3.687MB。结果表明,改进YOLO v5可以准确快速地实现病害早期检测。  相似文献   

15.
针对自然环境下棉花叶片病害检测难度大和人工设计特征提取器难以获取与棉叶病虫害相近特征表达的问题,提出一种改进的注意力机制YOLO v7算法(CBAM-YOLO v7)。该模型在YOLO v7模型基础上,在Backbone与Head中间增加注意力机制CBAM,并在Head部进行4倍下采样,然后将CBAM-YOLO v7模型用于棉叶病虫害识别,并与YOLO v5和YOLO v7进行对比试验。试验结果表明:蚜虫和正常叶片检测方面,YOLO v7可取得好的检测结果;CBAM-YOLO v7对黄萎病、棉盲蝽、红蜘蛛棉叶病虫害图像检测的准确率高于其他模型。CBAM-YOLO v7的mAP为85.5%,相较于YOLO v5提高21个百分点,相较于YOLO v7提高4.9个百分点;单幅图检测耗时为29.26ms,可为棉叶病害在线监测提供理论基础。  相似文献   

16.
为了能准确检测、跟踪加州鲈鱼因水中溶解氧含量低产生的胁迫行为,本文构建了一种改进的YOLO v5与DeepSORT组合网络算法。在算法方面提出2个改进方案:在原YOLO v5的Backbone和Neck中分别加入2个基于移位窗口的自注意力Swin Transformer模块,提升了网络对目标特征信息的提取能力,以此提升原模型的检测效果;采用Warmup和Cosine Annealing结合的学习率策略,使多目标跟踪算法DeepSORT前期收敛速度更快、更稳定。实验结果表明,在目标检测方面,相对于原YOLO v5,改进的YOLO v5的mAP@0.5、mAP@0.5:0.95和召回率分别提升1.9、1.3、0.8个百分点,在不完全遮挡情况下,改进的算法表现出更好的检测效果。在目标跟踪方面,DeepSORT算法的MOTA、MOTP和IDF1分别提升4.0、0.7、10.7个百分点,并且加州鲈鱼在遮挡前后的ID切换频率得到明显抑制。改进的YOLO v5与DeepSORT跟踪算法更适合于检测、跟踪加州鲈鱼的低氧胁迫行为,能够为加州鲈鱼的养殖提供技术支持。  相似文献   

17.
针对高架栽培模式下的大棚草莓,借鉴人体姿态检测算法,建立了改进YOLO v8-Pose模型对红熟期草莓进行识别与果柄关键点检测。通过对比YOLO v5-Pose、YOLO v7-Pose、YOLO v8-Pose模型,确定使用YOLO v8-Pose模型作为对红熟期草莓识别与关键点预测的模型。以YOLO v8-Pose为基础,对其网络结构添加Slim-neck模块与CBAM注意力机制模块,提高模型对小目标物体的特征提取能力,以适应草莓数据集的特点。改进YOLO v8-Pose能够有效检测红熟期草莓并准确标记出果柄关键点,P、R、mAP-kp分别为98.14%、94.54%、97.91%,比YOLO v8-Pose分别提高5.41、5.31、8.29个百分点。模型内存占用量为22 MB,比YOLO v8-Pose的占用量小6 MB。此外,针对果园非结构化的特征,探究了光线、遮挡与拍摄角度对模型预测的影响。对比改进前后的模型在复杂环境下对红熟期草莓的识别与果柄预测情况,改进YOLO v8-Pose在受遮挡、光线和角度影响情况下的mAP-kp分别为94.52%、95.48%、94.63%,较...  相似文献   

18.
智能虫情测报灯下害虫的精准识别和分类是实现稻田虫情预警的前提,为解决水稻害虫图像识别过程中存在分布密集、体态微小、易受背景干扰等造成识别精度不高的问题,提出了一种基于MS-YOLO v7(Multi-Scale-YOLO v7)轻量化稻飞虱识别分类方法。首先,采用稻飞虱害虫诱捕装置搭建稻飞虱害虫采集平台,获取的稻飞虱图像构成ImageNet数据集。然后,MS-YOLO v7目标检测算法采用GhostConv轻量卷积作为主干网络,减小模型运行的参数量;在Neck部分加入CBAM注意力机制模块,有效强调稻飞虱区别度较高的特征通道,抑制沉冗无用特征,准确提取稻飞虱图像中的关键特征,动态调整特征图中不同通道的权重;将SPPCSPS空间金字塔池化模块替换SPPFS金字塔池化模块,提高网络模型对各分类样本的特征提取能力;同时将YOLO v7模型中的SiLU激活函数替换为Mish激活函数,增强网络的非线性表达能力。试验结果表明,改进后的MS-YOLO v7在测试集上的模型平均精度均值(Mean average precision,mAP)为95.7%,精确率(Precision)为96.4%,召回率(Recall)为94.2%,与Faster R-CNN、SSD、YOLO v5、YOLO v7网络模型相比mAP分别提高2.1、3.4、2.3、1.6个百分点,F1值分别提高2.7、4.1、2.5、1.4个百分点。改进后的模型内存占用量、参数量、浮点运算数分别为63.7MB、2.85×107、7.84×1010,相比YOLO v7模型分别缩减12.5%、21.7%、25.4%,MS-YOLO v7网络模型对稻飞虱种间害虫均能实现高精度的识别与分类,具有较好的鲁棒性,可为稻田早期稻飞虱虫情预警提供技术支持。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号