共查询到18条相似文献,搜索用时 125 毫秒
1.
猪只计数是屠宰场生产管理、资产估计的重要环节。针对当前屠宰场猪只数量统计过程中人工计数耗时长、错误率高的问题,提出了一种基于改进YOLO v5-StrongSORT的屠宰场猪只精准计数方法。首先,在改进YOLO v5模型中引入真实宽高损失与纵横比以提升损失函数性能,并在Neck层引入高效通道注意力机制(Efficient channel attention, ECA),提升模型在复杂环境下的识别能力。然后,基于StrongSORT构建检测机制实现对猪只的重识别。最后,基于StrongSORT提出了一种区域ID信息检测的猪只计数方法。试验结果表明,改进YOLO v5模型对猪只识别精确率为93.78%,召回率为91.98%,平均精度均值为96.29%,识别速度为500f/s,较YOLO v5s模型召回率提高1.14个百分点,平均精度均值提高0.89个百分点,识别速度提高85.0%。将改进YOLO v5与StrongSORT区域计数方法结合进行猪只计数的准确率为98.46%,计数速率为73f/s,较人工计数准确率提高1.54个百分点,较原始模型计数准确率提高9.23个百分点,计数速率提高21.87%。本研究猪只计数方法具有较高的计数精度,适用于屠宰场猪只数量统计。 相似文献
2.
为提高对樱桃果实识别的准确率,提升果园自动采摘机器人的工作效率,使用采集到的樱桃原始图像以及其搭配不同数据增强方式得到的数据图像共1816幅建立数据集,按照8∶2将数据集划分成训练集与测试集。基于深度学习网络,利用YOLO v5模型分别对不同数据增强方式以及组合增强方式扩增后的樱桃数据集进行识别检测,结果表明离线增强与在线增强均对模型精度提升有一定的正向促进作用,其中采用离线数据增强策略能够显著且稳定的增加检测精度,在线数据增强策略能够小幅度提高检测精度,同时使用离线增强以及在线增强能够最大幅度的提升平均检测精度。针对樱桃果实之间相互遮挡以及图像中的小目标樱桃检测难等导致自然环境下樱桃果实检测精度低的问题,本文将YOLO v5的骨干网络进行改动,增添具有注意力机制的Transformer模块,Neck结构由原来的PAFPN改成可以进行双向加权融合的BiFPN,Head结构增加了浅层下采样的P2模块,提出一种基于改进YOLO v5的自然环境下樱桃果实的识别网络。实验结果表明:相比于其他已有模型以及单一结构改进后的YOLO v5模型,本文提出的综合改进模型具有更高的检测精度,使平均精度均值2提高了29个百分点。结果表明该方法有效的增强了识别过程中特征融合的效率和精度,显著地提高了樱桃果实的检测效果。同时,本文将训练好的网络模型部署到安卓(Android)平台上。该系统使用简洁,用户设备环境要求不高,具有一定的实用性,可在大田环境下对樱桃果实进行准确检测,能够很好地满足实时检测樱桃果实的需求,也为自动采摘等实际应用奠定了基础。 相似文献
3.
奶牛体况评分是评价奶牛产能与体态健康的重要指标。目前,随着现代化牧场的发展,智能检测技术已被应用于奶牛精准养殖中。针对目前检测算法的参数量多、计算量大等问题,以YOLO v5s为基础,提出了一种改进的轻量级奶牛体况评分模型(YOLO-MCE)。首先,通过2D摄像机在奶牛挤奶通道处采集奶牛尾部图像并构建奶牛BCS数据集。其次,在MobileNetV3网络中融入坐标注意力机制(Coordinate attention, CA)构建M3CA网络。将YOLO v5s的主干网络替换为M3CA网络,在降低模型复杂度的同时,使得网络特征提取时更关注于牛尾区域的位置和空间信息,从而提高了运动模糊场景下的检测精度。YOLO v5s预测层采用EIoU Loss损失函数,优化了目标边界框回归收敛速度,生成定位精准的预测边界框,进而提高了模型检测精度。试验结果表明,改进的YOLO v5s模型的检测精度为93.4%,召回率为85.5%,mAP@0.5为91.4%,计算量为2.0×109,模型内存占用量仅为2.28 MB。相较原始YOLO v5s模型,其计算量降低87.3%,模型内存占用量减... 相似文献
4.
猪只盘点是生猪规模化养殖和管理中的重要环节,人工计数方法费时、费力,在大数据量的猪只盘点中容易出错。本文使用多尺度感知网络对高密度猪群图像中的猪只进行计数。通过对人群计数网络CSRNet的改进,得到猪只计数网络(Pig counting net, PCN),PCN采用VGG16作为前端网络提取特征,中间层采用空间金字塔(Spatial pyramid)结构对图像中的多尺度信息进行提取与融合,后端网络采用改进的膨胀卷积网络。PCN增加了多尺度感知结构、扩大了后端网络感受野,通过感知多尺度特征得到预测密度图,预测密度图反映了猪只空间分布,通过对密度图积分实现了猪只数量的估计。结果表明,在平均猪只数为 40.71的测试集图像上,PCN的计数准确率优于人群计数网络 MCNN、CSRNet和改进Counting CNN 的猪只计数网络,MAE和RMSE 分别为1.74和 2.28,表现出较高的准确性和鲁棒性;单幅图像平均识别时间为0.108s,满足实时处理要求。 相似文献
5.
日常行为是家畜健康状况的重要体现,在传统的行为识别方法中,通常需要人工或者依赖工具对家畜进行观察。为解决以上问题,基于YOLO v5n模型,提出了一种高效的绵羊行为识别方法,利用目标识别算法从羊圈斜上方的视频序列中识别舍养绵羊的进食、躺卧以及站立行为。首先用摄像头采集养殖场中羊群的日常行为图像,构建绵羊行为数据集;其次在YOLO v5n的主干特征提取网络中引入SE注意力机制,增强全局信息交互能力和表达能力,提高检测性能;采用GIoU损失函数,减少训练模型时的计算开销并提升模型收敛速度;最后,在Backbone主干网络中引入GhostConv卷积,有效地减少了模型计算量和参数量。实验结果表明,本研究提出的GS-YOLO v5n目标检测方法参数量仅为1.52×106,相较于原始模型YOLO v5n减少15%;浮点运算量为3.3×109,相较于原始模型减少30%;且平均精度均值达到95.8%,相比于原始模型提高4.6个百分点。改进后模型与当前主流的YOLO系列目标检测模型相比,在大幅减少模型计算量和参数量的同时,检测精度均有较高提升。在边缘设备上进行部署,达到了实时检测要求,可准确快速地对绵羊进行定位并检测。 相似文献
6.
为实现复杂自然环境下对桑树嫩叶处枝干的识别检测,改变当前桑叶采摘设备作业过程中依赖人工辅助定位的现状,解决识别目标姿态多样和环境复杂导致的低识别率问题,提出一种基于改进YOLO v5模型的桑树枝干识别模型(YOLO v5-mulberry),并结合深度相机构建定位系统。首先,在YOLO v5的骨干网络中加入CBAM(Convolutional block attention module)注意力机制,提高神经网络对桑树枝干的关注度;并增加小目标层使模型可检测4像素×4像素的目标,提高了模型检测小目标的性能;同时使用GIoU损失函数替换原始网络中的IoU损失函数,有效防止了预测框和真实框尺寸较小时无法正确反映预测框及真实框之间位置关系的情况;随后,完成深度图和彩色图的像素对齐,通过坐标系转换获取桑树枝干三维坐标。试验结果表明:YOLO v5-mulberry检测模型的平均精度均值为94.2%,较原模型提高16.9个百分点,置信度也提高12.1%;模型室外检测时应检测目标数53,实际检测目标数为48,检测率为90.57%;桑树嫩叶处枝干三维坐标识别定位系统的定位误差为(9.498 5 mm... 相似文献
《农业机械学报》2024,55(11)
8.
目前农业环境下的无序目标的精确计数有很高的应用需求,这种计数对其生物量、生物密度管理起到了重要的指导作用。如黑水虻幼虫目标追踪过程中,追踪对象具有高速和非线性的特征,常规算法存在追踪目标速度不足和丢失目标后的再识别困难等问题。针对以上问题,本文提出了一种改进SORT算法,通过改进卡尔曼滤波模型的方式提升目标追踪算法的快速性和准确性,提升了计数的精度。另外,针对黑水虻幼虫目标识别过程中幼虫性状的多样性和混料导致的复杂背景问题,本文通过实验对比多种深度学习网络性能选定YOLO v5s算法提取图像多维度特征,提升了目标识别精度。实验结果表明:在划线计数方面,本文提出的改进SORT算法与原模型相比,平均精度从91.36%提升到95.55%,提升4.19个百分点,通过仿真和实际应用,证明了本文模型的有效性;在目标识别方面,使用YOLO v5s模型在训练集上帧率为156f/s,mAP@0.5为99.10%,精度为90.11%,召回率为99.22%,综合性能优于其他网络。 相似文献
9.
为准确高效地实现无接触式奶山羊个体识别,以圈养环境下奶山羊面部图像为研究对象,提出一种基于改进YOLO v5s的奶山羊个体识别方法。首先,从网络上随机采集350幅羊脸图像构成羊脸面部检测数据集,使用迁移学习思想预训练YOLO v5s模型,使其能够检测羊脸位置。其次,构建包含31头奶山羊3 844幅不同生长期的面部图像数据集,基于预训练的YOLO v5s,在特征提取层中引入SimAM注意力模块,增强模型的学习能力,并在特征融合层引入CARAFE上采样模块以更好地恢复面部细节,提升模型对奶山羊个体面部的识别精度。实验结果表明,改进YOLO v5s模型平均精度均值为97.41%,比Faster R-CNN、SSD、YOLO v4模型分别提高6.33、8.22、15.95个百分点,比YOLO v5s模型高2.21个百分点,改进模型检测速度为56.00 f/s,模型内存占用量为14.45 MB。本文方法能够准确识别具有相似面部特征的奶山羊个体,为智慧养殖中的家畜个体识别提供了一种方法支持。 相似文献
10.
针对已有杂草识别模型对复杂农田环境下多种目标杂草的识别率低、模型内存占用量大、参数多、识别速度慢等问题,提出了基于YOLO v5的轻量化杂草识别方法。利用带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration,MSRCR)增强算法对部分图像数据进行预处理,提高边缘细节模糊的图像清晰度,降低图像中的阴影干扰。使用轻量级网络PP-LCNet重置了识别模型中的特征提取网络,减少模型参数量。采用Ghost卷积模块轻量化特征融合网络,进一步降低计算量。为了弥补轻量化造成的模型性能损耗,在特征融合网络末端添加基于标准化的注意力模块(Normalization-based attention module,NAM),增强模型对杂草和玉米幼苗的特征提取能力。此外,通过优化主干网络注意力机制的激活函数来提高模型的非线性拟合能力。在自建数据集上进行实验,实验结果显示,与当前主流目标检测算法YOLO v5s以及成熟的轻量化目标检测算法MobileNet v3-YOLO v5s、ShuffleNet v2-YOLO v5s比较,轻量化后杂草识别模型内存占用量为6.23MB,分别缩小54.5%、12%和18%;平均精度均值(Mean average precision,mAP)为97.8%,分别提高1.3、5.1、4.4个百分点。单幅图像检测时间为118.1ms,达到了轻量化要求。在保持较高模型识别精度的同时大幅降低了模型复杂度,可为采用资源有限的移动端设备进行农田杂草识别提供技术支持。 相似文献
11.
为提高梨叶片病害发生程度诊断的效率和准确性,本文提出基于全局上下文级联R-CNN网络(Global context Cascade R-CNN,GC-Cascade R-CNN)的梨叶病斑计数方法。模型的主干特征提取网络嵌入全局上下文模块(Global context feature model, GC-Model),建立有效的长距离和通道依赖,增强目标特征信息。引入特征金字塔网络(Feature pyramid network, FPN)融合浅层细节特征和深层丰富语义特征。使用ROI Align替换ROI Pooling进行区域特征聚集,增强目标特征表达。最后利用多层级联网络对目标区域进行边框回归和分类,完成病斑计数任务。在梨叶病斑图像测试中,模型的各类病斑平均精确率均值(Mean average precision, mAP)达89.4%,检测单幅图像平均耗时为0.347 s。结果表明,模型能够有效地从梨叶片病害图像中检测出多类病斑目标,尤其对叶片炭疽病斑检测效果提升显著;不同种类梨叶片病害病斑计数值与真实值回归实验决定系数R2均大于0.92,表明模型病斑计数... 相似文献
12.
针对茶叶病害检测面临的病害尺度多变、病害密集与遮挡等诸多问题,提出了一种多尺度自注意力茶叶病害检测方法(Multi-scale guided self-attention network, MSGSN)。该方法首先采用基于VGG16的多尺度特征提取模块,以获取茶叶病害图像在不同尺度下的局部细节特征,例如纹理和边缘等,从而有效表达多尺度的局部特征。其次,通过自注意力模块捕获茶叶图像中像素之间的全局依赖关系,实现病害图像全局信息与局部特征之间的有效交互。最后,采用通道注意力机制对多尺度特征进行加权融合,提升了模型对病害多尺度特征的表征能力,使其更加关注关键特征,从而提高了病害检测的准确性。实验结果表明,融合多尺度自注意力的茶叶病害检测方法在背景复杂、病害尺度多变等场景下具有更好的检测效果,平均精度均值达到92.15%。该方法可为茶叶病害的智能诊断提供参考依据。 相似文献
13.
针对单步多框检测器(Single shot multibox detector, SSD)网络模型参数多、小目标检测效果差、作物与杂草检测精度低等问题,提出一种基于多尺度融合模块和特征增强的杂草检测方法。首先将轻量网络MobileNet作为SSD模型的特征提取网络,并设计了一种多尺度融合模块,将浅层特征图先通过通道注意力机制增强图像中的关键信息,再将特征图经过不同膨胀系数的扩张卷积扩大感受野,最后将两条分支进行特征融合,对于检测小目标的浅层特征图,在包含较多小目标细节信息的同时,还包含丰富的语义信息。在此基础上对输出的6个特征图经过通道注意力机制进行特征增强。实验结果表明,本文提出的基于多尺度融合模块和特征增强的杂草检测模型,在自然环境下甜菜与杂草图像数据集中,平均检测精度可达88.84%,较标准SSD模型提高了3.23个百分点,参数量减少57.09%,检测速度提高88.44%,同时模型对小目标作物与杂草以及叶片交叠情况的检测能力均有提高。 相似文献
14.
葡萄簇目标的精准检测是实现估产、采摘等作业的前提,现有方法难以实现多品种葡萄簇的轻量化精准检测。为提高复杂自然场景下多品种葡萄簇检测准确性、鲁棒性与泛化性,提出一种基于改进 YOLOv8n模型的多品种葡萄簇检测模型 ESIC-YOLOv8n,该模型在 YOLOv8n的 Backbone和 Neck网络中分别添加 EMA和 SA注意力模块,以加强网络的特征提取和多尺度特征融合能力,降低因遮挡或重叠对葡萄簇检测的干扰,提高检测精度和召回率;在 Head把 CIoU替换成 Inner-CIoU,利用辅助框提高重叠目标检测的准确性,从而提升模型整体的检测准确性和泛化性。ESIC-YOLOv8n模型的检测精度为 87. 00%,召回率为 81. 60%,mAP为 88. 90%,F1值为 84. 21%,较原 YOLOv8n模型分别提高1. 05%、2. 90%、1. 48%和2. 00%。结果表明,ESIC-YOLOv8n模型具有准确率高、泛化性好、轻量化等优点,可为葡萄产量估计、采摘等研究提供技术支持。 相似文献
15.
基于改进YOLOv3-tiny的田间行人与农机障碍物检测 总被引:1,自引:0,他引:1
为实现农机自主作业中的避障需求,本文针对室外田间自然场景中因植被遮挡、背景干扰而导致障碍物难以检测的问题,基于嵌入式平台应用设备,提出了农机田间作业时行人和农机障碍物检测的改进模型,更好地平衡了模型的检测速度与检测精度。该改进模型以You only look once version 3 tiny(YOLOv3-tiny)为基础框架,融合其浅层特征与第2 YOLO预测层特征作为第3预测层,通过更小的预选框增加小目标表征能力;在网络关键位置的特征图中混合使用注意力机制中的挤压激励注意模块(Squeeze and excitation attention module,SEAM) 与卷积块注意模块(Convolutional block attention module,CBAM),通过强化检测目标关注以提高抗背景干扰能力。建立了室外环境下含农机与行人的共9405幅图像的原始数据集。其中训练集7054幅,测试集2351幅。测试表明本文模型的内存约为YOLOv3与单次多重检测器(Single shot multibox detector,SSD)模型内存的1/3和2/3;与YOLOv3-tiny相比,本文模型平均准确率(Mean average precision,mAP)提高11个百分点,小目标召回率(Recall)提高14百分点。在Jetson TX2嵌入式平台上本文模型的平均检测帧耗时122ms,满足实时检测要求。 相似文献
16.
17.
棉铃作为棉花重要的产量与品质器官,单株铃数、铃长、铃宽等相关表型性状一直是棉花育种的重要研究内容。为解决由于叶片遮挡导致传统静态图像检测方法无法获取全部棉铃数量的问题,提出了一种以改进Faster R-CNN、Deep Sort和撞线匹配机制为主要算法框架的棉铃跟踪计数方法,以实现在动态视频输入情况下对盆栽棉花棉铃的数量统计。采用基于特征金字塔的Faster R-CNN目标检测网络,融合导向锚框、Soft NMS等网络优化方法,实现对视频中棉铃目标更精确的定位;使用Deep Sort跟踪器通过卡尔曼滤波和深度特征匹配实现前后帧同一目标的相互关联,并为目标进行ID匹配;针对跟踪过程ID跳变问题设计了掩模撞线机制以实现动态旋转视频棉铃数量统计。试验结果表明:改进Faster R-CNN目标检测结果最优,平均测量精度mAP75和F1值分别为0.97和0.96,较改进前分别提高0.02和0.01;改进Faster R-CNN和Deep Sort跟踪结果最优,多目标跟踪精度为0.91,较Tracktor和Sort算法分别提高0.02和0.15;单株铃数计数结果决定系数、均方... 相似文献
18.
为实现香梨自动化采摘,本文以YOLO v7-S为基础模型,针对果园中香梨果实、果叶和枝干之间相互遮挡,不易精准检测的问题,设计了一种轻量化香梨目标检测M-YOLO v7-SCSN+F模型。该模型采用MobileNetv3作为骨干特征提取网络,引入协同注意力机制(Coordinate attention, CA)模块,将YOLO v7-S中的损失函数CIoU替换为SIoU,并联合Normalized Wasserstein distance (NWD)小目标检测机制,以增强网络特征表达能力和检测精度。基于傅里叶变换(Fourier transform, FT)的数据增强方法,通过分析图像频域信息和重建图像振幅分量生成新的图像数据,从而提高模型泛化能力。实验结果表明,改进的M-YOLO v7-SCSN+F模型在验证集上的平均精度均值(mAP)、精确率和召回率分别达到97.23%、97.63%和93.66%,检测速度为69.39 f/s,与Faster R-CNN、SSD、YOLO v3、YOLO v4、YOLO v5s、YOLO v7-S、YOLO v8n、RT-DETR-R50模型在验证集上进行性能比较,其平均精度均值(mAP)分别提高14.50、26.58、3.88、2.40、1.58、0.16、0.07、0.86个百分点。此外,改进的M-YOLO v7-SCSN+F模型内存占用量与YOLO v8n和RT-DETR-R50检测模型对比减少16.47、13.30 MB。本文提出的检测模型对成熟期香梨具有很好的目标检测效果,为背景颜色相近小目标检测提供参考,可为香梨自动化采摘提供有效的技术支持。 相似文献