首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 578 毫秒
1.
蛋鸭行为模式是判断笼养鸭养殖过程中健康状况及福利状态的重要指标,为了通过机器视觉实现识别蛋鸭多行为模式,提出了一种基于改进YOLO v4 (You only look once)的目标检测算法,不同的行为模式为蛋鸭的养殖管理方案提供依据。本文算法通过更换主干特征提取网络MobileNetV2,利用深度可分离卷积模块,在提升检测精度的同时降低模型参数量,有效提升检测速度。在预测输出部分引入无参数的注意力机制SimAM模块,进一步提升模型检测精度。通过使用本文算法对笼养蛋鸭行为验证集进行了检测,优化后模型平均精度均值达到96.97%,图像处理帧率为49.28 f/s,相比于原始网络模型,平均精度均值及处理速度分别提升5.03%和88.24%。与常用目标检测网络进行效果对比,改进YOLO v4网络相较于Faster R-CNN、YOLO v5、YOLOX的检测平均精度均值分别提升12.07%、30.6%及2.43%。将本文提出的改进YOLO v4网络进行试验研究,试验结果表明本文算法可以准确地对不同时段的笼养蛋鸭行为进行记录,根据蛋鸭表现出的不同行为模式来帮助识别蛋鸭的异常情况,如部分行为发...  相似文献   

2.
鸡群计数是鸡场资产评估中一项非常重要的工作。目前鸡场采用的人工计数方法,存在效率低下且计数准确度不稳定的问题。针对此问题,本文提出了一种基于改进YOLO v5s的蛋鸡个体识别与计数的方法。该方法为了消除真实复杂环境下产蛋箱、食槽等设施对蛋鸡个体识别带来的干扰,在YOLO v5s模型的Neck部分引入了SimAM注意力机制;为了扩大模型感受野,解决蛋鸡个体较小、识别困难的问题,将YOLO v5s模型的SPPF(空间金字塔池化模块)改为了SPPCSPC模块;为了尽可能多地提取蛋鸡有效特征,通过在YOLO v5s的Neck结构添加自适应特征融合模块ASFF,将不同尺度的蛋鸡成像特征信息进行融合的方法,进一步提升了模型的检测精度。在此基础上,通过调用模型检测接口,在接口内部添加计数函数、统计目标数量的方法,实现了蛋鸡个体的计数和鸡舍饲养密度的计算。将改进后的模型通过PyQt工具包进行封装、打包,开发了蛋鸡个体识别与自动计数系统。实验结果表明,改进的YOLO v5s模型的精准率、召回率、平均精度均值分别为89.91%、79.24%、87.53%,较YOLO v5s模型分别提高2.37、2.55、...  相似文献   

3.
为了实现复杂环境下农业机器人对番茄果实的快速准确识别,提出了一种基于注意力机制与改进YOLO v5s的温室番茄目标快速检测方法。根据YOLO v5s模型小、速度快等特点,在骨干网络中加入卷积注意力模块(CBAM),通过串联空间注意力模块和通道注意力模块,对绿色番茄目标特征给予更多的关注,提高识别精度,解决绿色番茄在相似颜色背景中难识别问题;通过将CIoU Loss替换GIoU Loss作为算法的损失函数,在提高边界框回归速率的同时提高果实目标定位精度。试验结果表明,CB-YOLO网络模型对温室环境下红色番茄检测精度、绿色番茄检测精度、平均精度均值分别为99.88%、99.18%和99.53%,果实检测精度和平均精度均值高于Faster R-CNN模型、YOLO v4-tiny模型和YOLO v5模型。将CB-YOLO模型部署到安卓手机端,通过不同型号手机测试,验证了模型在移动终端设备上运行的稳定性,可为设施环境下基于移动边缘计算的机器人目标识别及采收作业提供技术支持。  相似文献   

4.
针对自然环境下油茶果存在严重遮挡、近景色、小目标等现象,使用YOLO网络存在检测精度低、漏检现象严重等问题,提出对YOLO v8n网络进行改进。首先使用MPDIOU作为YOLO v8n的损失函数,有效解决因为果实重叠导致的漏检问题;其次调整网络,向其中加入小目标检测层,使网络能够关注小目标油茶以及被树叶遮挡的油茶;最后使用SCConv作为特征提取网络,既能兼顾检测精度又能兼顾检测速度。改进COF-YOLO v8n网络精确率、召回率、平均精度均值分别达到97.7%、97%、99%,比未改进的YOLO v8n分别提高3.2、4.8、2.4个百分点,其中严重遮挡情况下油茶检测精确率、召回率、平均精度均值分别达到 95.9%、95%、98.5%,分别比YOLO v8n提高4.0、9.1、4.6个百分点。因此改进后COF-YOLO v8n网络能够明显提高油茶在严重遮挡、近景色、小目标均存在情况下的识别精度,减小油茶的漏检。此外,模型能够实现动、静态输入条件下油茶果计数。动态计数借鉴DeepSORT算法的多目标跟踪思想,将改进后COF-YOLO v8n的识别输出作为DeepSORT的输入,实现油茶果实的追踪计数。所得改进模型具有很好的鲁棒性,且模型简单可以嵌入到边缘设备中,不仅可用于指导自动化采收,还可用于果园产量估计,为果园物流分配提供可靠借鉴。  相似文献   

5.
为了解决裂纹皮蛋分选中存在的效率低、人力成本高等问题,提出了一种基于改进YOLO v5的皮蛋裂纹在线检测方法。使用EfficientViT网络替换主干特征提取网络,并采用迁移学习对网络进行训练,分别得到YOLO v5n_EfficientViTb0和YOLO v5s_EfficientViTb1两个模型。YOLO v5n_EfficientViTb0为轻量化模型,相较于改进前参数量减少14.8%,浮点数计算量减少26.8%;YOLO v5s_EfficientViTb1为高精度检测模型,平均精度均值为87.8%。采用GradCAM++对模型可视化分析,得出改进模型减少了对背景区域的关注度,证明了改进模型的有效性。设计了视频帧的目标框匹配算法,实现了视频中皮蛋的目标追踪,依据皮蛋的检测序列实现了对皮蛋的定位和裂纹与否的判别。轻量化模型的判别准确率为92.0%,高精度模型的判别准确率为94.3%。研究结果表明,改进得到的轻量化模型为运算能力较差的皮蛋裂纹在线检测装备提供了解决方案,改进得到的高精度模型为生产要求更高的皮蛋裂纹在线检测装备提供了技术支持。  相似文献   

6.
肉牛目标检测和数量统计是精细化、自动化、智能化肉牛养殖要解决的关键问题,受肉牛个体颜色及纹理相近和遮挡等因素的影响,现有肉牛目标检测方法实用性较差。本研究基于YOLO v5s网络与通道信息注意力模块(ECABasicBlock),提出了一种融合通道信息的改进YOLO v5s网络(ECA-YOLO v5s),在YOLO v5s模型的骨干特征提取网络部分添加了3层通道信息注意力模块。ECA-YOLO v5s网络实现了重度遮挡环境下多目标肉牛的准确识别。对养殖场监控视频分帧得到的肉牛图像采用了一种基于结构相似性的冗余图像剔除方法以保证数据集质量。数据集制作完成后经过300次迭代训练,得到模型的精确率为89.8%,召回率为76.9%,全类平均精度均值为85.3%,检测速度为76.9 f/s,模型内存占用量为24 MB。与YOLO v5s模型相比,ECA-YOLO v5s的精确率、召回率和平均精度均值分别比YOLO v5s高1.0、0.8、2.2个百分点。为了验证不同注意力机制应用于YOLO v5s的性能差异,本研究对比了CBAM(Convolutional block attention mo...  相似文献   

7.
山羊的脸部检测对羊场的智能化管理有着重要的意义。针对实际饲养环境中,羊群存在多角度、分布随机、灵活多变、羊脸检测难度大的问题,以YOLO v5s为基础目标检测网络,提出了一种结合坐标信息的山羊脸部检测模型。首先,通过移动设备获取舍内、舍外、单头以及多头山羊的图像并构建数据集。其次,在YOLO v5s的主干网络融入坐标注意力机制,以充分利用目标的位置信息,提高遮挡区域、小目标、多视角样本的检测精度。试验结果表明,改进YOLO v5s模型的检测精确率为95.6%,召回率为83.0%,mAP0.5为90.2%,帧速率为69 f/s,模型内存占用量为13.2 MB;与YOLO v5s模型相比,检测精度提高1.3个百分点,模型所占内存空间减少1.2 MB;且模型的整体性能远优于Faster R-CNN、YOLO v4、YOLO v5s模型。此外,本文构建了不同光照和相机抖动的数据集,来进一步验证本文方法的可行性。改进后的模型可快速有效地对复杂场景下山羊的脸部进行精准检测及定位,为动物精细化养殖时目标检测识别提供了检测思路和技术支持。  相似文献   

8.
冀汶莉  刘洲  邢海花 《农业机械学报》2024,55(1):212-222,293
针对已有杂草识别模型对复杂农田环境下多种目标杂草的识别率低、模型内存占用量大、参数多、识别速度慢等问题,提出了基于YOLO v5的轻量化杂草识别方法。利用带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration,MSRCR)增强算法对部分图像数据进行预处理,提高边缘细节模糊的图像清晰度,降低图像中的阴影干扰。使用轻量级网络PP-LCNet重置了识别模型中的特征提取网络,减少模型参数量。采用Ghost卷积模块轻量化特征融合网络,进一步降低计算量。为了弥补轻量化造成的模型性能损耗,在特征融合网络末端添加基于标准化的注意力模块(Normalization-based attention module,NAM),增强模型对杂草和玉米幼苗的特征提取能力。此外,通过优化主干网络注意力机制的激活函数来提高模型的非线性拟合能力。在自建数据集上进行实验,实验结果显示,与当前主流目标检测算法YOLO v5s以及成熟的轻量化目标检测算法MobileNet v3-YOLO v5s、ShuffleNet v2-YOLO v5s比较,轻量化后杂草识别模型内存占用量为6.23MB,分别缩小54.5%、12%和18%;平均精度均值(Mean average precision,mAP)为97.8%,分别提高1.3、5.1、4.4个百分点。单幅图像检测时间为118.1ms,达到了轻量化要求。在保持较高模型识别精度的同时大幅降低了模型复杂度,可为采用资源有限的移动端设备进行农田杂草识别提供技术支持。  相似文献   

9.
基于改进CenterNet的玉米雄蕊无人机遥感图像识别   总被引:2,自引:0,他引:2  
为准确识别抽雄期玉米雄蕊实现监测玉米长势、植株计数和估产,基于无锚框的CenterNet目标检测模型,通过分析玉米雄蕊的尺寸分布,并在特征提取网络中添加位置坐标,从而提出一种改进的玉米雄蕊识别模型。针对雄蕊尺寸较小的特点,去除CenterNet网络中对图像尺度缩小的特征提取模块,在降低模型参数的同时,提高检测速度。在CenterNet特征提取模型中添加位置信息,提高定位精度,降低雄蕊漏检率。试验结果表明,与有锚框的YOLO v4、Faster R-CNN模型相比,改进的CenterNet雄蕊检测模型对无人机遥感影像的玉米雄蕊识别精度达到92.4%,分别高于Faster R-CNN和YOLO v4模型26.22、3.42个百分点;检测速度为36f/s,分别比Faster R-CNN和YOLO v4模型高32、23f/s。本文方法能够准确地检测无人机遥感图像中尺寸较小的玉米雄蕊,为玉米抽雄期的农情监测提供参考。  相似文献   

10.
芽眼检测是马铃薯种薯智能切块首先要解决的问题,为实现种薯芽眼精准高效检测,提出了一种基于改进YOLO v5s的马铃薯种薯芽眼检测方法。首先通过加入CBAM注意力机制,加强对马铃薯种薯芽眼图像的特征学习和特征提取,同时弱化与芽眼相似的马铃薯种薯表面背景对检测结果的影响。其次引入加权双向特征金字塔BiFPN增加经骨干网络提取的种薯芽眼原始信息,为不同尺度特征图赋予不同权重,使得多尺度特征融合更加合理。最后替换为改进的高效解耦头Decoupled Head区分回归和分类,加快模型收敛速度,进一步提升马铃薯种薯芽眼检测性能。试验结果表明,改进YOLO v5s模型准确率、召回率和平均精度均值分别为93.3%、93.4%和95.2%;相比原始YOLO v5s模型,平均精度均值提高3.2个百分点,准确率、召回率分别提高0.9、1.7个百分点;不同模型对比分析表明,改进YOLO v5s模型与Faster R-CNN、YOLO v3、YOLO v6、YOLOX和YOLO v7等模型相比有着较大优势,平均精度均值分别提高8.4、3.1、9.0、12.9、4.4个百分点。在种薯自动切块芽眼检测试验中,改进Y...  相似文献   

11.
为了能准确检测、跟踪加州鲈鱼因水中溶解氧含量低产生的胁迫行为,本文构建了一种改进的YOLO v5与DeepSORT组合网络算法。在算法方面提出2个改进方案:在原YOLO v5的Backbone和Neck中分别加入2个基于移位窗口的自注意力Swin Transformer模块,提升了网络对目标特征信息的提取能力,以此提升原模型的检测效果;采用Warmup和Cosine Annealing结合的学习率策略,使多目标跟踪算法DeepSORT前期收敛速度更快、更稳定。实验结果表明,在目标检测方面,相对于原YOLO v5,改进的YOLO v5的mAP@0.5、mAP@0.5:0.95和召回率分别提升1.9、1.3、0.8个百分点,在不完全遮挡情况下,改进的算法表现出更好的检测效果。在目标跟踪方面,DeepSORT算法的MOTA、MOTP和IDF1分别提升4.0、0.7、10.7个百分点,并且加州鲈鱼在遮挡前后的ID切换频率得到明显抑制。改进的YOLO v5与DeepSORT跟踪算法更适合于检测、跟踪加州鲈鱼的低氧胁迫行为,能够为加州鲈鱼的养殖提供技术支持。  相似文献   

12.
对猕猴桃产量的准确预估有利于合理安排后续采摘与运输工序,因此开发智能化的产量实时预估工具非常重要。针对大棚培育的猕猴桃矮化密植、分布范围广等特点,本研究利用果园履带小车采集视频,结合人工标注,建立猕猴桃检测和跟踪的数据集。考虑到自制数据集中猕猴桃占比小及密集分布的特点,本文提出使用YOLO v7模型加上Soft-NMS来检测每一帧图像内的猕猴桃。在卡尔曼滤波器预测的结果上,引入VGG16网络对猕猴桃进行特征提取,并结合匈牙利算法完成帧间目标的匹配。最后采用基于YOLO v7+DeepSort跟踪算法的ID计数方法对猕猴桃进行产量估计。实验结果表明,改进的YOLO v7模型在猕猴桃检测数据集上表现良好,检测的F1值为90.09%。猕猴桃跟踪数据集中使用的跟踪算法平均准确率为89.87%,每个目标正确匹配的精确率为82.34%,大型视频跟踪速度为20.19 f/s。在环境影响较小的条件下,ID计数准确率为97.49%。该方法可为猕猴桃果园智能化管理中的估产、采收规划等提供技术支撑。  相似文献   

13.
针对大田蔬菜对靶施药过程中靶标难以精准识别定位的问题,以甘蓝为研究对象,进行基于深度学习的靶标在线识别方法与模型研究。对比3种当前性能较优的目标检测模型Faster R-CNN、SSD和YOLO v5s,选择YOLO v5s作为田间甘蓝识别迁移学习模型,提出一种MobileNet v3s主干特征提取网络与深度可分离卷积融合的YOLO-mdw大田甘蓝目标识别方法,实现复杂环境下的大田甘蓝实时识别;提出一种基于卡尔曼滤波和匈牙利算法的甘蓝目标定位方法,并将模型部署于NVIDIA Xavier NX开发板上。试验结果表明,YOLO-mdw识别模型在晴天、多云、阴雨天气条件下识别准确率分别为93.14%、94.75%和94.23%,图像处理时间为54.09 ms,相对于YOLO v5s模型用时缩短26.98%;速度不大于0.6 m/s时,识别准确率达94%,平均定位误差为4.13 cm,平均甘蓝直径识别误差为1.42 cm。该靶标识别系统能在大田复杂环境下对甘蓝进行实时识别定位,为对靶施药提供技术支持。  相似文献   

14.
针对肉牛行为识别过程中,多目标骨架提取精度随目标数量增多而大幅降低的问题,提出了一种改进YOLO v3算法(Not classify RFB-YOLO v3,NC-YOLO v3),在主干网络后引入 RFB(Receptive field block)扩大模型感受野,剔除分类模块提高检测效率,结合8SH(8-Stack...  相似文献   

15.
王玲  张旗  冯天赐  王一博  李雨桐  陈度 《农业机械学报》2023,54(10):188-197,204
针对小麦考种过程中籽粒堆积、粘连和遮挡现象导致计数准确率低等问题,本文基于电磁振动原理设计了高通量小麦籽粒振动分离装置,通过分析受力探讨了籽粒离散分离程度的主要影响因素,并引入二阶离散系数建立了籽粒离散度等级评价方法。在此基础上,引入Swin Transformer模块构建YOLO v7-ST模型,对不同离散度等级下小麦籽粒进行计数性能测试。试验结果表明,YOLO v7-ST模型在3种离散度等级下平均计数准确率、F1值和平均计数时间的总平均值分别为99.16%、93%和1.19 s,相较于YOLO v7、YOLO v5和Faster R-CNN模型,平均计数准确率分别提高1.03、2.34、15.44个百分点,模型综合评价指标F1值分别提高2、3、16个百分点,平均计数时间较YOLO v5和Faster R-CNN分别减少0.41 s和0.36 s,仅比YOLO v7模型增大0.09 s。因此,YOLO v7-ST模型可实现多种离散度等级下不同程度籽粒遮挡和粘连问题的准确快速检测,大幅提高小麦考种效率。  相似文献   

16.
为方便调查宁夏全区荒漠草原植物种类及其分布,需对植物识别方法进行研究。针对YOLO v5s模型参数量大,对复杂背景下的植物不易识别等问题,提出一种复杂背景下植物目标识别轻量化模型YOLO v5s-CBD。改进模型YOLO v5s-CBD在特征提取网络中引入带有Transformer模块的主干网络BoTNet(Bottleneck transformer network),使卷积和自注意力相结合,提高模型的感受野;同时在特征提取网络融入坐标注意力(Coordinate attention, CA),有效捕获通道和位置的关系,提高模型的特征提取能力;引入SIoU函数计算回归损失,解决预测框与真实框不匹配问题;使用深度可分离卷积(Depthwise separable convolution, DSC)减小模型内存占用量。实验结果表明,YOLO v5s-CBD模型在单块Nvidia GTX A5000 GPU单幅图像推理时间仅为8 ms,模型内存占用量为8.9 MB,精确率P为95.1%,召回率R为92.9%,综合评价指标F1值为94.0%,平均精度均值(mAP)为95.7%,在VOC数据集...  相似文献   

17.
面向果园运输车果品采收自主运输作业场景,提出了一种基于VINS-MONO和改进YOLO v4-Tiny的果园自主寻筐方法。首先基于VINS-MONO视觉惯性里程计算法,进行果园运输车位置姿态的实时估计。然后基于改进YOLO v4-Tiny目标检测算法,根据图像数据进行果筐实时目标检测并获取对应深度信息。其次根据运输车当前位置姿态、果筐深度信息以及深度相机内参,进行被识别果筐位置更新。最后基于三次B样条曲线拟合原理,以被识别果筐位置为控制点,进行寻筐路径实时拟合,为果园运输车抵近果筐提供路线引导。试验结果表明:改进YOLO v4-Tiny果筐识别模型的平均识别精度为93.96%,平均推理时间为14.7 ms, 4 m内的果筐距离定位误差小于4.02%,果筐角度定位误差小于3°,果园运输车实测平均行驶速度为3.3 km/h,果筐搜寻路线平均更新时间为0.092 s,能够在果树行间和果园道路两种作业环境下稳定实现自主寻筐。该方法能够为果园运输车提供自主寻筐路径引导,为其视觉导航提供研究参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号