首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 78 毫秒
1.
融合YOLO v5n与通道剪枝算法的轻量化奶牛发情行为识别   总被引:2,自引:2,他引:0  
及时、准确地监测奶牛发情行为是现代化奶牛养殖的必然要求。针对人工监测奶牛发情不及时、效率低等问题,该研究提出了一种融合YOLO v5n与通道剪枝算法的轻量化奶牛发情行为识别方法。在保证模型检测精度的基础上,基于通道剪枝算法,对包括CSPDarknet53主干特征提取网络等在内的模块进行了修剪,以期压缩模型结构与参数量并提高检测速度。为了验证算法的有效性,在2 239幅奶牛爬跨行为数据集上进行测试,并与Faster R-CNN、SSD、YOLOX-Nano和YOLOv5-Nano模型进行了对比。试验结果表明,剪枝后模型均值平均精度(mean Average Precision, mAP)为97.70%,参数量(Params)为0.72 M,浮点计算量(Floating Point operations, FLOPs)为0.68 G,检测速度为50.26 帧/s,与原始模型YOLOv5-Nano相比,剪枝后模型mAP不变的情况下,参数量和计算量分别减少了59.32%和49.63%,检测速度提高了33.71%,表明该剪枝操作可有效提升模型性能。与Faster R-CNN、SSD、YOLOX-Nano模型相比,该研究模型的mAP在与之相近的基础上,参数量分别减少了135.97、22.89和0.18 M,FLOPs分别减少了153.69、86.73和0.14 G,检测速度分别提高了36.04、13.22和23.02 帧/s。此外,对模型在不同光照、不同遮挡、多尺度目标等复杂环境以及新环境下的检测结果表明,夜间环境下mAP为99.50%,轻度、中度、重度3种遮挡情况下平均mAP为93.53%,中等尺寸目标和小目标情况下平均mAP为98.77%,泛化性试验中奶牛爬跨行为检出率为84.62%,误检率为7.69%。综上,该模型具有轻量化、高精度、实时性、鲁棒性强、泛化性高等优点,可为复杂养殖环境、全天候条件下奶牛发情行为的准确、实时监测提供借鉴。  相似文献   

2.
为提高金银花采摘机器人的工作效率和采摘精度,实现将模型方便快速部署到移动端,该研究提出一种基于改进YOLOv5s的轻量化金银花识别方法。用EfficientNet的主干网络替换YOLOv5s的Backbone层,并在改进之后的Backbone层加入原YOLOv5s的SPPF特征融合模块,减少了模型的参数量和计算量,同时降低模型权重的大小,便于之后移动端的部署;其次,为提高模型对于金银花的识别效果,该研究在Neck层中用CARAFE上采样模块替换原始模型中的上采样模块,在略微提高参数量的前提下提高了模型识别金银花的精确度和平均精度,提高了采摘效率。试验结果显示,改进后的轻量化模型参数量仅为3.89 × 106 M,为原始YOLOv5s模型的55.5%;计算量仅为7.8 GFLOPs,为原始模型的49.4%;权重仅为7.8 MB,为原始模型的57.4%,并且精确度和平均精度达到了90.7%和91.8%,相比原始YOLOv5s模型分别提高1.9和0.6个百分点。改进后的轻量化模型与当前主流的Faster-RCNN、SSD、YOLO系列目标检测模型相比,不但提高了检测精度,还大幅减少了模型的参数量、计算量和权重大小,研究结果为后续金银花采摘机器人的识别和移动端的部署提供了参考和依据。  相似文献   

3.
为解决草莓采摘过程中被遮挡及目标较小情况下漏检的问题,同时提升草莓的识别精度与计算速率,该研究提出了一种基于改进的轻量级Mobile-YOLOv5s草莓识别检测算法。首先,为了提高计算效率,使用了轻量化的MobileNetV3网络替代了原始的YOLOv5s主干网络,并引入了Alpha-IoU损失函数以加快模型的收敛速度,提高对重叠目标的识别准确率;其次,考虑到草莓目标较小的情况,使用K-Means++算法对原始YOLO的anchor进行重聚类,并增加了一个检测头,使其更加适应草莓的尺寸。试验结果表明,改进后的网络模型检测帧率为44帧/s,比原模型提升了15.7%;计算量为8.3×109/s,比原模型降低了48%;模型大小为4.5 MB,比原模型降低了41.5%;成熟草莓检测精度为99.5%,均值平均精度为99.4%,相较于原YOLOv5s算法分别提高了3.6和9.2个百分点。改进后的模型可以更快速、准确地识别出各阶段的草莓,为草莓智能化采摘提供技术支撑。  相似文献   

4.
基于改进YOLOv5s和迁移学习的苹果果实病害识别方法   总被引:8,自引:8,他引:0  
为实现对苹果果实病害的快速准确识别,提出了一种基于改进YOLOv5s的果实病害识别模型:GHTR2-YOLOv5s (YOLOv5s with Ghost structure and TR2 module),并通过迁移学习策略对其进行优化。在YOLOv5s基础上通过加入幻影结构和调整特征图整体宽度得到小型基线模型,通过卷积块注意力模块(Convolutional Block Attention Module, CBAM)和加权双向特征金字塔网络(Bidirectional Feature Pyramid Network, BIFPN)提高模型精度,使用TR2(Two Transformer)作为检测头增强模型对全局信息的获取能力。改进后模型大小和识别速度为2.06 MB和0.065 s/张,分别为YOLOv5s模型的1/6和2.5倍;IoU阈值为0.5下的平均精度均值(mAP0.5)达到0.909,能快速准确地识别苹果果实病害。研究通过在线图像增强与迁移学习相结合的方式提高模型收敛速度,进一步提高模型精度,其mAP0.5达到0.916,较原始模型提升8.5%。试验结果表明,该研究提出的基于GHTR2-YOLOv5s和迁移学习的苹果病害识别方法有效优化了模型训练过程,实现了占用较少计算资源的情况下对苹果病害进行快速准确地识别。  相似文献   

5.
为解决智能化采收中红花识别性能易受田间复杂环境、设备计算资源等限制的问题,该研究提出一种基于改进YOLOv8n的轻量化红花识别方法,以便将模型部署在移动端上进行目标检测。该研究应用Vanillanet轻量化网络结构代替YOLOv8n的骨干特征提取网络,降低了模型的复杂程度;将大型可分离核注意力模块(large separable kernel attention, LSKA)引入特征融合网络,以降低存储量和计算资源消耗;将YOLOv8n的损失函数从中心点与边界框的重叠联合(center intersection of union, CIoU)替换为动态非单调的聚焦机制(wise intersection of union, WIoU)提升检测器的总体性能;并选用随机梯度下降算法(stochastic gradient descent, SGD)进行模型训练,以提高模型鲁棒性。试验结果表明,改进后的轻量化模型每秒传输帧数(frames per second, FPS)为123.46帧/s,与原YOLOv8n模型相比提高了7.41%,而模型大小为3.00MB,仅为原来的50.17%,并且精确度(precision, P)和平均精度值(mean average precision, mAP)达到了93.10%和96.40%,与YOLOv5s与YOLOv7-tiny检测模型相比,FPS分别提高了25.93%和19.76%,模型大小为原模型的21.90%和25.86%,研究结果为后续红花的智能化采收装备研发提供技术支持。  相似文献   

6.
奶牛站立、喝水、行走、躺卧等日常行为与其生理健康密切相关,高效准确识别奶牛行为对及时掌握奶牛健康状况,提高养殖场经济效益具有重要意义。针对群体养殖环境下奶牛行为数据中,场景复杂、目标尺度变化大、奶牛行为多样等对行为识别造成的干扰,该研究提出一种改进YOLOV5s奶牛多尺度行为识别方法。该方法在骨干网络顶层引入基于通道的Transformer注意力机制使模型关注奶牛目标区域,同时对奶牛多尺度行为目标增加路径聚合结构的支路与检测器获取底层细节特征,并引入SE(Squeeze-and-Excitation Networks)注意力机制优化检测器,构建SEPH(SE Prediction Head)识别重要特征,提高奶牛多尺度行为识别能力。试验验证改进后的奶牛行为识别模型在无权重激增的同时,多尺度目标识别结果的平均精度均值较YOLOV5s提高1.2个百分点,尤其是对奶牛行走识别结果的平均精度4.9个百分点,研究结果为群体养殖环境下,全天实时监测奶牛行为提供参考。  相似文献   

7.
基于YOLOv5s的农田垃圾轻量化检测方法   总被引:2,自引:2,他引:0  
针对目前垃圾检测算法在农田复杂环境下检测精度不高、检测效率低,模型复杂等问题,该研究提出了基于YOLOv5s的农田垃圾轻量化检测方法。首先,使用轻量级分类网络ShuffleNetV2的构建单元作为特征提取网络,降低模型的计算量和参数量,提高运行速度,以满足移动端的应用要求;其次,为应对模型轻量化后带来的检测精度降低,该文相继对ShuffleNetV2的构建单元进行了卷积核扩大化改进和激活函数优化,在增加部分计算量的前提下提高了模型精度;此外,为增强模型在田间环境下对目标的精准定位能力,该研究针对边界框损失函数进行了优化,将CIoU边界框损失函数高宽纵横比的损失项拆分为预测框的高宽分别与最小外接框高宽的差值,然后通过不断迭代减小差值,提高模型的收敛速度和回归精度。试验结果显示,最终的改进模型检测精度达到了90.9%,此时检测速度为74 ms/帧,计算量仅为3.6 GFLOPs,与当前主流的目标检测算法SSD、YOLOv3等相比,不仅具有更优越的检测精度和推理速度,同时还大幅减少了计算量;最后,将改进前后的模型部署到Jetson TX1和Raspberry 4B 两种边缘计算设备上进行测试,测试结果表明,改进后的YOLOv5s模型在边缘计算设备上的检测速度相对原模型提高了至少20%,同时保持了较好的检测效果,平衡了边缘计算设备对精度和速度的性能需求,为田间垃圾检测任务提供了参考。  相似文献   

8.
鸭蛋裂纹检测技术对于禽蛋加工工厂实现智能化蛋品检测、分级具有重要意义。该研究针对鸭蛋裂纹检测流程复杂、计算量大、模型尺寸大等问题,提出了一种基于改进YOLOv5l(you only look once version5 large)的轻量裂纹检测算法,通过在黑暗条件下使用LED灯照射鸭蛋,根据裂纹蛋壳与完好蛋壳透光性不同产生的图像差异进行检测。通过在YOLOv5中引入Ghost_conv模块,大大减少了模型的浮点计算量和参数量,并在模型的骨干网络中加入ECA(efficient channel attention)注意力机制以及使用多尺度特征融合方法 BIFPN(bi-directional feature pyramid network),增加模型对有效信息的关注度,以提高算法检测精度。同时使用CIoU与α-IoU损失函数融合后替代YOLOv5原始GIoU函数加速回归预测。利用自建的鸭蛋裂纹数据集验证改进后模型的性能,结果表明,本研究提出的改进YOLOv5l网络模型检测精准率为93.8%,与原始YOLOv5l模型相比,检测精度提高了6.3个百分点,参数量和浮点计算量分别减少了30.6...  相似文献   

9.
小白菜是中国种植面积较广、深受大众喜爱的蔬菜,但真实菜地环境中虫害往往出现在叶片的特定区域,且受环境因素如光照和背景干扰较大,影响对其的智能检测。为提高小白菜虫害的检测效率和准确率,该研究提出一种基于YOLOv5s网络框架改进的YOLOPC小白菜虫害识别模型。首先,引入CBAM(Convolutional Block Attention Module)注意力机制,将其放在CBS(卷积层Convolution+归一化层Batch normalization+激活函数层SILU)的输入端构成CBAM-CBS的结构,动态调整特征图中各个通道和空间位置的权重;使用上采样和1×1卷积操作来调整特征图的尺寸和通道数,实现不同层次特征的融合,增强模型的特征表示能力。同时,改进损失函数,使其更适合边界框回归的准确性需求;利用空洞卷积的优势提高网络的感受野范围,使模型能够更好地理解图像的上下文信息。试验结果表明,与改进前的YOLOv5s模型相比,YOLOPC模型对小白菜小菜蛾和潜叶蝇虫害检测的平均精度(mean Average Precision, mAP)达到91.40%,提高了12.9个百分点;每秒传输帧数(Frame Per Second, FPS)为58.82帧/s,增加了11.2帧/s,增加幅度达23.53个百分点;参数量仅为14.4 MB,降低了25.78个百分点。与经典的目标检测算法SSD、Faster R-CNN、YOLOv3、YOLOv7和YOLOv8相比,YOLOPC模型的平均精度分别高出20.1、24.6、14、13.4和13.3个百分点,此外,其准确率、召回率、帧速率和参数量均展现出显著优势。该模型可为复杂背景下小白菜虫害的快速准确检测提供技术支持。  相似文献   

10.
针对现有目标检测模型对自然环境下茶叶病害识别易受复杂背景干扰、早期病斑难以检测等问题,该研究提出了YOLOv5-CBM茶叶病害识别模型。YOLOv5-CBM以YOLOv5s模型为基础,在主干特征提取阶段,将一个带有Transformer的C3模块和一个CA(coordinate attention)注意力机制融入特征提取网络中,实现对病害特征的提取。其次,利用加权双向特征金字塔(BiFPN)作为网络的Neck,通过自适应调节每个尺度特征的权重,使网络在获得不同尺寸特征时更好地将其融合,提高识别的准确率。最后,在检测端新增一个小目标检测头,解决了茶叶病害初期病斑较小容易出现漏检的问题。在包含有3种常见茶叶病害的数据集上进行试验,结果表明,YOLOv5-CBM对自然环境下的初期病斑检测效果有明显提高,与原始YOLOv5s模型相比,对早期茶饼病和早期茶轮斑病识别的平均精度分别提高了1.9和0.9个百分点,对不同病害检测的平均精度均值达到了97.3%,检测速度为8ms/幅,均优于其他目标检测算法。该模型具有较高的识别准确率与较强的鲁棒性,可为茶叶病害的智能诊断提供参考。  相似文献   

11.
基于计算机视觉的奶牛跛行识别技术研究进展   总被引:2,自引:2,他引:0  
李前  初梦苑  康熙  刘刚 《农业工程学报》2022,38(15):159-169
奶牛跛行严重降低奶牛福利及潜在产奶量,影响养殖场经济效益。准确高效识别奶牛跛行,有助于奶牛肢蹄病的及早发现与治疗,促进奶业的健康和可持续发展。人工观察法识别奶牛跛行存在识别效率低、成本高、主观性强等问题。计算机视觉技术可以通过无应激、无接触地采集奶牛行走视频数据,准确高效识别奶牛跛行。该研究从可见光相机、深度相机以及热红外相机3种视频采集手段出发,概述了当前奶牛跛行自动识别的主要研究方法、关键技术以及未来发展方向等,对比分析了各研究方法的优势和不足,指出个体差异性、跛行特征的优选以及早期跛行识别等需要重点关注的技术问题。同时,该研究从数据获取、技术研发和试验验证等方面,分析了奶牛跛行识别技术研究领域存在的主要问题及挑战,展望了未来奶牛跛行识别技术的研究重点和发展方向,为奶牛跛行的精准高效识别提供相关理论依据和技术参考。  相似文献   

12.
瘤胃充盈度评分是反映奶牛个体采食量与能量摄入状态的直观指标,为实现奶牛瘤胃充盈度的自动评分,该研究提出了一种基于SOLOv2网络和空腔特征的瘤胃充盈度自动评分方法,首先对获取的奶牛背部深度图像进行预处理以提取目标奶牛;其次利用SOLOv2实例分割网络对奶牛瘤胃区域进行分割以获取瘤胃区域点云,将其投影至X-Z平面内采样得到二值图像,通过形态学处理得到空腔结构特征图;最后构建分类模型对特征图像进行分类以实现瘤胃充盈度的自动评分。试验结果表明,主干网络为ResNet-101-FPN时SOLOv2模型对测试集图像分割的平均精度达到86.29%,瘤胃充盈度自动评分的精准识别率为85.77%,评分误差在1以内的样本达到99.9%,平均识别速率为5.5 帧/s,并对肥瘦程度不同的奶牛具有较强的鲁棒性。该方法可实现规模化养殖中奶牛个体瘤胃充盈度的无接触评定。  相似文献   

13.
番茄器官的实时准确识别是实现自动采摘、靶向施药等自动化生产的关键。该文提出一种基于面向通道分组卷积网络的番茄主要器官实时识别网络模型,该模型直接用特征图预测番茄器官目标边界和类型。以统计可分性、计算速度等为判据,并结合样本扩增训练,分析了该网络和几种典型网络在番茄器官图像处理上的性能,以此筛选出识别网络的基础结构,在基础结构后面分别附加带dropout层的面向通道分组卷积模块和全卷积层作为识别网络的总体架构。试验结果表明:用面向通道分组卷积网络作为识别网络的基础结构,可在显著提高网络召回率、识别速度和精度的前提下,大幅降低模型的大小,该结构网络对花、果、茎识别的平均精度分别为96.52%、97.85%和82.62%,召回率分别为77.39%、69.33%和64.23%,识别速度为62帧/s;与YOLOv2相比,该文识别网络召回率提高了14.03个百分点,精度提高了2.51个百分点。  相似文献   

14.
为解决现有的田间杂草识别方法无法兼顾高准确率与实时性的问题,该研究提出了一种基于改进MobileViT网络的轻量化杂草识别方法。首先,该方法使用高效的MobileViT网络构建杂草特征提取网络,在保证特征提取能力的同时实现更少的模型参数量与计算量;其次,通过高效通道注意力机制加强下采样后特征图中的重要特征,进一步提升模型的特征提取能力;最后,特征提取网络中的MobileViT模块被用于同时学习局部语义信息和全局语义信息,仅通过少量模块的组合便能够准确地捕捉到不同类别杂草与作物间细微差异。为验证该方法的有效性,该研究以农田环境下采集的玉米幼苗及其4类伴生杂草图像为数据进行了模型训练,试验结果表明,该方法的识别准确率、精准度、召回率和F1分数分别为99.61%、99.60%、99.58%和99.59%,优于VGG-16、ResNet-50、DenseNet-161、MobileNetv2等常用卷积神经网络;同时,可视化结果表明该方法能够有效提取杂草图像中的关键特征,并抑制背景区域对识别结果的影响。该研究提出的方法能够精准、快速地区分出农田环境下形态相似的多种杂草与作物,可为智能除草设备中的杂草识别系统设计提供参考。  相似文献   

15.
为提高复杂环境下棉花顶芽识别的精确率,提出了一种基于YOLOv5s的改进顶芽识别模型。建立了田间复杂环境下棉花顶芽数据集,在原有模型结构上增加目标检测层,提高了浅层与深层的特征融合率,避免信息丢失。同时加入CPP-CBAM注意力机制与SIOU边界框回归损失函数,进一步加快模型预测框回归,提升棉花顶芽检测准确率。将改进后的目标检测模型部署在Jetson nano开发板上,并使用TensorRT对检测模型加速,测试结果显示,改进后的模型对棉花顶芽识别平均准确率达到了92.8%。与Fast R-CNN、YOLOv3、YOLOv5s、YOLOv6等算法相比,平均准确率分别提升了2.1、3.3、2、2.4个百分点,该检测模型适用于复杂环境下棉花顶芽的精准识别,为后续棉花机械化精准打顶作业提供技术理论支持。  相似文献   

16.
针对实际检测过程中茶叶数量多、体积小、茶叶之间颜色和纹理相似等特点,该研究提出了一种基于YOLOv5s的名优绿茶品质检测算法。首先,该算法在骨干网络层引入膨胀卷积网络,通过增大感受野的方式增强茶叶微小特征的提取。其次,改进特征融合进程,基于通道注意力和空间注意力抑制无关信息的干扰,构建CBAM注意力机制优化检测器。接着根据swin transformer网络结构在多个维度对小尺度茶叶的特征进行交互和融合。最后,配合SimOTA匹配算法动态分配茶叶正样本,提高不同品质茶叶的识别能力。结果表明,改进后的算法精准度、召回率、平均精度均值、模型体积、检测速度分别为97.4%、89.7%、91.9%、7.11MB和51帧/s,相较于基础的YOLOv5s平均精度均值提高了3.8个百分点,检测速度提高了7帧/s。利用相同数据集在不同目标检测模型上进行对比试验,与Faster-RCNN、SSD、YOLOv3、YOLOv4等模型相比,平均精度均值分别提升10.8、22.9、18.6、8.4个百分点,进一步验证了该研究方法的有效性和可靠性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号