首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 203 毫秒
1.
群猪检测是现代化猪场智慧管理的关键环节。针对群猪计数过程中,小目标或被遮挡的猪只个体易漏检的问题,研究提出了基于多尺度融合注意力机制的群猪检测方法,首先基于YOLOv7模型构建了群猪目标检测网络YOLOpig,该网络设计了融合注意力机制的小目标尺度检测网络结构,并基于残差思想优化了最大池化卷积模块,实现了对被遮挡与小目标猪只个体的准确检测;其次结合GradCAM算法进行猪只检测信息的特征可视化,验证群猪检测试验特征提取的有效性。最后使用目标跟踪算法StrongSORT实现猪只个体的准确跟踪,为猪只的检测任务提供身份信息。研究以育肥阶段的长白猪为测试对象,基于不同视角采集的视频数据集进行测试,验证了YOLOpig网络结合StongSORT算法的准确性和实时性。试验结果表明,该研究提出的YOLOpig模型精确率、召回率及平均精度分别为90.4%、85.5%和92.4%,相较于基础YOLOv7模型平均精度提高了5.1个百分点,检测速度提升7.14%,比YOLOv5、YOLOv7tiny和 YOLOv8n 3种模型的平均精度分别提高了12.1、16.8和5.7个百分点,验证该文模型可以实现群猪的有效检测,满足养殖场管理需要。  相似文献   

2.
基于YOLOv5s的农田垃圾轻量化检测方法   总被引:2,自引:2,他引:0  
针对目前垃圾检测算法在农田复杂环境下检测精度不高、检测效率低,模型复杂等问题,该研究提出了基于YOLOv5s的农田垃圾轻量化检测方法。首先,使用轻量级分类网络ShuffleNetV2的构建单元作为特征提取网络,降低模型的计算量和参数量,提高运行速度,以满足移动端的应用要求;其次,为应对模型轻量化后带来的检测精度降低,该文相继对ShuffleNetV2的构建单元进行了卷积核扩大化改进和激活函数优化,在增加部分计算量的前提下提高了模型精度;此外,为增强模型在田间环境下对目标的精准定位能力,该研究针对边界框损失函数进行了优化,将CIoU边界框损失函数高宽纵横比的损失项拆分为预测框的高宽分别与最小外接框高宽的差值,然后通过不断迭代减小差值,提高模型的收敛速度和回归精度。试验结果显示,最终的改进模型检测精度达到了90.9%,此时检测速度为74 ms/帧,计算量仅为3.6 GFLOPs,与当前主流的目标检测算法SSD、YOLOv3等相比,不仅具有更优越的检测精度和推理速度,同时还大幅减少了计算量;最后,将改进前后的模型部署到Jetson TX1和Raspberry 4B 两种边缘计算设备上进行测试,测试结果表明,改进后的YOLOv5s模型在边缘计算设备上的检测速度相对原模型提高了至少20%,同时保持了较好的检测效果,平衡了边缘计算设备对精度和速度的性能需求,为田间垃圾检测任务提供了参考。  相似文献   

3.
基于增强型Tiny-YOLOV3模型的野鸡识别方法   总被引:2,自引:2,他引:0  
智慧农业病虫害检测技术发展迅猛,而对农作物具有危害的鸟类检测技术尚处于起步阶段,近年来由于生态改善,野鸡繁殖数量激增,其喜食小麦、玉米、红薯等农作物的种子与幼苗,对农业造成一定危害。该研究提出了一种适宜于嵌入式系统部署的人工智能野鸡识别方法。由于在野外环境下移动平台上部署,需采用轻量级网络,同时保证检测精度与实时性,因此,根据Tiny-YOLOV3轻量级目标检测网络基本结构,提出了一种针对野外复杂环境中出现野鸡的实时检测网络-增强型轻量级目标检测网络(EnhancedTiny-YOLO,ET-YOLO),该网络特征提取部分加深Tiny-YOLOV3特征提取网络深度,增加检测尺度以提高原网络目标检测精度,网络检测层使用基于CenterNet结构的检测方式以进一步提高检测精度与检测速度。使用野外实地采集各种环境下出现的野鸡图像作为数据集,包括不同距离、角度、环境出现的野鸡共计6000幅高清图像制作数据集。试验结果表明,ET-YOLO在视频中复杂环境下出现的野鸡平均检测精度达86.5%,平均检测速度62帧/s,相对改进前Tiny-YOLOV3平均检测精度提高15个百分点,平均检测速度相对改进前Tiny-YOLOV3提高2帧/s,相对YOLOV3、Faster-RCNN与SSD_MobileNetV2主流代表性目标检测算法,平均检测精度分别提高1.5、1.1与18个百分点,平均检测速度分别提高38、47与1帧/s。可高效实时地对复杂环境下出现的野鸡进行识别,并且检测模型大小为56 MB,适宜于在农业机器人,智能农机所搭载的嵌入式系统上部署。  相似文献   

4.
李韬  任玲  胡斌  王双  赵明  张玉泉  杨苗 《农业工程学报》2023,39(23):174-184
为了提高番茄穴盘苗分级检测精度,该研究提出了改进YOLOv5s目标检测模型,并通过迁移学习对番茄穴盘病苗识别精度进行优化。采用轻量级网络EfficientNetv2的Backbone部分作为特征提取网络,保留YOLOv5s中的SPPF空间金字塔池化模块,压缩模型参数数量以减少计算量;更改模型Neck部分原始上采样模块为CARAFE轻量级上采样模块,在引入很少参数量的情况下提高模型精度;同时将PANet替换为BiFPN,引入特征权重信息,增强不同尺度特征融合能力;引入有效多尺度注意力机制(efficient multi-scale attention,EMA),提高对番茄苗的关注,减少背景干扰;替换CIoU损失函数为SIoU损失函数,考虑真实框与预测框之间的方向匹配,提高模型收敛效果。试验结果表明,改进的YOLOv5s目标检测模型经过迁移学习训练后,平均精度均值达到95.6%,较迁移学习前提高了0.7个百分点;与原YOLOv5s模型相比,改进YOLOv5s模型平均精度均值提升2.6个百分点;改进YOLOv5s模型的参数量、计算量和权重大小分别为原YOLOv5s模型的53.1%、20.0%和53.6%,便于后期将模型部署到边缘设备中;与Faster-RCNN、CenterNet及YOLO系列目标检测模型相比,改进YOLOv5s模型在检测精度和检测速度方面均有明显优势,该研究成果可以为穴盘苗的分级检测提供依据。  相似文献   

5.
面部对齐是猪脸识别中至关重要的步骤,而实现面部对齐的必要前提是对面部关键点的精准检测。生猪易动且面部姿态多变,导致猪脸关键点提取不准确,且目前没有准确快捷的猪脸关键点检测方法。针对上述问题,该研究提出了生猪面部关键点精准检测模型YOLO-MOB-DFC,将人脸关键点检测模型YOLOv5Face进行改进并用于猪脸关键点检测。首先,使用重参数化的MobileOne作为骨干网络降低了模型参数量;然后,融合解耦全连接注意力模块捕捉远距离空间位置像素之间的依赖性,使模型能够更多地关注猪面部区域,提升模型的检测性能;最后,采用轻量级上采样算子CARAFE充分感知邻域内聚合的上下文信息,使关键点提取更加准确。结合自建的猪脸数据集进行模型测试,结果表明,YOLO-MOB-DFC的猪脸检测平均精度达到99.0%,检测速度为153帧/s,关键点的标准化平均误差为2.344%。相比RetinaFace模型,平均精度提升了5.43%,模型参数量降低了78.59%,帧率提升了91.25%,标准化平均误差降低了2.774%;相较于YOLOv5s-Face模型,平均精度提高了2.48%,模型参数量降低了18.29%,标准化平均误差降低了0.567%。该文提出的YOLO-MOB-DFC模型参数量较少,连续帧间的标准化平均误差波动更加稳定,削弱了猪脸姿态多变对关键点检测准确性的影响,同时具有较高的检测精度和检测效率,能够满足猪脸数据准确、快速采集的需求,为高质量猪脸开集识别数据集的构建以及非侵入式生猪身份智能识别奠定基础。  相似文献   

6.
当前菠萝催花作业以人工喷洒为主,生产效率低、劳动强度大。菠萝苗心位置的精准识别和定位是实现机械化、智能化菠萝催花的核心问题。该研究在YOLOv4目标识别算法的基础上,选择GhostNet作为主干特征提取网络,构建了一种混合网络模型,并在颈部网络中融合深度可分离卷积与轻量级的注意力模块。改进后的模型相较于YOLOv4模型的总参数量减少70%。与YOLOv4、Faster R-CNN和CenterNet 3个模型进行检测对比试验,结果可得:改进模型在菠萝植株种植密集与稀疏的条件下识别精度分别为94.7%和95.5%,实时识别速度可达27帧/s,每张图像平均检测时间为72 ms,相比常规YOLOv4模型用时缩短23%。总体性能表现均优于对比组的目标检测模型。总的来说,改进模型YOLOv4-GHDW在一定程度上实现了检测速度、识别精度和模型体量三者之间平衡,能够在实际种植环境下对菠萝苗心有较好的识别效果。研究结果可为智能化菠萝精准催花设备研发提供视觉技术支持。  相似文献   

7.
基于特征递归融合YOLOv4网络模型的春见柑橘检测与计数   总被引:3,自引:3,他引:0  
春见柑橘个体小、单株果树柑橘密集、柑橘之间的形态与颜色相似度高且易被树叶严重遮挡,这些特点给春见柑橘检测与计数带来了较大困难。该研究以实际春见果园环境中的春见柑橘作为检测与计数对象,提出了一种以春见柑橘为检测目标的基于特征递归融合YOLOv4网络模型(YOLOv4 network model with recursive fusion of features,FR-YOLOv4)。针对春见柑橘尺寸小的特点,FR-YOLOv4网络模型的主干特征提取网络采用了感受野更小的CSPResNest50网络,降低了小尺寸目标的特征图传不到目标检测器中的可能性;针对春见柑橘被遮挡和密集分布的情况,采用了递归特征金字塔(Recursive Feature Pyramid,RFP)网络来进行特征递归融合,提高了对果园环境下春见柑橘的检测精度。试验结果表明:FR-YOLOv4网络模型对于果园环境中春见柑橘的平均检测精度为94.6%,视频检测帧率为51帧/s。FR-YOLOv4网络模型相比于YOLOv4、单次多框检测器(Single Shot Multi-Box Detector,SSD)、CenterNet和更快速卷积神经网络(Faster- Region-Convolutional Neural Networks,Faster R-CNN)的平均检测精度分别提高了8.9、29.3、14.1和16.2个百分点,视频检测帧率分别比SSD、Faster R-CNN提高了17帧/s和33帧/s。FR-YOLOv4网络模型对于实际果园环境中春见柑橘的检测精度高,具备检测实时性,适用于春见果园中春见柑橘检测与计数。  相似文献   

8.
采用轻量级网络MobileNetV2的酿酒葡萄检测模型   总被引:1,自引:1,他引:0  
为提高高分辨率田间葡萄图像中小目标葡萄检测的速度和精度,该研究提出了一种基于轻量级网络的酿酒葡萄检测模型(Wine Grape Detection Model,WGDM)。首先,采用轻量级网络MobileNetV2取代YOLOv3算法的骨干网络DarkNet53完成特征提取,加快目标检测的速度;其次,在多尺度检测模块中引入M-Res2Net模块,提高检测精度;最后,采用平衡损失函数和交并比损失函数作为改进的定位损失函数,增大目标定位的准确性。试验结果表明,提出的WGDM模型在公开的酿酒葡萄图像数据集的测试集上平均精度为81.2%,网络结构大小为44 MB,平均每幅图像的检测时间为6.29 ms;与单发检测器(Single Shot Detector,SSD)、YOLOv3、YOLOv4和快速区域卷积神经网络(Faster Regions with Convolutional Neural Network,Faster R-CNN)4种主流检测模型相比,平均精度分别提高8.15%、1.10%、3.33%和6.52%,网络结构分别减小了50、191、191和83 MB,平均检测时间分别减少了4.91、7.75、14.84和158.20 ms。因此,该研究提出的WGDM模型对田间葡萄果实具有更快速、更准确的识别与定位,为实现葡萄采摘机器人的高效视觉检测提供了可行方法。  相似文献   

9.
基于特征金字塔注意力与深度卷积网络的多目标生猪检测   总被引:13,自引:12,他引:1  
在生猪饲养环境中,猪只黏连、杂物遮挡等给生猪个体多目标检测带来很大困难。该研究以猪圈群养生猪为研究对象,以视频帧为数据源,提出一种适用于生猪形体检测的特征金字塔注意力(FeaturePyramidAttention,FPA)与Tiny-YOLO相结合的模型FPA-Tiny-YOLO。该模型将注意力信息融入到特征提取过程,在不大幅增加计算量的前提下即可提升特征提取能力、提高检测精度。对8栏日龄20~105 d的45头生猪视频截取图像进行图像处理,获得标注图片4 102张,构建了4种深度FPA模块分别加入YOLOV3与Tiny-YOLO模型中。试验表明,深度为3的FPA模块(即FPA-3)的Tiny-YOLO模型在测试集上对群养生猪多目标检测的召回率Recall、F1与平均检测精度m AP指标值最佳,分别达到86.09%、91.47%和85.85%,比未引入FPA模块的Tiny-YOLO模型均有不同程度的提高。选用不同的IOU(Intersection Over Union)和score阈值超参数值对模型预测结果均有不同程度影响;将测试集图像按照是否黏连与遮挡划分4种场景来探究该模型的鲁棒性。试验表明,加入FPA-3模块后Tiny-YOLO的Recall、F1与m AP比Tiny-YOLO分别提升6.73、4.34和7.33个百分点,说明特征金字塔注意力信息有利于精确、有效地对不同场景群养生猪进行多目标检测。研究结果可为后续开展生猪身份识别和行为分析移动端应用提供参考。  相似文献   

10.
基于改进Tiny-YOLO模型的群养生猪脸部姿态检测   总被引:8,自引:6,他引:2  
生猪脸部包含丰富的生物特征信息,对其脸部姿态的检测可为生猪的个体识别和行为分析提供依据,而在生猪群养场景下,猪舍光照、猪只黏连等复杂因素给生猪脸部姿态检测带来极大挑战。该文以真实养殖场景下的群养生猪为研究对象,以视频帧数据为数据源,提出一种基于注意力机制与Tiny-YOLO相结合的检测模型DAT-YOLO。该模型将通道注意力和空间注意力信息引入特征提取过程中,高阶特征引导低阶特征进行通道注意力信息获取,低阶特征反向指引高阶特征进行空间注意力筛选,可在不显著增加参数量的前提下提升模型特征提取能力、提高检测精度。对5栏日龄20~105d的群养生猪共35头的视频抽取504张图片,共计3712个脸部框,并标注水平正脸、水平侧脸、低头正脸、低头侧脸、抬头正脸和抬头侧脸6类姿态,构建训练集,另取420张图片共计2 106个脸部框作为测试集。试验表明,DAT-YOLO模型在测试集上对群养生猪的水平正脸、水平侧脸、低头正脸、低头侧脸、抬头正脸和抬头侧脸6类姿态预测的AP值分别达到85.54%、79.30%、89.61%、76.12%、79.37%和84.35%,其6类总体m AP值比Tiny-YOLO模型、仅引入通道注意力的CAT-YOLO模型以及仅引入空间注意力的SAT-YOLO模型分别提高8.39%、4.66%和2.95%。为进一步验证注意力在其余模型上的迁移性能,在同等试验条件下,以YOLOV3为基础模型分别引入两类注意力信息构建相应注意力子模型,试验表明,基于Tiny-YOLO的子模型与加入相同模块的YOLOV3子模型相比,总体m AP指标提升0.46%~1.92%。Tiny-YOLO和YOLOV3系列模型在加入注意力信息后检测性能均有不同幅度提升,表明注意力机制有利于精确、有效地对群养生猪不同类别脸部姿态进行检测,可为后续生猪个体识别和行为分析提供参考。  相似文献   

11.
基于改进Cascade Mask R-CNN与协同注意力机制的群猪姿态识别   总被引:2,自引:2,他引:0  
王鲁  刘晴  曹月  郝霞 《农业工程学报》2023,39(4):144-153
猪体姿态识别有助于实现猪只健康状况预警、预防猪病爆发,是当前研究热点。针对复杂场景下群猪容易相互遮挡、粘连,姿态识别困难的问题,该研究提出一种实例分割与协同注意力机制相结合的两阶段群猪姿态识别方法。首先,以Cascade Mask R-CNN作为基准网络,结合HrNetV2和FPN模块构建猪体检测与分割模型,解决猪体相互遮挡、粘连等问题,实现复杂环境下群猪图像的高精度检测与分割;在上述提取单只猪基础上,构建了基于协同注意力机制(coordinate attention,CA)的轻量级猪体姿态识别模型(CA-MobileNetV3),实现猪体姿态的精准快速识别。最后,在自标注数据集上的试验结果表明,在猪体分割与检测环节,该研究所提模型与MaskR-CNN、MSR-CNN模型相比,在AP0.50、AP0.75、AP0.50:0.95和AP0.5:0.95-large指标上最多提升了1.3、1.5、6.9和8.8个百分点,表现出最优的分割与检测性能。而在猪体姿态识别环节,所提CA-MobileNetV3模...  相似文献   

12.
基于JDE模型的群养生猪多目标跟踪   总被引:1,自引:1,他引:0  
为实现群养生猪在不同场景下(白天与黑夜,猪只稀疏与稠密)的猪只个体准确检测与实时跟踪,该研究提出一种联合检测与跟踪(Joint Detection and Embedding,JDE)模型。首先利用特征提取模块对输入视频序列提取不同尺度的图像特征,产生3个预测头,预测头通过多任务协同学习输出3个分支,分别为分类信息、边界框回归信息和外观信息。3种信息在数据关联模块进行处理,其中分类信息和边界框回归信息输出检测框的位置,结合外观信息,通过包含卡尔曼滤波和匈牙利算法的数据关联算法输出视频序列。试验结果表明,本文JDE模型在公开数据集和自建数据集的总体检测平均精度均值(mean Average Precision,mAP)为92.9%,多目标跟踪精度(Multiple Object Tracking Accuracy,MOTA)为83.9%,IDF1得分为79.6%,每秒传输帧数(Frames Per Second,FPS)为73.9帧/s。在公开数据集中,对比目标检测和跟踪模块分离(Separate Detection and Embedding,SDE)模型,本文JDE模型在MOTA提升0.5%的基础上,FPS提升340%,解决了采用SDE模型多目标跟踪实时性不足问题。对比TransTrack模型,本文JDE模型的MOTA和IDF1分别提升10.4%和6.6%,FPS提升324%。实现养殖环境下的群养生猪多目标实时跟踪,可为大规模生猪养殖的精准管理提供技术支持。  相似文献   

13.
群养猪行为是评估猪群对环境适应性的重要指标。猪场环境中,猪只行为识别易受不同光线和猪只粘连等因素影响,为提高群养猪只行为识别精度与效率,该研究提出一种基于改进帧间差分-深度学习的群养猪只饮食、躺卧、站立和打斗等典型行为识别方法。该研究以18只50~115日龄长白猪为研究对象,采集视频帧1 117张,经图像增强共得到4 468张图像作为数据集。首先,选取Faster R-CNN、SSD、Retinanet、Detection Transformer和YOLOv5五种典型深度学习模型进行姿态检测研究,通过对比分析,确定了最优姿态检测模型;然后,对传统帧间差分法进行了改进,改进后帧间差分法能有效提取猪只完整的活动像素特征,使检测结果接近实际运动猪只目标;最后,引入打斗活动比例(Proportion of Fighting Activities, PFA)和打斗行为比例(Proportion of Fighting Behavior, PFB)2个指标优化猪只打斗行为识别模型,并对模型进行评价,确定最优行为模型。经测试,YOLOv5对群养猪只典型姿态检测平均精度均值达93.80%,模型大小为14.40 MB,检测速度为32.00帧/s,检测速度满足姿态实时检测需求,与Faster R-CNN、SSD、Retinanet和Detection Transformer模型相比,YOLOv5平均精度均值分别提高了1.10、3.23、4.15和21.20个百分点,模型大小分别减小了87.31%、85.09%、90.15%和97.10%。同时,当两个优化指标PFA和PFB分别设置为10%和40%时,猪只典型行为识别结果最佳,识别准确率均值为94.45%。结果表明,该方法具有准确率高、模型小和识别速度快等优点。该研究为群养猪只典型行为精准高效识别提供方法参考。  相似文献   

14.
采用组合增强的YOLOX-ViT协同识别温室内番茄花果   总被引:1,自引:1,他引:0  
番茄花果的协同识别是温室生产管理调控的重要决策依据,针对温室番茄栽培密度大,植株遮挡、重叠等因素导致的现有识别算法精度不足问题,该研究提出一种基于级联深度学习的番茄花果协同识别方法,引入图像组合增强与前端ViT分类网络,以提高模型对于小目标与密集图像检测性能。同时,通过先分类识别、再进行目标检测的级联网络,解决了传统检测模型因为图像压缩而导致的小目标模糊、有效信息丢失问题。最后,引入了包括大果和串果在内的不同类型番茄品种数据集,验证了该方法的可行性与有效性。经测试,研究提出的目标检测模型的平均识别率均值(mean average precision,m AP)为92.30%,检测速度为28.46帧/s,其中对小花、成熟番茄和未成熟番茄识别平均准确率分别为87.92%、92.35%和96.62%。通过消融试验表明,与YOLOX、组合增强YOLOX相比,改进后的模型m AP提高了2.38~6.11个百分点,相比于现有YOLOV3、YOLOV4、YOLOV5主流检测模型,m AP提高了16.56~23.30个百分点。可视化结果表明,改进模型实现了对小目标的零漏检和对密集对象的无误检,从而达到...  相似文献   

15.
基于边界脊线识别的群养猪黏连图像分割方法   总被引:3,自引:3,他引:0  
猪体图像的前景分割和黏连猪体的分离是实现群养猪数量自动盘点和猪只个体行为智能识别的关键。为实现群养猪黏连图像的自动分割,该文采用决策树分割算法提取视频图像帧的猪体前景区域,计算各连通区域的复杂度,根据复杂度确定黏连猪体区域,利用标记符控制的分水岭分割算法处理黏连猪体图像,检测待选的边界脊线,通过检验待选边界脊线的分割效果和形状特征(包括线性度和Harris拐点数目),识别出猪体黏连分割线,实现黏连猪体的分离。结果表明,决策树分割算法(decision-tree-based segmentation model,DTSM)能够有效地去除复杂背景,前景分割效果良好。黏连猪体分离结果显示,基于边界脊线识别的黏连猪体分离准确率达到了89.4%,并较好地保留了猪体轮廓。通过计算分割后猪体连通区域的中心点,并对中心点进行德洛内剖分,初步实现了猪只的定位和栏内分布的可视化。6 min的监控视频处理结果显示,该文方法各帧图像的盘点平均误差为0.58,盘点准确率为98.33%,能够正确统计出栏内猪只数量。该研究可为实现基于监控视频的群养猪自动盘点和个体行为识别提供新的技术手段。  相似文献   

16.
基于YOLOv4模型剪枝的番茄缺陷在线检测   总被引:4,自引:4,他引:0  
为解决番茄缺陷检测过程中的精确性和实时性问题,该研究提出一种基于模型剪枝的番茄表面缺陷实时检测方法。采用模型剪枝的方法在YOLOv4网络模型基础上进行模型优化,首先将3个连续检测工位采集的RGB图像拼接生成YOLOv4网络的输入图像,然后采用通道剪枝和层剪枝的方法压缩YOLOv4网络模型,从而减少模型参数,提高检测速度,最后提出一种基于L1范数的非极大值抑制方法,用于在模型微调后去除冗余预测框,从而精准定位图像中的缺陷位置,并将模型部署到分级系统上进行实时检测试验。结果表明,该研究提出的YOLOv4P网络与原YOLOv4网络相比,网络模型尺寸和推理时间分别减少了232.40 MB和10.11 ms,平均精度均值(Mean Average Precision,mAP)从92.45%提高到94.56%,能满足实际生产中针对缺陷番茄进行精准、实时检测的要求,为番茄分级系统提供了高效的实时检测方法。  相似文献   

17.
基于自注意力机制与无锚点的仔猪姿态识别   总被引:1,自引:1,他引:0  
在猪场养殖过程中,仔猪姿态识别对其健康状况和环境热舒适度监测都有着重要意义。仔猪个体较小,喜欢聚集、扎堆,且姿态随意性较大,给姿态识别带来困难。为此,该文结合Transformer网络与无锚点目标检测头,提出了一种新的仔猪姿态识别模型TransFree(Transformer + Anchor-Free)。该模型使用Swin Transformer作为基础网络,提取仔猪图像的局部和全局特征,然后经过一个特征增强模块(Feature Enhancement Module,FEM)进行多尺度特征融合并得到高分辨率的特征图,最后将融合后的特征图输入Anchor-Free检测头进行仔猪的定位和姿态识别。该文以广东佛山市某商业猪场拍摄的视频作为数据源,从12个猪栏的拍摄视频中选取9栏作为训练集,3栏作为测试集,训练集中仔猪的俯卧、侧卧和站立3类姿态总计19 929个样本,测试集中3类姿态总计5 150个样本。在测试集上,TransFree模型的仔猪姿态识别精度达到95.68%,召回率达到91.18%,F1-score达到93.38%;相较于CenterNet、Faster R-CNN和YOLOX-L目标检测网络,F1-score分别提高了2.32、4.07和2.26个百分点。该文提出的TransFree模型实现了仔猪姿态的高精度识别,为仔猪行为识别提供了技术参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号