首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 109 毫秒
1.
基于改进Tiny-YOLO模型的群养生猪脸部姿态检测   总被引:8,自引:6,他引:2  
生猪脸部包含丰富的生物特征信息,对其脸部姿态的检测可为生猪的个体识别和行为分析提供依据,而在生猪群养场景下,猪舍光照、猪只黏连等复杂因素给生猪脸部姿态检测带来极大挑战。该文以真实养殖场景下的群养生猪为研究对象,以视频帧数据为数据源,提出一种基于注意力机制与Tiny-YOLO相结合的检测模型DAT-YOLO。该模型将通道注意力和空间注意力信息引入特征提取过程中,高阶特征引导低阶特征进行通道注意力信息获取,低阶特征反向指引高阶特征进行空间注意力筛选,可在不显著增加参数量的前提下提升模型特征提取能力、提高检测精度。对5栏日龄20~105d的群养生猪共35头的视频抽取504张图片,共计3712个脸部框,并标注水平正脸、水平侧脸、低头正脸、低头侧脸、抬头正脸和抬头侧脸6类姿态,构建训练集,另取420张图片共计2 106个脸部框作为测试集。试验表明,DAT-YOLO模型在测试集上对群养生猪的水平正脸、水平侧脸、低头正脸、低头侧脸、抬头正脸和抬头侧脸6类姿态预测的AP值分别达到85.54%、79.30%、89.61%、76.12%、79.37%和84.35%,其6类总体m AP值比Tiny-YOLO模型、仅引入通道注意力的CAT-YOLO模型以及仅引入空间注意力的SAT-YOLO模型分别提高8.39%、4.66%和2.95%。为进一步验证注意力在其余模型上的迁移性能,在同等试验条件下,以YOLOV3为基础模型分别引入两类注意力信息构建相应注意力子模型,试验表明,基于Tiny-YOLO的子模型与加入相同模块的YOLOV3子模型相比,总体m AP指标提升0.46%~1.92%。Tiny-YOLO和YOLOV3系列模型在加入注意力信息后检测性能均有不同幅度提升,表明注意力机制有利于精确、有效地对群养生猪不同类别脸部姿态进行检测,可为后续生猪个体识别和行为分析提供参考。  相似文献   

2.
采用改进CenterNet模型检测群养生猪目标   总被引:5,自引:4,他引:1  
为实现对群养环境下生猪个体目标快速精准的检测,该研究提出了一种针对群养生猪的改进型目标检测网络MF-CenterNet(MobileNet-FPN-CenterNet)模型,为确保目标检测的精确度,该模型首先以无锚式的CenterNet为基础结构,通过引入轻量级的MobileNet网络作为模型特征提取网络,以降低模型大小和提高检测速度,同时加入特征金字塔结构FPN(Feature Pyramid Networks)以提高模型特征提取能力,在保证模型轻量化、实时性的同时,提高遮挡目标和小目标的检测精度。该研究以某商业猪场群养生猪录制视频作为数据源,采集视频帧1 683张,经图像增强后共得到6 732张图像。试验结果表明,MF-CenterNet模型大小仅为21 MB,满足边缘计算端的部署,同时对生猪目标检测平均精确度达到94.30%,检测速度达到69 帧/s,相较于Faster-RCNN、SSD、YOLOv3、YOLOv4目标检测网络模型,检测精度分别提高了6.39%、4.46%、6.01%、2.74%,检测速度分别提高了54、47、45、43 帧/s,相关结果表明了该研究所提出的改进型的轻量级MF-CenterNet模型,能够在满足目标检测实时性的同时提高了对群养生猪的检测精度,为生产现场端的群养生猪行为实时检测与分析提供了有效方法。  相似文献   

3.
采用双重注意力特征金字塔网络检测群养生猪   总被引:4,自引:4,他引:0  
为解决复杂环境下,猪只粘连和猪栏遮挡等因素给生猪个体多目标实例检测带来的困难,该研究以群养猪圈场景下8栏(日龄20~105 d)共计45头生猪为研究对象,以视频为数据源,采用平视视角、镜头位置不固定的数据采集方式,共获得标注图像3 834张,并将其划分为训练集2 490张、验证集480张、测试集864张。引入一种融合通道注意力(Channel Attention Unit,CAU)与空间注意力(Position Attention Unit,PAU)的双重注意力单元(Dual Attention Unit,DAU),并将DAU用于特征金字塔网络(Feature Pyramid Network,FPN)结构中,研究基于两大骨干网络ResNet50、ResNet101与4个任务网络Mask R-CNN、Cascade Mask R-CNN、MS R-CNN及HTC(Hybrid Task Cascade)交叉结合模型对群养生猪实例检测性能。结果表明:与CBAM、BAM、SCSE等注意力模块相比,HTC-R101-DAU比HTC-R101-CBAM在IOU阈值为0.5、0.75、0.5~0.95(所有目标)、0.5~0.95(大目标)条件下的4种AP(Average Precision)指标分别提升1.7%、1.7%、2.1%与1.8%;单独加入CAU与PAU以分别探究通道与空间注意力单元对任务网络检测性能影响,试验结果表明,DAU与CAU及PAU相比性能更佳,且加入特定串联数量的PAU效果优于CAU;为获取更为丰富的上下文信息,分别串联1~4个PAU单元以构建不同空间注意力模块,试验结果表明,随着串联PAU单元数量的增加,相同任务网络其预测AP指标值先增加后减小。综合分析,HTC-R101-DAU模型可更为精确、有效地对不同场景生猪进行实例检测,可为后续生猪个体深度研究奠定基础。  相似文献   

4.
群猪检测是现代化猪场智慧管理的关键环节。针对群猪计数过程中,小目标或被遮挡的猪只个体易漏检的问题,研究提出了基于多尺度融合注意力机制的群猪检测方法,首先基于YOLOv7模型构建了群猪目标检测网络YOLOpig,该网络设计了融合注意力机制的小目标尺度检测网络结构,并基于残差思想优化了最大池化卷积模块,实现了对被遮挡与小目标猪只个体的准确检测;其次结合GradCAM算法进行猪只检测信息的特征可视化,验证群猪检测试验特征提取的有效性。最后使用目标跟踪算法StrongSORT实现猪只个体的准确跟踪,为猪只的检测任务提供身份信息。研究以育肥阶段的长白猪为测试对象,基于不同视角采集的视频数据集进行测试,验证了YOLOpig网络结合StongSORT算法的准确性和实时性。试验结果表明,该研究提出的YOLOpig模型精确率、召回率及平均精度分别为90.4%、85.5%和92.4%,相较于基础YOLOv7模型平均精度提高了5.1个百分点,检测速度提升7.14%,比YOLOv5、YOLOv7tiny和 YOLOv8n 3种模型的平均精度分别提高了12.1、16.8和5.7个百分点,验证该文模型可以实现群猪的有效检测,满足养殖场管理需要。  相似文献   

5.
基于JDE模型的群养生猪多目标跟踪   总被引:1,自引:1,他引:0  
为实现群养生猪在不同场景下(白天与黑夜,猪只稀疏与稠密)的猪只个体准确检测与实时跟踪,该研究提出一种联合检测与跟踪(Joint Detection and Embedding,JDE)模型。首先利用特征提取模块对输入视频序列提取不同尺度的图像特征,产生3个预测头,预测头通过多任务协同学习输出3个分支,分别为分类信息、边界框回归信息和外观信息。3种信息在数据关联模块进行处理,其中分类信息和边界框回归信息输出检测框的位置,结合外观信息,通过包含卡尔曼滤波和匈牙利算法的数据关联算法输出视频序列。试验结果表明,本文JDE模型在公开数据集和自建数据集的总体检测平均精度均值(mean Average Precision,mAP)为92.9%,多目标跟踪精度(Multiple Object Tracking Accuracy,MOTA)为83.9%,IDF1得分为79.6%,每秒传输帧数(Frames Per Second,FPS)为73.9帧/s。在公开数据集中,对比目标检测和跟踪模块分离(Separate Detection and Embedding,SDE)模型,本文JDE模型在MOTA提升0.5%的基础上,FPS提升340%,解决了采用SDE模型多目标跟踪实时性不足问题。对比TransTrack模型,本文JDE模型的MOTA和IDF1分别提升10.4%和6.6%,FPS提升324%。实现养殖环境下的群养生猪多目标实时跟踪,可为大规模生猪养殖的精准管理提供技术支持。  相似文献   

6.
基于视频的生猪行为跟踪和识别对于实现精细化养殖具有重要价值。为了应对群养生猪多目标跟踪任务中由猪只外观相似、遮挡交互等因素带来的挑战,研究提出了基于PigsTrack跟踪器的群养生猪多目标跟踪方法。PigsTrack跟踪器利用高性能YOLOX网络降低目标误检与漏检率,采用Transformer模型获取具有良好区分特性的目标外观特征;基于OC-SORT(observation-centric sort)的思想,通过集成特征匹配、IoU匹配和遮挡恢复匹配策略实现群养生猪的准确跟踪。基于PBVD(pigs behaviours video dataset)数据集的试验结果表明,PigsTrack跟踪器的HOTA(higher order tracking accuracy),MOTA(multiple object tracking accuracy)和IDF1得分(identification F1 score)分别为85.66%、98.59%和99.57%,相较于现有算法的最高精度,分别提高了3.71、0.03和2.05个百分点,证明了PigsTrack跟踪器在解决外观相似和遮挡交互引起...  相似文献   

7.
基于改进Cascade Mask R-CNN与协同注意力机制的群猪姿态识别   总被引:2,自引:2,他引:0  
王鲁  刘晴  曹月  郝霞 《农业工程学报》2023,39(4):144-153
猪体姿态识别有助于实现猪只健康状况预警、预防猪病爆发,是当前研究热点。针对复杂场景下群猪容易相互遮挡、粘连,姿态识别困难的问题,该研究提出一种实例分割与协同注意力机制相结合的两阶段群猪姿态识别方法。首先,以Cascade Mask R-CNN作为基准网络,结合HrNetV2和FPN模块构建猪体检测与分割模型,解决猪体相互遮挡、粘连等问题,实现复杂环境下群猪图像的高精度检测与分割;在上述提取单只猪基础上,构建了基于协同注意力机制(coordinate attention,CA)的轻量级猪体姿态识别模型(CA-MobileNetV3),实现猪体姿态的精准快速识别。最后,在自标注数据集上的试验结果表明,在猪体分割与检测环节,该研究所提模型与MaskR-CNN、MSR-CNN模型相比,在AP0.50、AP0.75、AP0.50:0.95和AP0.5:0.95-large指标上最多提升了1.3、1.5、6.9和8.8个百分点,表现出最优的分割与检测性能。而在猪体姿态识别环节,所提CA-MobileNetV3模...  相似文献   

8.
为解决复杂跨域场景下猪个体的目标检测与计数准确率低下的问题,该研究提出了面向复杂跨域场景的基于改进YOLOv5(You Only Look Once version 5)的猪个体检测与计数模型。该研究在骨干网络中分别集成了CBAM(Convolutional Block Attention Module)即融合通道和空间注意力的模块和Transformer自注意力模块,并将CIoU(Complete Intersection over Union)Loss替换为EIoU(Efficient Intersection over Union)Loss,以及引入了SAM (Sharpness-Aware Minimization)优化器并引入了多尺度训练、伪标签半监督学习和测试集增强的训练策略。试验结果表明,这些改进使模型能够更好地关注图像中的重要区域,突破传统卷积只能提取卷积核内相邻信息的能力,增强了模型的特征提取能力,并提升了模型的定位准确性以及模型对不同目标大小和不同猪舍环境的适应性,因此提升了模型在跨域场景下的表现。经过改进后的模型的mAP@0.5值从87.67%提升到98.76%,mAP@0.5:0.95值从58.35%提升到68.70%,均方误差从13.26降低到1.44。以上研究结果说明该文的改进方法可以大幅度改善现有模型在复杂跨域场景下的目标检测效果,提高了目标检测和计数的准确率,从而为大规模生猪养殖业生产效率的提高和生产成本的降低提供技术支持。  相似文献   

9.
注意力与多尺度特征融合的水培芥蓝花蕾检测   总被引:4,自引:3,他引:1  
准确辨识水培芥蓝花蕾特征是区分其成熟度,实现及时采收的关键。该研究针对自然环境下不同品种与成熟度的水培芥蓝花蕾外形与尺度差异大、花蕾颜色与茎叶相近等问题,提出一种注意力与多尺度特征融合的Faster R-CNN水培芥蓝花蕾分类检测模型。采用InceptionV3的前37层作为基础特征提取网络,在其ReductionA、InceptionA和InceptionB模块后分别嵌入SENet模块,将基础特征提取网络的第2组至第4组卷积特征图通过FPN特征金字塔网络层分别进行叠加后作为特征图输出,依据花蕾目标框尺寸统计结果在各FPN特征图上设计不同锚点尺寸。对绿宝芥蓝、香港白花芥蓝及两个品种的混合数据集测试的平均精度均值mAP最高为96.5%,最低为95.9%,表明模型能实现不同品种水培芥蓝高准确率检测。消融试验结果表明,基础特征提取网络引入SENet或FPN模块对不同成熟度花蕾的检测准确率均有提升作用,同时融合SENet模块和FPN模块对未成熟花蕾检测的平均准确率AP为92.3%,对成熟花蕾检测的AP为98.2%,对过成熟花蕾检测的AP为97.9%,不同成熟度花蕾检测的mAP为96.1%,表明模型设计合理,能充分发挥各模块的优势。相比VGG16、ResNet50、ResNet101和InceptionV3网络,模型对不同成熟度花蕾检测的mAP分别提高了10.8%、8.3%、 6.9%和12.7%,检测性能具有较大提升。在召回率为80%时,模型对不同成熟度水培芥蓝花蕾检测的准确率均能保持在90%以上,具有较高的鲁棒性。该研究结果可为确定水培芥蓝采收期提供依据。  相似文献   

10.
实现繁育期精准个体检测是提高集约养殖环境下肉鸽繁育效率和精准管控效果的有效手段,其中小目标鸽蛋及粘连乳鸽的精准检测是关键。该研究提出了一种基于改进RetinaNet的目标检测模型,以RetinaNet网络为基础框架,将ResNet50特征提取网络与特征金字塔网络(Feature Pyramid Networks,FPN)结合,增加特征金字塔网络中特征检测尺度,提升对图像中遮挡鸽蛋与粘连乳鸽的检测精度;在分类和回归子网络前引入卷积注意力模块(Convolutional Block Attention Module,CBAM),提升对小目标检测的精度。试验结果表明,该研究提出的模型对于笼养肉鸽个体检测的平均精度均值(mean Average Precision,mAP)达到80.89%,相比SSD、YOLOv3、YOLOv4、YOLOv5s、YOLOv5m和原始RetinaNet模型提高了18.66、29.15、19.92、21.69、18.99与15.45个百分点;对成鸽、乳鸽与鸽蛋检测的平均精度(Average Precision,AP)分别为95.88%,79.51%和67.29%,相对原始RetinaNet模型提高了2.16、21.74和22.48个百分点,在保证成鸽精准检测的基础上,显著提升了对复杂环境下存在局部遮挡的小目标鸽蛋以及粘连乳鸽的检测精度,为实现集约化养殖环境下肉鸽繁育周期个体检测和精准管控提供有效支持。  相似文献   

11.
基于多重特征增强与特征融合SSD的荔枝检测   总被引:2,自引:2,他引:0  
使用无人机拍摄的荔枝图像目标尺寸小、特征信息不足.为了更多、更好地检测到荔枝,该研究提出一种基于多重特征增强与特征融合的SSD(Single Shot Multibox Detector based on Multiple Feature Enhancement and Feature Fusion,MFEFF-SSD...  相似文献   

12.
基于改进YOLOv3-Tiny的番茄苗分级检测   总被引:3,自引:3,他引:0  
为了提高番茄苗分选移栽分级检测精度,该研究提出了YOLOv3-Tiny目标检测改进模型。首先建立了番茄穴盘苗数据集,使用K-means++算法重新生成数据集锚定框,提高网络收敛速度和特征提取能力;其次为目标检测模型添加SPP空间金字塔池化,将穴孔局部和整体特征融合,提高了对弱苗的召回率;同时加入路径聚合网络(PANet),提升细粒度检测能力;引入了SAM空间注意力机制,提高对番茄苗的关注,减少背景干扰;增加了ASFF(Adaptively Spatial Feature Fusion)自适应特征融合网络,能够使目标检测模型对多个级别的特征进行空间滤波;采用CIoU损失函数策略,提高模型收敛效果。改进的YOLOv3-Tiny目标检测模型经过数据集训练,在测试集上能够达到平均精度均值为97.64%,相比YOLOv3-Tiny模型提高了3.47个百分点。消融试验验证了网络结构改进和训练策略是有效的,并将改进的YOLOv3-Tiny目标检测算法与5种目标检测算法进行对比,发现改进的YOLOv3-Tiny目标检测模型在重合度阈值为50%的条件下平均精度均值为97.64%。单张图像处理时间为5.03 ms,较其他目标检测算法具有明显的优势,验证了该模型能够满足番茄苗分级检测精度要求,可以为幼苗分选检测方法提供参考。  相似文献   

13.
针对现有目标检测模型对自然环境下茶叶病害识别易受复杂背景干扰、早期病斑难以检测等问题,该研究提出了YOLOv5-CBM茶叶病害识别模型。YOLOv5-CBM以YOLOv5s模型为基础,在主干特征提取阶段,将一个带有Transformer的C3模块和一个CA(coordinate attention)注意力机制融入特征提取网络中,实现对病害特征的提取。其次,利用加权双向特征金字塔(BiFPN)作为网络的Neck,通过自适应调节每个尺度特征的权重,使网络在获得不同尺寸特征时更好地将其融合,提高识别的准确率。最后,在检测端新增一个小目标检测头,解决了茶叶病害初期病斑较小容易出现漏检的问题。在包含有3种常见茶叶病害的数据集上进行试验,结果表明,YOLOv5-CBM对自然环境下的初期病斑检测效果有明显提高,与原始YOLOv5s模型相比,对早期茶饼病和早期茶轮斑病识别的平均精度分别提高了1.9和0.9个百分点,对不同病害检测的平均精度均值达到了97.3%,检测速度为8ms/幅,均优于其他目标检测算法。该模型具有较高的识别准确率与较强的鲁棒性,可为茶叶病害的智能诊断提供参考。  相似文献   

14.
针对苹果内在品质检测过程中传统测量果心大小方法效率低、准确性差等问题,该研究提出一种基于TMU-Net网络自动分割果心的方法,将Transformer编码器融入U-Net网络结构中,构建改进U型卷积网络TMU-Net模型。模型由特征提取模块、特征处理模块、解码器、特征拼接模块组成,以VGG-16前13层作为主干特征提取网络,在跳跃连接中叠加多重残差空洞卷积(Multiple Residual Dilated Convolution,MRDC)模块,增大感受野的同时增强了模型对底层特征提取能力。采用数据增强技术对果心数据集扩充后,利用迁移学习方法冻结特定的网络层,对TMU-Net模型进行训练。试验结果表明:引入迁移学习并使用最佳训练方式使模型分割精确率提高了22.48个百分点;TMU-Net网络模型在果心分割任务中实现了96.72%的精确率,与U-Net、PSPNet、DeeplabV3+网络对比,精确率分别提升了14.28、9.98、7.15个百分点。该方法能够精准、有效地实现果心分割,可为实现苹果内在品质智能检测提供参考。  相似文献   

15.
采用组合增强的YOLOX-ViT协同识别温室内番茄花果   总被引:1,自引:1,他引:0  
番茄花果的协同识别是温室生产管理调控的重要决策依据,针对温室番茄栽培密度大,植株遮挡、重叠等因素导致的现有识别算法精度不足问题,该研究提出一种基于级联深度学习的番茄花果协同识别方法,引入图像组合增强与前端ViT分类网络,以提高模型对于小目标与密集图像检测性能。同时,通过先分类识别、再进行目标检测的级联网络,解决了传统检测模型因为图像压缩而导致的小目标模糊、有效信息丢失问题。最后,引入了包括大果和串果在内的不同类型番茄品种数据集,验证了该方法的可行性与有效性。经测试,研究提出的目标检测模型的平均识别率均值(mean average precision,m AP)为92.30%,检测速度为28.46帧/s,其中对小花、成熟番茄和未成熟番茄识别平均准确率分别为87.92%、92.35%和96.62%。通过消融试验表明,与YOLOX、组合增强YOLOX相比,改进后的模型m AP提高了2.38~6.11个百分点,相比于现有YOLOV3、YOLOV4、YOLOV5主流检测模型,m AP提高了16.56~23.30个百分点。可视化结果表明,改进模型实现了对小目标的零漏检和对密集对象的无误检,从而达到...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号