首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 156 毫秒
1.
李韬  任玲  胡斌  王双  赵明  张玉泉  杨苗 《农业工程学报》2023,39(23):174-184
为了提高番茄穴盘苗分级检测精度,该研究提出了改进YOLOv5s目标检测模型,并通过迁移学习对番茄穴盘病苗识别精度进行优化。采用轻量级网络EfficientNetv2的Backbone部分作为特征提取网络,保留YOLOv5s中的SPPF空间金字塔池化模块,压缩模型参数数量以减少计算量;更改模型Neck部分原始上采样模块为CARAFE轻量级上采样模块,在引入很少参数量的情况下提高模型精度;同时将PANet替换为BiFPN,引入特征权重信息,增强不同尺度特征融合能力;引入有效多尺度注意力机制(efficient multi-scale attention,EMA),提高对番茄苗的关注,减少背景干扰;替换CIoU损失函数为SIoU损失函数,考虑真实框与预测框之间的方向匹配,提高模型收敛效果。试验结果表明,改进的YOLOv5s目标检测模型经过迁移学习训练后,平均精度均值达到95.6%,较迁移学习前提高了0.7个百分点;与原YOLOv5s模型相比,改进YOLOv5s模型平均精度均值提升2.6个百分点;改进YOLOv5s模型的参数量、计算量和权重大小分别为原YOLOv5s模型的53.1%、20.0%...  相似文献   

2.
基于改进YOLOv5s的名优绿茶品质检测   总被引:1,自引:1,他引:0  
针对实际检测过程中茶叶数量多、体积小、茶叶之间颜色和纹理相似等特点,该研究提出了一种基于YOLOv5s的名优绿茶品质检测算法。首先,该算法在骨干网络层引入膨胀卷积网络,通过增大感受野的方式增强茶叶微小特征的提取。其次,改进特征融合进程,基于通道注意力和空间注意力抑制无关信息的干扰,构建CBAM注意力机制优化检测器。接着根据Swin transformer网络结构在多个维度对小尺度茶叶的特征进行交互和融合。最后,配合SimOTA匹配算法动态分配茶叶正样本,提高不同品质茶叶的识别能力。结果表明,改进后的算法精准度、召回率、平均精度均值、模型体积、检测速度分别为97.4%、89.7%、91.9%、7.11MB和51帧/s,相较于基础的YOLOv5s平均精度均值提高了3.8个百分点,检测速度提高了7帧/s。利用相同数据集在不同目标检测模型上进行对比试验,与Faster-RCNN、SSD、YOLOv3、YOLOv4等模型相比,平均精度均值分别提升10.8、22.9、18.6、8.4个百分点,进一步验证了该研究方法的有效性和可靠性。  相似文献   

3.
针对自然环境下油茶果存在多种类、多遮挡及小目标等问题,该研究基于YOLOV5s提出COF-YOLOv5s(camellia oleifera fruit-you only look once)油茶果识别模型,实现油茶果的高精度检测。通过添加小目标检测层、将FasterNet中的轻量化模块Faster Block嵌入到C3模块及添加Biformer注意力机制对YOLOv5s进行改进。试验结果表明,改进后网络在测试集上的精度、召回率、平均精度均值分别为97.6%、97.8%、99.1%,比YOLOv5s分别提高2.9、7.5、6.5个百分点,推理时间为10.3 ms,模型权重文件16.1 MB。将模型部署到Jetson Xavier NX中,结合ZED mini相机进行油茶果识别与定位试验。室内试验得到COF-YOLOv5s的召回率为91.7%,比YOLOv5s提高47.3个百分点;室外绿油茶果的召回率为68.8%,小目标红油茶果在弱光条件下的召回率为64.3%。研究结果可为实现油茶产业的智能化和规模化提供理论支持。  相似文献   

4.
基于融合坐标信息的改进YOLO V4模型识别奶牛面部   总被引:1,自引:2,他引:1  
为实现奶牛个体的准确识别,基于YOLO V4目标检测网络,提出了一种融合坐标信息的奶牛面部识别模型。首先,采集71头奶牛面部图像数据集,并通过数据增强扩充提高模型的泛化性能。其次,在YOLO V4网络的特征提取层和检测头部分分别引入坐标注意力机制和包含坐标通道的坐标卷积模块,以增强模型对目标位置的敏感性,提高识别精度。试验结果表明,改进的YOLO V4模型能够有效提取奶牛个体面部特征,平均精度均值(mAP)为93.68%,平均帧率为18帧/s,虽然检测速度低于无锚框的CenterNet,但mAP提高了10.92%;与Faster R-CNN和SSD模型相比,在检测速度提高的同时,精度分别提高了1.51%和16.32%;与原始YOLO V4相比,mAP提高0.89%,同时检测速度基本不变。该研究为奶牛精准养殖中的牛脸图像识别提供了一种有效的技术支持。  相似文献   

5.
畜牧业自动化管理面临的一个关键挑战是如何准确地检测大规模放牧养殖牲畜的种群,确定其数量和实时更新群体信息。牲畜规模化、自动化检测受环境场地等因素影响,当前目标检测算法经常出现漏检、误检等情况。该研究基于YOLOV5s目标检测网络设计了一种牲畜检测算法LDHorNet(livestock detect hor net),参考HorNet的递归门控卷积设计了HorNB模块对网络模型进行改进,以提高检测算法的空间交互能力和检测精度。然后在网络结构中嵌入CBAM(convolutional block attention module)注意力机制,以提高小目标的检测精度和注意力权重,并利用Repulsion 损失函数提高目标检测网络的召回率和预测精度。试验结果表明,所提出的LDHorNet算法的精准率、召回率分别为95.24%、88.87%,平均精准率均值mAP_0.5、mAP_0.5:0.95分别为94.11%、77.01%,比YOLOv5s、YOLOv8s、YOLOv7-Tiny精准率分别提高了2.83、2.93和9.79个百分点,召回率分别提高了6.66和4.95、13.42个百分点,平均精准率均值mAP_0.5:0.95分别提高12.46、5.26和20.97个百分点。该算法对于小目标和遮挡场景下的牲畜检测效果优于原算法与对比算法,表现出良好的鲁棒性,具有广泛的应用前景。  相似文献   

6.
为解决光线遮蔽、藻萍干扰以及稻叶尖形状相似等复杂环境导致稻田杂草识别效果不理想问题,该研究提出一种基于组合深度学习的杂草识别方法。引入MSRCP(Multi-Scale Retinex with Color Preservation)对图像进行增强,以提高图像亮度及对比度;加入ViT分类网络去除干扰背景,以提高模型在复杂环境下对小目标杂草的识别性能。在YOLOv7模型中主干特征提取网络替换为GhostNet网络,并引入CA注意力机制,以增强主干特征提取网络对杂草特征提取能力及简化模型参数计算量。消融试验表明:改进后的YOLOv7模型平均精度均值为88.2 %,较原YOLOv7模型提高了3.3个百分点,参数量减少10.43 M,计算量减少66.54×109次/s,有效提高模型速度与精度。识别前先经过MSRCP图像增强后,改进YOLOv7模型的平均精度均值提高了2.6个百分点,模型对光线遮蔽、藻萍干扰以及稻叶尖形状相似的复杂环境下平均精度均值分别提高5.3、3.6、3.1个百分点;再加入ViT分类网络后,模型平均精度均值进一步提高,较原模型平均精度均值整体提升了4.4个百分点,在复杂环境下的平均精度均值较原模型整体提升了6.2、6.1、5.7个百分点。ViT-改进YOLOv7模型的平均精度均值为92.6 %,相比于YOLOv5s、YOLOXs、MobilenetV3-YOLOv7、YOLOv8和改进YOLOv7分别提高了11.6、10.1、5.0、4.2、4.4个百分点。研究结果可为稻田复杂环境的杂草精准识别提供支撑。  相似文献   

7.
基于红外热成像与改进YOLOV3的夜间野兔监测方法   总被引:7,自引:7,他引:0  
随生态改善,野兔数量增多,对农田与林地的危害日益加重。野兔活动多为夜间,目标小,运动速度快,且出现环境较复杂,监控兔害,需要一种高效智能化的方法。针对野兔活动习性,该文提出了使用红外热成像实时监控,结合改进的YOLOV3目标检测方法对夜间野兔进行检测。根据YOLOV3目标检测网络基本结构提出了一种针对红外图像中野兔的实时检测的网络(infrared rabbit detection YOLO,IR-YOLO),该网络特征提取部分压缩YOLOV3特征提取网络深度,利用浅层卷积层特征以提高低分辨率红外小目标检测精度,降低运算量,网络检测部分使用基于CenterNet结构的检测方式以提高检测速度。使用热成像野外实时采集的夜间野兔图像作为数据集,包括不同距离,尺度,出现环境不同的野兔共计6 000幅红外图像制作训练集与测试集,比例为5:1。试验结果表明,IR-YOLO在红外热成像视频中复杂环境下出现的野兔检测率达75%,平均检测速度51帧/s,相对改进前YOLOV3检测率提高15个百分点,相对改进前YOLOV3检测速度提高5帧/s。相比其他目标检测算法各项检测指标更为优良,检测率方面相对Faster-RCNN与RFCN-RESNET101分别提高45个百分点与20个百分点,检测速度方面相对Faster-RCNN与RFCN-RESNET101分别提高30和与45帧/s。该方法可高效快速地对夜间复杂环境下出现的野兔进行检测,也可广泛应用于夜间对其他类型农业害兽的检测。  相似文献   

8.
番茄花果的协同识别是温室生产管理调控的重要决策依据,针对温室番茄栽培密度大,植株遮挡、重叠等因素导致的现有识别算法精度不足问题,该研究提出一种基于级联深度学习的番茄花果协同识别方法,引入图像组合增强与前端ViT分类网络,以提高模型对于小目标与密集图像检测性能。同时,通过先分类识别、再进行目标检测的级联网络,解决了传统检测模型因为图像压缩而导致的小目标模糊、有效信息丢失问题。最后,引入了包括大果和串果在内的不同类型番茄品种数据集,验证了该方法的可行性与有效性。经测试,研究提出的目标检测模型的平均识别率均值(mean average precision,m AP)为92.30%,检测速度为28.46帧/s,其中对小花、成熟番茄和未成熟番茄识别平均准确率分别为87.92%、92.35%和96.62%。通过消融试验表明,与YOLOX、组合增强YOLOX相比,改进后的模型m AP提高了2.38~6.11个百分点,相比于现有YOLOV3、YOLOV4、YOLOV5主流检测模型,m AP提高了16.56~23.30个百分点。可视化结果表明,改进模型实现了对小目标的零漏检和对密集对象的无误检,从而达到...  相似文献   

9.
为解决传统小肠绒毛需要专业人员手动检测耗时耗力且存在主观性和不稳定性等问题,同时提高在复杂病理学图像中小肠绒毛检测的准确率和效率,该研究提出基于改进YOLOv5s检测复杂病理学图像下猪只小肠绒毛的方法。首先,采用串联形式的混合池化对空间金字塔进行优化,增强特征提取与特征表达,提升检测精度;然后引入一种基于注意力机制的网络模块(simpleattentionmechanism,SimAM)与Bottleneck中的残差连接相结合,使用SimAM对Bottleneck中的特征图进行加权,得到加权后的特征表示,利用注意力机制加强模型对目标的感知。试验结果表明,该研究算法的平均精度(average precision)和每秒传输帧数(frame per second,FPS)达到92.43%和40帧/s。改进后的YOLOv5s在召回率和平均精度上相较改进前提高2.49和4.62个百分点,在不增加模型参数量的情况下,每帧图片的推理时间缩短1.04 ms。与经典的目标检测算法SSD、Faster R-CNN、YOLOv6s、YOLOX相比,平均精度分别提高15.16、10.56、2.03和4.07...  相似文献   

10.
牛面部检测与识别是牛场智能化养殖的关键,但由于牧场养殖环境的复杂性,牛脸检测会受到模糊、逆光和遮挡3种常见环境因素的严重干扰。针对此问题,该研究提出一种复杂场景下基于自适应注意力机制的牛脸检测算法,该算法首先针对3种干扰因素分别设计了评价指标,并将3种不同类型的评价指标通过模糊隶属度函数进行归一化,并确定自适应权重系数,真实反映目标所处场景的复杂性;之后,基于YOLOV7-tiny在主干特征提取网络引入一种新型注意力机制CDAA(composite dual-branch adaptive attention),设计通道和空间注意力并行结构,并融合自适应权重系数,有效加强相应注意力分支的权重,提高网络在复杂场景下的特征提取能力,解决复杂场景下网络检测精度差的问题;最后,将图像场景评价指标引入损失函数,对大尺度网格损失函数的权重进行自适应调整,使网络在训练过程中更专注于数量较多的小型目标,从而提升网络整体的检测精度。为检测算法的有效性和实时性,在特定数据集上进行消融试验,并与多种经典检测算法进行对比,并移植至Jetson Xavier NX平台测试。测试结果表明,该算法检测精度达到89.58%,相较于原YOLOV7-tiny网络,牛脸检测精度提高了7.34个百分点。检测速度达到62帧/s,在检测速度几乎不损失的条件下,检测效果优于原网络与对比网络。 研究结果可为复杂场景下的牛脸高效检测提供参考。  相似文献   

11.
瘤胃充盈度评分是反映奶牛个体采食量与能量摄入状态的直观指标,为实现奶牛瘤胃充盈度的自动评分,该研究提出了一种基于SOLOv2网络和空腔特征的瘤胃充盈度自动评分方法,首先对获取的奶牛背部深度图像进行预处理以提取目标奶牛;其次利用SOLOv2实例分割网络对奶牛瘤胃区域进行分割以获取瘤胃区域点云,将其投影至X-Z平面内采样得...  相似文献   

12.
基于视频分析的多目标奶牛反刍行为监测   总被引:6,自引:6,他引:0  
奶牛反刍行为与其生产、繁殖和应激行为等存在较强的相关性,现有方法多采用人工观察或可穿戴式装置进行奶牛反刍行为的监测,存在误差大、容易引起奶牛应激反应、成本高等问题。为了实现多目标奶牛反刍行为的实时监测,该研究基于视频分析与目标跟踪技术,在获取奶牛嘴部区域的基础上,分析对比了压缩跟踪算法(compressive tracking,CT)和核相关滤波算法(kernelized correlation filters,KCF)在多目标奶牛反刍监测中的性能。为了验证不同算法对奶牛反刍行为监测的效果,分别用9段视频进行了试验,针对误检问题提出了有效的咀嚼次数判定模型,最后与实际的奶牛反刍数据进行了对比。试验结果表明:对多目标监测,KCF算法平均帧处理速度为7.37帧/s,是CT算法平均帧处理速度0.51帧/s的14.45倍;KCF算法平均误差为13.27像素,是CT算法平均误差38.28像素的34.67%。对双目标监测,KCF算法的平均误检率为7.72%,比CT算法的平均误检率18.56%低10.84个百分点;2种算法的帧处理速度分别为10.11帧/s和0.87帧/s;平均跟踪误差分别为22.19像素和28.51像素,KCF算法的平均跟踪误差仅为CT算法的77.83%。试验结果表明,KCF算法具有较低的误检率及较高的帧处理速度,更适合奶牛反刍行为的监测。在此基础上,验证了2种算法在不同光照、不同姿态和不同程度遮挡等影响因素下的监测效果,结果表明,CT算法会出现不同程度的偏离,甚至丢失目标,而KCF算法仍然具有良好的效果和较好的适应性,表明将KCF算法应用于全天候多目标奶牛反刍行为的分析是可行的、有效的。  相似文献   

13.
基于头颈部轮廓拟合直线斜率特征的奶牛跛行检测方法   总被引:4,自引:3,他引:1  
针对人工跛行检测不够及时,难以发现突发中、重度跛行及轻度跛行行为的问题,该文提出了一种基于正态分布背景统计模型(normal background statistical model,NBSM)与局部循环中心补偿跟踪模型(local circulation center compensation track,LCCCT)和线性斜率最近邻分类(distilling data of KNN,DSKNN)技术的奶牛跛行检测方法。首先利用NBSM模型对奶牛序列图像中的目标奶牛像素区域进行分割,然后对得到的奶牛像素区域利用LCCCT模型提取目标奶牛身体前部像素区域,用其区域通过DSKNN模型提取目标奶牛的头部、颈部以及与颈连接的背部轮廓线拟合直线斜率数据,基于大样本视频序列帧数据将视频集制成轻度跛行、中重度跛行及正常等3类标签的斜率数据集。为了验证算法的有效性,对随机选取的18段奶牛视频进行了验证,其中正常奶牛、轻度跛行奶牛及中重跛行奶牛视频段各6段,获得头部、颈部及背部连接处的拟合直线斜率数据集。在未清洗的数据集上,分别利用SVM、Naive Bayes以及KNN分类算法进行了奶牛跛行的分类检测试验,试验结果表明,SVM与Naive Bayes跛行分类检测正确率均为82.78%,KNN奶牛跛行检测正确率为81.67%。将未清洗的数据集进行清洗后,3类算法的结果表明,KNN分类算法的跛行检测正确率达93.89%,高于SVM分类算法的91.11%及Naive Bayes分类算法的86.11%。上述结果表明通过头部、颈部及背部连接处的拟合直线斜率特性可以正确检测奶牛跛行,未清洗的数据经数据清洗后,KNN分类算法可以取得更好的检测结果。该研究结果对于奶牛跛行疾病的预防、诊断具有重要意义。  相似文献   

14.
基于Lucas-Kanade稀疏光流算法的奶牛呼吸行为检测   总被引:2,自引:2,他引:0  
奶牛呼吸行为的智能检测对于奶牛疾病的自动诊断及奶牛精准养殖具有重要意义。该研究基于Lucas-Kanade稀疏光流算法,提出了一种适合于非结构化养殖环境的无接触式单目标奶牛呼吸行为检测方法。通过在HSV颜色空间完成奶牛目标的提取,然后通过Canny算子和掩模操作完成奶牛所有花斑边界的检测,再利用Lucas-Kanade稀疏光流算法计算提取奶牛花斑边界光流,最后根据视频序列帧中花斑边界平均光流的方向变化规律实现奶牛呼吸行为的检测。为了验证本研究算法的有效性,利用不同环境下获取的105段共计25 200帧数据进行了测试,并与基于整体Lucas-Kanade光流法、整体Horn-Schunck光流法和基于花斑边界的Horn-Schunck光流法进行了对比验证。试验结果表明,该研究算法的帧处理耗时在0.10~0.13 s之间,在试验视频上的平均运行时间为14.14 s。奶牛呼吸行为检测的准确率为83.33%~100%之间,平均准确率为98.58%。平均运行时间较基于整体Lucas-Kanade光流法的呼吸行为检测方法慢1.60 s,较Horn-Schunck整体光流的呼吸行为检测方法快7.30 s,较基于花斑边界的Horn-Schunck光流法快9.16 s。呼吸行为检测的平均准确率分别高于3种方法 1.91、2.36、1.26个百分点。研究结果表明,通过Lucas-Kanade光流法检测奶牛花斑边界平均光流方向变化实现奶牛呼吸行为检测是可行的,该研究可为奶牛热应激行为的自动监测及其他与呼吸相关疾病的远程诊断提供参考。  相似文献   

15.
基于卷积神经网络的奶牛个体身份识别方法   总被引:5,自引:14,他引:5  
视频分析技术已越来越多地应用于检测奶牛行为以给出养殖管理决策,基于图像处理的奶牛个体身份识别方法能够进一步提高奶牛行为视频分析的自动化程度。为实现基于图像处理的无接触、高精确度、适用性强的奶牛养殖场环境下的奶牛个体有效识别,提出用视频分析方法提取奶牛躯干图像,用卷积神经网络准确识别奶牛个体的方法。该方法采集奶牛直线行走时的侧视视频,用帧间差值法计算奶牛粗略轮廓,并对其二值图像进行分段跨度分析,定位奶牛躯干区域,通过二值图像比对跟踪奶牛躯干目标,得到每帧图像中奶牛躯干区域图像。通过理论分析和试验验证,确定了卷积神经网络的结构和参数,并将躯干图像灰度化后经插值运算和归一化变换为48×48大小的矩阵,作为网络的输入进行个体识别。对30头奶牛共采集360段视频,随机选取训练数据60 000帧和测试数据21 730帧。结果表明,在训练次数为10次时,代价函数收敛至0.0060,视频段样本的识别率为93.33%,单帧图像样本的识别率为90.55%。该方法可实现养殖场中奶牛个体无接触精确识别,具有适用性强、成本低的特点。  相似文献   

16.
奶牛乳房炎是影响奶牛健康的主要疾病之一,发病率高、发病范围广、经济损失严重。目前奶牛乳房炎的检测大多是采集奶牛乳汁进行理化性质检测,该方法对检测环境有着较高要求,且检测周期长。随着信息技术的迅速发展,奶牛乳房炎的自动检测技术取得了较好的研究成果。该研究根据数据的传感器类型,从视觉传感器、自动挤奶系统与其他传感器3个方面阐述了奶牛乳房炎自动检测的研究进展。基于视觉传感器的奶牛乳房炎自动检测方法包括基于乳房热红外图像和基于乳汁图像的检测方法,该方法较大程度上保障了动物福利,但检测精度有待提升;基于自动挤奶系统(automatic milking systems, AMS)的奶牛乳房炎自动检测方法利用AMS获取乳汁信息,然后构建乳房炎检测模型,该方法检测误差较小,但成本较高;基于其他传感器的奶牛乳房炎检测方法采用独立研发的传感器获取乳汁数据,预测乳房炎发病情况,该方法操作简便,但使用不同传感器构建的检测模型精度差异较大。该文还探讨了目前奶牛乳房炎自动检测领域存在的精度低、实时性差、自动化不足等问题,并展望了该领域未来的发展趋势,以期为开展奶牛乳房炎自动检测技术与方法研究提供参考。  相似文献   

17.
监测与发现奶牛异常行为是实现疾病早期防控的关键,其中尤以跛足行为发现与识别较为典型,但是当前家畜异常行为识别仍然存在在线性能较差的问题。针对这一问题,该文提出2种改进策略。首先提出一种基于共轭梯度追踪算法的稀疏超完备词典学习算法(conjugate gradient pursuit-KSVD,CGP-KSVD)用于跛足行为特征的语义级描述和表示,即在稀疏编码构建阶段引入共轭梯度追踪算法寻找优化搜索方向,同时避免存储和计算大规模Hessen矩阵带来的计算负载,从而提升稀疏超完备词典学习算法的收敛速度。其次通过时空兴趣点与稠密轨迹图二次提取时空兴趣点相融合实现视频底层特征提取和表示,在保留丰富细节特征信息的基础上减少冗余特征降低计算负载。在1 200个时长10 s的标注视频样本集上测试结果显示:该文提出的算法识别准确率达到100%,识别平均响应时间为0.043 s,对比基于基追踪算法(basis pursuit-KSVD,BP-KSVD)和正交匹配追踪算法(orthogonal matching pursuit-KSVD,OMP-KSVD)稀疏编码序列优化策略算法在识别平均响应时间分别提升1.11和0.199 s,在90 h回放视频和在线测试视频上跛足行为识别准确率分别为93.3%和92.7%,明显优于对比算法。试验结果表明该文提出的跛足行为识别算法框架具有较高的识别准确率和较好的在线响应时间,可以为相关研究工作提供借鉴意义,相关技术可以成为接触式传感器监测及其他技术的必要补充。  相似文献   

18.
基于全混合日粮饲喂技术的精饲料精确饲喂模式   总被引:2,自引:2,他引:0  
为了提高奶牛产量、降低生产成本,奶牛精细饲喂是重要的实现途径,该文对奶牛精饲料精确饲喂与配套饲喂模式进行了研究。该文以个体奶牛为饲养管理单位对200头和500头牛群进行了"TMR(total mixed ration,全混合日粮)+精饲料精确饲喂"饲喂模式的牛舍内和奶厅外饲喂研究,试验结果表明:牛舍内饲喂采用牛颈枷间距1.2 m,装备行进速度0.45 m/s时,识别系统对奶牛的识别率100%,识别准确率不小于96%,抢食率不大于4%,系统响应时间不大于2 s,每百头奶牛饲喂时间不大于0.4 h;奶厅外饲喂采用牛颈枷间距1.4 m,装备行进速度0.7 m/s时,识别系统对奶牛的识别率100%,识别准确率不小于99%,抢食率为0,系统响应时间不大于2 s,每百头奶牛饲喂时间不大于0.35 h;同时试验期间比2011年同期传统"TMR+人工补饲精饲料"饲喂模式平均单产提高0.8 kg/d,并减轻了劳动强度。研究结果可为奶牛饲喂与养殖模式相关研究、牛场建设与改造等提供参考。  相似文献   

19.
针对奶牛养殖场复杂环境下多目标奶牛嘴部自动跟踪及反刍监测的困难,该研究提出了一种基于嘴部区域跟踪的多目标奶牛反刍行为智能监测方法。在YOLOv4模型识别奶牛嘴部上下颚区域的基础上,以Kalman滤波和Hungarian算法跟踪上颚区域,并对同一奶牛目标的上颚和下颚区域进行关联匹配获取嘴部咀嚼曲线,以此获取反刍相关信息,从而实现多目标奶牛个体的嘴部跟踪和反刍行为监测;为解决奶牛快速摆头运动和棚舍栏杆遮挡引发奶牛标号变化的问题,提出未匹配跟踪框保持及扩大的方法。采集并选择实际养殖场环境下的反刍奶牛视频66段,对其中58段视频采取分帧操作得到图像,制作YOLOv4模型数据集,以其余8段视频验证跟踪方法和反刍行为判定方法的有效性。试验结果表明,YOLOv4模型对奶牛嘴部上颚、下颚区域的识别准确率分别为93.92%和92.46%;改进的跟踪算法可实现复杂环境下多目标奶牛嘴部区域的稳定跟踪,且有效解决了栏杆遮挡、快速摆头运动造成的奶牛标号变化现象,上下颚匹配率平均为99.89%,跟踪速度平均为31.85帧/s;由反刍行为判定方法获取的咀嚼次数正确率的平均值为96.93%,反刍时长误差的平均值为1.48 s。该研究可为实际养殖中多目标奶牛反刍行为的智能监测和分析提供参考,也可供其他群体动物运动部位的跟踪和行为监测借鉴。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号