首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 78 毫秒
1.
基于卷积神经网络的奶牛发情行为识别方法   总被引:6,自引:0,他引:6  
对奶牛发情的及时监测在奶牛养殖中至关重要。针对现有人工监测奶牛发情行为费时费力、计步器接触式监测会产生奶牛应激行为等问题,根据奶牛发情的爬跨行为特征,提出一种基于卷积神经网络的奶牛发情行为识别方法。构建的卷积神经网络通过批量归一化方法提高网络训练速度,以Max-pooling为下采样,修正线性单元(Rectified linear units,Re LU)为激活函数,Softmax回归分类器为输出层,结合理论分析和试验验证,确定了32×32-20c-2s-50c-2s-200c-2的网络结构和参数。经过对奶牛活动区50头奶牛6个月的视频监控,筛选了具有发情行为爬跨特征的视频150段,随机选取网络训练数据23 000幅和测试数据7 000幅,对构建的网络进行了训练和测试。试验结果表明:本文方法对奶牛发情行为识别准确率为98. 25%,漏检率为5. 80%,误识别率为1. 75%,平均单幅图像识别时间为0. 257 s。该方法能够实现奶牛发情爬跨的无接触实时监测,对奶牛发情行为具有较高的识别率,可显著提高规模化奶牛养殖的管理效率。  相似文献   

2.
基于机器视觉的奶牛发情行为自动识别方法   总被引:3,自引:0,他引:3  
及时检测奶牛发情、适时人工授精、减少空怀奶牛,是奶牛养殖场增加产奶量的关键手段。针对基于运动量和体温等体征的接触式奶牛发情识别方法会造成奶牛应激反应且识别准确率不高的问题,提出了一种非接触式奶牛发情行为自动识别方法。该方法首先使用改进的高斯混合模型实现运动奶牛目标检测,然后基于颜色和纹理信息去除干扰背景,再利用AlexNet深度学习网络训练奶牛行为分类网络模型,识别奶牛爬跨行为,最终实现对奶牛发情行为的自动识别。在供试数据集上的试验结果表明,本文方法对奶牛发情的识别准确率为100%,召回率为88.24%。本文方法可应用于奶牛养殖场的日常发情监测中,为生产管理提供辅助决策。  相似文献   

3.
基于改进YOLO v3模型的奶牛发情行为识别研究   总被引:1,自引:0,他引:1  
为提高复杂环境下奶牛发情行为识别精度和速度,提出了一种基于改进YOLO v3模型的奶牛发情行为识别方法.针对YOLO v3模型原锚点框尺寸不适用于奶牛数据集的问题,对奶牛数据集进行聚类,并对获得的新锚点框尺寸进行优化;针对因数据集中奶牛个体偏大等原因而导致模型识别准确率低的问题,引入DenseBlock结构对YOLO ...  相似文献   

4.
奶牛异常发情是生产实践中经常发生的繁殖疾病,主要是因为营养不良、饲养管理不善、激素分泌失调、疾病等原因而引起,常见的有不发情、隐性发情、不规则发情等。通过实践总结不规则发情中的安静发情、短促发情、断续发情、短周期发情是真发情,  相似文献   

5.
汪开英  谢江明 《农机化研究》2004,(3):139-140,143
应用红外传感器系统研究了夏季断奶母猪发情行为与配种。结果表明,母猪断奶后第4天发情表现达到最高潮;环境温度对母猪发情及配种影响极显著,断奶母猪正常发情并成功配种的环境温度应不高于23℃。此项研究对准确鉴定母猪的发情、适时配种及环境调控有着重要意义。  相似文献   

6.
为解决限位栏场景下经产母猪查情难度大、过于依赖公猪试情和人工查情的问题,提出了一种基于改进YOLO v5s算法的经产母猪发情快速检测方法。首先,利用马赛克增强方式(Mosaic data augmentation, MDA)扩充数据集,以丰富数据表征;然后,利用稀疏训练(Sparse training, ST)、迭代通道剪枝(Network pruning, NP)、模型微调(Fine tune, FT)等方式重构模型,实现模型压缩与加速;最后,使用DIOU_NMS代替GIOU_NMS,以提高目标框的识别精度,确保模型轻量化后,仍保持较高的检测精度。试验表明,优化后的算法识别平均精确率可达97.8%,单幅图像平均检测时间仅1.7 ms,单帧视频平均检测时间仅6 ms。分析空怀期母猪发情期与非发情期的交互行为特征,发现母猪发情期较非发情期交互时长与频率均显著提高(P<0.001)。以20 s作为发情检测阈值时,发情检测特异性为89.1%、准确率为89.6%、灵敏度为90.0%,该方法能够实现发情母猪快速检测。  相似文献   

7.
基于卷积神经网络的大白母猪发情行为识别方法研究   总被引:2,自引:0,他引:2  
针对现有发情检测方法灵敏度低、识别时间长、易受外界干扰等缺点,根据大白母猪试情时双耳竖立的特征,提出一种基于卷积神经网络(Convolutional neural network, CNN)的大白母猪发情行为识别方法。首先通过采集公猪试情时发情大白母猪与未发情大白母猪的耳部图像,划分训练集样本(80%)与验证集样本(20%)用于后期训练。随后,基于AlexNet卷积神经网络构建分类模型(AlexNet_Sow),并对该模型的网络结构进行简化,简化后的模型包含2个卷积模块和2个全连接模块,选择修正线性单元(Rectified linear units, ReLU)作为激活函数,用自适应矩估计(Adaptive moment estimation, Adam)方法优化梯度下降,选择Softmax作为网络分类器,通过结合增强学习的方法对模型进行训练,得到模型应用于验证集的准确率达到99%。此外,设定了发情鉴定的时间阈值,并结合LabVIEW的Python节点用于模型应用。当公猪试情时,大白母猪双耳竖立时长达到76s时,则可判定其为发情。该方法对大白母猪发情识别的精确率、召回率与准确率分别为100%、83.33%、93.33%,平均单幅图像的检测时间为26.28ms。该方法能够实现大白母猪发情的无接触自动快速检测,准确率高,大大降低了猪只应激情况和人工成本。  相似文献   

8.
基于混合高斯模型的移动奶牛目标实时检测   总被引:2,自引:0,他引:2  
针对奶牛养殖场背景复杂和环境多变导致现有的目标检测算法无法满足鲁棒性和实时性需求的问题,基于递归背景建模思想,在混合高斯模型中引入惩罚因子,提出了一种动态背景建模方法,采用局部更新策略,以降低模型复杂度和解决前景消融问题;提出基于色度偏差和亮度偏差的二分类算法,避免目标物阴影区域的影响。对不同天气及环境变化剧烈情况下获取的奶牛视频样本进行实验。结果表明,与混合高斯模型相比,平均模型复杂度降低了50.85%,前景误检率和背景误检率分别降低了19.50和13.37个百分点,单帧运行时间降低了29.25%,检测准确率更高、实时性更好,且解决了前景消融问题,能满足在复杂背景和环境条件下实时提取奶牛目标的要求。  相似文献   

9.
针对现有深度学习技术在奶牛关键点检测研究中尚存在网络复杂度高、检测速度慢等问题,提出了一种轻量化奶牛关键点检测模型SimCC-ShuffleNetV2。在模型中,主干网络采用ShuffleNetV2用于特征提取,有利于实现网络的轻量化;检测头采用SimCC用于关键点位置预测,SimCC采取坐标分类的方法使得检测更加简单高效。为了验证模型的性能,本研究设计了奶牛的关键点及骨架结构,并标注了3 600幅图像用于模型的训练与测试。试验结果表明,SimCC-ShuffleNetV2模型的AP50:95为88.07%,浮点运算量为1.5×108,参数量为1.31×106,检测速度为10.87 f/s,可以实现奶牛关键点的精确与高效检测。与基于回归的DeepPose网络、基于热力图的HRNet网络进行了对比试验,结果表明SimCC-ShuffleNetV2取得了精度与速度的良好平衡。同时,本研究通过更换不同主干与不同检测头的方式,对比验证了不同模块对模型性能影响,本研究所提出的模型在所有试验中均取得了最佳结果,表明ShuffleNe...  相似文献   

10.
通过准确测量奶牛新鲜乳汁的温度、电导率、电容和乳汁中的体细胞含量,建立了温度、电导率、电容为输入,体细胞数为输出的四层BP神经网络模型。并将结果与没有电容参数的网络模型结果进行比较。结果表明:电容参数的加入使检测精度有显著提高,验证集奶牛乳腺炎等级的正确检出率达到100%。  相似文献   

11.
针对跟踪模型泛化能力差、跟踪模型正样本选取质量低、深层模型参数量大不利于部署等问题,本文提出了超轻量化孪生网络模型Siamese-remo。首先结合传统随机采样方法和go-turn方法,设计出新型的正负样本选取策略,增加模型泛化能力;其次采用shiftbox-remo的数据增强方式均匀正样本分布,并提升正样本采集质量;然后通过改进后的超轻量化Mobileone-remo网络提取特征,一定程度减少深层网络对跟踪平移不变性的破坏,并预设不同特征融合参数,单独训练网络分类和回归;最终加入Center-rank loss函数,根据样本点位置影响置信度、IOU排名,对网络分类回归策略进行优化。实验证明,自然场景下奶牛单目标跟踪模型期望平均重合度(Expected average overlap, EAO)达到0.475,相对于基线模型提升0.078,与现有跟踪器对比取得了较好的成绩,且参数量仅为现有主流算法的1/20,为后续自然场景下奶牛身份识别与目标跟踪系统提供了技术支持。  相似文献   

12.
针对非限制条件下奶牛的个体识别,提出了一种基于深度特征与传统特征融合的奶牛识别方法。首先利用Mask R-CNN识别站立和躺卧姿态下的奶牛。其次,用两种方法提取奶牛的特征概率向量:用卷积神经网络(Convolutional neural network, CNN)提取Softmax层概率向量形式的深度特征;人工提取并利用近邻成分分析(Neighbourhood component analysis, NCA)选择传统特征,并将其输入支持向量机(Support vector machine, SVM)模型,输出概率向量。最后对两种特征进行融合,并基于融合后的特征采用SVM对奶牛进行分类。对58头奶牛站立和躺卧姿态的数据集进行了个体识别实验,结果表明,对于站立和躺卧姿态下的奶牛,与单独使用深度特征相比,特征融合方法准确率分别提高约3个百分点和2个百分点;与单独使用传统特征相比,特征融合方法准确率分别提高约5个百分点和10个百分点。站立和躺卧姿态下的奶牛个体识别率分别达到98.66%和94.06%。本文研究结果可为智能奶牛行为分析、疾病检测等提供有效的技术支持。  相似文献   

13.
针对人工监测奶牛发情费时、费力,仅依靠活动量和非接触式视频监测无法实现奶牛安静发情预警的问题,根据奶牛发情时阴道粘液生理特征变化,提出基于奶牛阴道电阻变化的奶牛发情监测方案。设计了由黄铜电阻探头、8爪防滑装置构成的奶牛阴道植入式电阻传感器,对阴道电阻值进行采集。借助2.4GHz的ZigBee网络开发了无线传输系统,将阴道电阻无线传送给协调器节点,协调器经由RS485总线传输到监控中心。开发了奶牛阴道电阻上位机实时监测系统,实现了奶牛阴道电阻的精确采集和远程实时监测。分别对植入式电阻传感器和监测系统进行了准确性、稳定性、可靠性及能量可用性试验,结果表明,植入式电阻传感器电阻测量探头体积小、安装方便,可测定1~1000Ω范围的电阻,测量精度在±2%以内,24h内电阻最大波动为2Ω;在450m2奶牛养殖区范围内,ZigBee网络数据发送成功率不低于98.5%;植入式电阻传感器终端节点在7.4V/6500mA·h锂电池能量供应下可连续工作38d。监测系统运行稳定,能够精确、可靠、实时地监测奶牛阴道电阻的变化,为奶牛发情程度和排卵时间的准确预测提供了一种新的监测方法。  相似文献   

14.
利用先进的信息技术推动智能养殖业发展已经成为奶牛养殖研究领域的重要目标和任务。计算机视觉技术具有非接触、免应激、低成本及高通量等优点,在畜牧生产中应用前景广阔。本文在阐述了计算机视觉技术在智能化养殖业发展中重要性的基础上,首先介绍了基于计算机视觉的奶牛生理参数监测进展,包括体尺、体温、体重的前沿监测设备、技术和模型参数。然后阐述了奶牛跛行及乳腺炎等疾病诊断的前沿技术发展过程和研究现状。目前,相关技术研究和应用推广存在检测准确性不高,受环境因素影响较大,非标准化养殖场结构制约检测系统普及,以及检测系统成本较高等问题和挑战。最后,本文结合中国养殖业发展现状,针对保证检测准确性、减少环境干扰等问题,就如何提高计算机视觉技术在智能化养殖业中的准确性和普适性提出了相关建议,旨在为中国奶牛养殖业的科学管理和现代化生产提供新方法和新思路。  相似文献   

15.
基于部分亲和场的行走奶牛骨架提取模型   总被引:3,自引:0,他引:3  
在奶牛关键点预测的基础上,通过点、线重构奶牛骨架结构,可为奶牛跛行检测、发情行为分析、运动量估测等提供重要参考。本研究基于部分亲和场,以养殖场监控摄像头拍摄的视频为原始数据,使用1 600幅图像训练了奶牛骨架提取模型,实现了奶牛站立、行走状态下关键点信息和部分亲和场信息的预测,并通过最优匹配连接对奶牛骨架结构进行准确提取。为了验证该模型的性能,采用包含干扰因素的100幅单目标奶牛和100幅双目标奶牛图像进行了测试。结果表明,该模型对单目标行走奶牛骨架提取的置信度为78.90%,双目标行走奶牛骨架提取的置信度较单目标下降了10.96个百分点。计算了不同关键点相似性(Object keypoint similarity,OKS)下的模型准确率,当OKS为0.75时,骨架提取准确率为93.40%,召回率为94.20%,说明该模型具有较高的准确率。该方法可以提取视频中奶牛骨架,在无遮挡时具有高置信度和低漏检率,当遮挡严重时置信度有所下降。该模型的单目标和双目标图像帧处理速度分别为3.30、3.20 f/s,基本相同。本研究可为多目标奶牛骨架提取提供参考。  相似文献   

16.
基于改进YOLO v3模型的挤奶奶牛个体识别方法   总被引:3,自引:0,他引:3  
为实现无接触、高精度养殖场环境下奶牛个体的有效识别,提出了基于改进YOLO v3深度卷积神经网络的挤奶奶牛个体识别方法。首先,在奶牛进、出挤奶间的通道上方安装摄像机,定时、自动获取奶牛背部视频,并用视频帧分解技术得到牛背部图像;用双边滤波法去除图像噪声,并用像素线性变换法增强图像亮度和对比度,通过人工标注标记奶牛个体编号;为适应复杂环境下的奶牛识别,借鉴Gaussian YOLO v3算法构建了优化锚点框和改进网络结构的YOLO v3识别模型。从89头奶牛的36790幅背部图像中,随机选取22074幅为训练集,其余图像为验证集和测试集。识别结果表明,改进YOLO v3模型的识别准确率为95.91%,召回率为95.32%,mAP为95.16%, IoU为85.28%,平均帧率为32f/s,识别准确率比YOLO v3高0.94个百分点,比Faster R-CNN高1.90个百分点,检测速度是Faster R-CNN的8倍,背部为纯黑色奶牛的F1值比YOLO v3提高了2.75个百分点。本文方法具有成本低、性能优良的特点,可用于养殖场复杂环境下挤奶奶牛个体的实时识别。  相似文献   

17.
针对奶牛进食行为监测通常要为每头奶牛配备监测设备,但受限于设备成本,很多应用于奶牛养殖场的奶牛行为监测方法难以普及的问题,提出了一种多目标奶牛进食行为识别方法,基于YOLO v3算法,根据目标差异,将牛舍中的奶牛分为3类目标来实现奶牛进食行为监测,以通过单台设备监测多头奶牛的进食行为.YOLO v3算法具有计算成本高、...  相似文献   

18.
针对基于花纹的奶牛个体识别中纯色或花纹较少的奶牛识别准确率较低的问题,本文提出一种基于步态特征的奶牛个体识别方法。首先,将DeepLabv3+语义分割算法的主干网络替换为MobileNetv2网络,并引入基于通道和空间的CBAM注意力机制,利用改进后模型分割出奶牛的剪影图。然后,将三维卷积神经网络(3D CNN)和双向长短期记忆网络(BiLSTM)构建为3D CNN-BiLSTM网络,并进一步集成自适应时间特征聚合模块(ATFA)生成3D CNN-BiLSTM-ATFA奶牛个体识别模型。最后,在30头奶牛的共1242条视频数据集上进行了奶牛个体识别实验。结果表明,改进后DeepLabv3+算法的平均像素准确率、平均交并比、准确率分别为99.02%、97.18%和99.71%。采用r3d_18作为3D CNN-BiLSTM-ATFA的主干网络效果最优。基于步态的奶牛个体识别平均准确率、灵敏度和精确度分别为94.58%、93.47%和95.94%。奶牛躯干和腿部不同部位进行加权特征融合的个体识别实验表明识别准确率还可进一步提高。奶牛跛足对步态识别效果影响较为明显,实验期间由健康变为跛足和一直跛足的奶牛个体识别准确率分别为89.39%和92.61%。本文研究结果可为奶牛的智能化个体识别提供技术参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号