首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
基于骨架扫描策略的生猪耳根体表温度FDSST检测方法   总被引:1,自引:0,他引:1  
为了实现生猪耳根体表温度自动检测,减少快速判别尺寸空间跟踪(Fast discriminative scale space tracking, FDSST)方法在热红外视频中进行头部跟踪产生的误差,提出了一种利用骨架扫描策略改进FDSST的生猪耳根体表温度检测方法。首先对视频的初始帧进行预处理,提取精简后的生猪整体骨架;其次,设计骨架扫描策略,扫描头部骨架前端关键点,实现头部在初始帧的定位;再次,采用FDSST跟踪生猪头部,每连续跟踪N帧后,采用骨架扫描策略重新定位头部,减少跟踪框漂移;最后提出耳根体表温度提取方法,根据头部左右耳侧温度分布,提取耳根温度并误差校正。利用采集到的30只生猪的视频数据,在Matlab平台上进行了测试,并与FDSST算法、压缩感知跟踪和核相关滤波跟踪等高效算法对比分析。结果表明,本文方法的跟踪平均精确度分别提高了7.82、11.82、8.78个百分点,提取的耳根最大温度误差为0.32℃。  相似文献   

2.
猪舍场景下的生猪目标跟踪和行为检测方法研究   总被引:1,自引:0,他引:1  
段玉瑶  马丽  刘刚 《农业机械学报》2015,46(S1):187-193
针对猪舍内光照情况复杂、目标与背景颜色较为接近、相机视角与参数不佳等环境与硬件条件的不足,导致生猪跟踪过程中精度低、稳定性差的问题,充分结合实际场景,提出了一种优化特征提取的压缩感知跟踪算法。优化跟踪窗口为椭圆形,以接近生猪体态;并结合灰度和纹理特征,优化传统压缩感知算法特征提取过程;划分猪舍区域,依据生猪所处位置来判断其当前行为。随机选取猪舍内不同场景、不同光照强度、不同生猪品种的多段视频进行实验,实验结果表明:中心点均方根误差均值为25.44,分别是传统压缩感知算法、模板更新跟踪算法和Camshift跟踪算法的60.32%、33.33%、32.57%;中心点均方根误差方差为70.26,分别是传统压缩感知算法、模板更新跟踪算法和Camshift跟踪算法的7.13%、47.62%、17.16%;跟踪速度达到19.3帧/s。  相似文献   

3.
为提高奶牛体尺测量的效率与精度,降低劳动强度,提出一种基于关键帧提取与头颈部去除的奶牛体尺测量方法。首先,搭建奶牛俯视深度视频采集平台,利用分水岭算法提取深度图像中的奶牛目标;其次,使用图像扫描策略获取奶牛左右两侧轮廓,利用基于霍夫变换的直线检测方法,提取图像序列中含有完整奶牛躯干的关键帧;然后,根据奶牛头部区域骨架特征判定头部是否存在,若头部存在,则基于凸包分析方法去除图像中奶牛头部,并利用多项式曲线拟合方法去除奶牛颈部;最后,根据奶牛体尺测点的空间特征,自动计算奶牛体直长、肩宽、腹宽、臀宽及体高。利用35头奶牛的2.163帧深度图像对本文方法精度进行测试,结果分析表明,关键帧提取方法准确率为97.36%,可有效代替人工进行关键帧的选取;头部检测方法准确率为94.04%,提高了奶牛体尺测点定位的效率;体尺测量平均相对误差在3.3%以内。本文研究成果可提高奶牛体尺自动测量的效率与精度。  相似文献   

4.
为了在复杂环境下对视频目标生猪进行精确、快速检测,提出一种基于改进卷积神经网络(CNN)的多目标生猪检测算法。利用生猪图像的二值化规范梯度(BING)训练两级线性SVM,以生成高质量的候选区域,利用改进的CNN模型对候选区域进行分类识别,最后利用非极大值抑制算法剔除冗余窗口,减少训练样本和训练参数的数量。对CNN网络结构和参数进行优化实验,分析网络训练效率和目标检测效果。实验结果表明,与传统CNN模型相比,本文算法训练时间更短,且具有更快的收敛速度和更强的鲁棒性,对生猪图像前景和背景的分类正确率为96%,高于传统CNN模型的72. 29%。对误检率、漏检率和平均检测时间的分析表明,本文算法的检测性能优于Faster RCNN和Yolo算法;本文算法目标跟踪成功率平均值为89. 17%,中心点平均误差为6. 94像素,表明该检测算法在生猪跟踪上的有效性和稳定性。  相似文献   

5.
针对当前生猪规模化养殖过程中基于热红外技术的生猪体温测量效率低的问题,提出了一种基于改进YOLO v7的生猪群体体温检测方法。改进YOLO v7算法在Head层引入VoV-GSCSP结构,降低网络结构复杂度;使用内容感知特征重组(Content-aware reassembly of features,CARAFE)替换模型原始上采样算子,提高特征图放大后的品质,强化生猪头部区域有效特征;引入感受野增强模块(Receptive field enhancement module,RFE),增强特征金字塔对生猪头部特征的提取能力。本文改进YOLO v7算法对于生猪头部的检测精确率为87.9%,召回率为92.5%,平均精度均值(Mean average precision,mAP)为94.7%。与原始YOLO v7相比,精确率提高3.6个百分点,召回率提高7.0个百分点,mAP提高3.6个百分点。该方法首先自动检测生猪头部区域,再利用头部最大温度与耳根温度的高相关性,最终自动获取生猪体温。温度提取平均绝对误差仅为0.16℃,检测速度为222f/s,实现了生猪群体体温的实时精准检测。综合上述试验结果表明,该方法能够自动定位生猪群体的头部区域,满足生猪群体体温测定的高效和高精度要求,为群养生猪体温自动检测提供了有效的技术支撑。  相似文献   

6.
养猪场其本身容易受到大规模感染,大多设置在人烟稀少的地区,传统的人员监管体制存在工作量大、效率低等问题,为实现对生猪的无接触式监管,以猪舍监控视频作为数据来源,提出基于改进TLD跟踪算法的生猪视频跟踪方法。引入SSD网络训练模型对样本进行训练,改进跟踪算法的目标检测部分,将识别结果直接带入跟踪算法,使得检测模块的窗口数量大大降低,并且可以提高检测精度和运算速度。本文提出的改进模型在测试集上,对视频中的生猪进行躺卧、静止不动和正在活动三种行为进行识别,平均准确率分别达94.26%、95.67%、91.36%。相比于传统TLD算法识别成功率和精度分别提高10.7%和6.41%。改进TLD跟踪算法在提高识别精度的同时保证识别效率,可以应用于对全时间段的生猪活跃信息监测,将检测结果作为生猪健康养殖的参考之一。  相似文献   

7.
针对核相关滤波跟踪算法(KCF)对特征敏感及无法跟踪尺度变化的问题,结合深度信息、色饱和度特征和角度梯度直方图特征,改进了自适应核相关跟踪算法以改善KCF算法的跟踪性能。实验表明,在视频跟踪中的响应速度和精确度都比原KCF算法更优。  相似文献   

8.
为提高自主导航农业车辆导航路径的准确性和行驶作业的安全性,提出自主导航农业车辆的全景视觉多运动目标识别跟踪方案。该方案采用全景视觉进行无盲区的多运动障碍目标的检测,并解决了多运动目标跟踪中遮挡重叠的问题。首先系统将多目相机采集的图像拼接成全景图像,采用分段图像的改进核函数算法对运动目标进行快速自动检测跟踪;其次采用基于路径预测的粒子滤波算法进行多运动目标跟踪并解决遮挡重叠的问题。通过试验表明:采用改进的核函数目标快速跟踪算法,与传统核函数跟踪算法相比,减少系统内存消耗66.8%,加快运算速度35.63%;采用基于路径预测的粒子滤波多目标跟踪算法,在多运动目标遮挡重叠的情况下,平均提高运动目标跟踪成功率39.5个百分点,算法平均耗时0.78s。  相似文献   

9.
基于热红外视频的生猪体温检测过程中,视频中保育期生猪头部姿态变化大,且耳根区域小,导致头部和耳根区域定位精度低,影响生猪耳根温度的精准检测。针对以上问题,本文提出了一种基于改进YOLO v4(Mish Dense YOLO v4,MD-YOLO v4)的生猪耳根温度检测方法,构建了生猪关键部位检测模型。首先,在CSPDarknet-53主干网络中,添加密集连接块,以优化特征转移和重用,并将空间金字塔池化(Spatial pyramid pooling, SPP)模块集成到主干网络,进一步增加主干网络感受野;其次,在颈部引入改进的路径聚合网络(Path aggregation network, PANet),缩短多尺度特征金字塔图的高、低融合路径;最后,网络的主干和颈部使用Mish激活函数,进一步提升该方法的检测精度。试验结果表明,该模型对生猪关键部位检测的mAP为95.71%,分别比YOLO v5和YOLO v4高5.39个百分点和6.43个百分点,检测速度为60.21 f/s,可满足实时检测的需求;本文方法对热红外视频中生猪左、右耳根温度提取的平均绝对误差分别为0.26℃和0.21℃...  相似文献   

10.
为研究规模化生猪养殖场中蓝耳病疫情预警监测方法,提出一种非接触式耳部颜色自动检测方法。该方法将生猪热红外图像和可见光图像相结合寻找最优尺度因子,确定可见光图像中生猪耳根部特征区域;采用主动形状模型方法,选取34个生猪耳部轮廓特征点,并将搜索范围限定在生猪头部区域,用以提取生猪耳部轮廓;将提取的耳部轮廓进行颜色对比,判断该生猪是否患有蓝耳病疫情。结果表明,由于限定生猪头部区域搜索范围,能快速准确地提取生猪耳部轮廓。对生猪耳部颜色检测准确率达到77%以上。  相似文献   

11.
养殖场中肉牛较为活跃,采集得到的图像数据中肉牛姿态多变,肉牛姿态端正帧较少,导致自动测量肉牛体尺困难。针对以上问题,本研究通过分析肉牛骨架特征和肉牛图像边缘轮廓特征,提出一种多姿态肉牛体尺自动测量方法。首先,利用深度相机Azure Kinect DK从正上方采集肉牛俯视深度视频数据,对视频数据进行分帧处理;其次,对原始深度图像进行预处理,将肉牛从复杂的背景中提取出来;再次,利用Zhang-Suen算法提取目标图像肉牛骨架,检测骨架交点和端点,分析肉牛头部特征,并确定头部去除点,去除图像中肉牛头部信息;最后,利用改进的U弦长曲率算法提取肉牛轮廓曲率曲线,根据曲率值确定体尺测点,将体尺测点转换到三维空间中,计算体尺参数。本研究通过分析大量深度图像数据,将图像中肉牛姿态分为左歪、右歪、姿态端正、低头和抬头五类。试验结果表明,本研究提出的基于骨架的多姿态肉牛头部去除方法在5种姿态下的头部去除成功率均高于92%;在23头肉牛不同姿态共46帧深度图像中,利用基于改进U弦长曲率的体尺测点提取方法,测得体直长测量的平均绝对误差为2.73 cm,体高测量的平均绝对误差为2.07 cm,腹宽测量的平均绝对误差为1.47 cm。研究结果可为精确测量多姿态下肉牛体尺提供支撑。  相似文献   

12.
复杂养殖环境下运动奶牛目标的准确检测是奶牛跛行、发情等运动行为感知的基础。针对现有方法多采用参数化模型实现运动奶牛目标检测的缺陷,提出了一种无参核密度估计背景建模方法。该方法根据各像素的历史样本估计像素的概率模型,针对历史样本信息中冗杂信息导致模型复杂度过高的问题,采用关键帧检测技术剔除样本中的冗余信息以降低算法的复杂度,并实现了在小样本下核函数对遥远历史帧图像信息的获取,从而提高了检测精度。针对检测目标轮廓缺失的问题,结合三帧差法进一步实现了运动目标的完整提取。为了验证本算法的有效性,对不同环境和干扰下的运动奶牛视频样本进行了试验,并与高斯混合模型(Gaussian mixture model,GMM)和核密度估计模型(Kernel density estimation,KDE)方法进行了对比。试验结果表明,本文算法平均前景正检率为95. 65%,比高斯混合模型提高了15. 56个百分点,比核密度估计模型提高了10. 56个百分点。同时,本文算法平均实时性指标为1. 11,基本可以实现运动奶牛目标的实时、准确检测,该研究结果可为奶牛跛行疾病的预防、诊断以及奶牛运动行为的精确感知提供参考。  相似文献   

13.
针对火焰目标尺寸变化大、YOLOv3算法对小尺寸目标的检测性能有所欠缺、对火焰目标的检测效果不好的问题,提出对YOLOv3的改进策略。充分发挥空洞卷积在不提升训练参数的同时扩大卷积核感受野的优点,构建2层空洞卷积层,对特征金字塔的融合特征进一步提取多尺度特征;在空洞卷积模块后添加通道注意力机制模块,抑制冗余的特征;使用DIOU损失函数降低对目标的漏检率。通过在火焰目标数据集上的对比实验表明,改进后的YOLOv3训练模型在精度上达到了81.2%,相比原YOLOv3模型提升2.9%。与SSD模型相比在精度上有所提高,相比Faster R-CNN模型在检测速度上更具有优势;对小尺寸目标的检测效果相比原YOLOv3模型有所提升。  相似文献   

14.
水稻叶病防治在提高水稻产量中具有重要作用,针对水稻叶病人工检查速度慢、主观性高的问题,提出一种基于改进Yolov5s的水稻叶病目标检测方法。采用K-means聚类算法得到先验框尺寸,增强检测模型对水稻叶病的适应性;将轻量级空间注意力与通道注意力融合,对高层语义特征信息增强,增强模型对病害信息的感知度;并结合特征金字塔网络,融合多尺度感受野获取目标上下文信息,有效地增强模型对目标周围特征的提取,提高目标检测的准确度。试验结果表明:改进后的Yolov5s算法平均检测精度(IOU=0.5)提高4.3%,F1值提高5.3%,帧率FPS为58.7 f/s。有效提升Yolov5s算法对水稻叶病的检测精度,达到实时检测的需求。  相似文献   

15.
鱼的行为变化除了可以反映其自身健康状况外,还对分析水质变化具有重要意义,而精确、快速的鱼体目标检测是行为变化分析的基础。针对现有多目标鱼体检测算法存在检测定位精确度低的问题,提出了一种简单、有效的多目标鱼体对象提议检测算法。提取鱼体图像的骨架和边缘信息,制定新的窗口打分策略生成候选窗口,训练PCA卷积核提取鱼体图像前景和背景特征,利用支持向量机(Support vector machine,SVM)识别得到鱼体目标所在的候选窗口,运用非极大值抑制算法剔除冗余窗口完成目标检测。实验表明,基于新的窗口打分策略生成的候选窗口比Edge Boxes算法得到的候选窗口具有更高的召回率,召回率最高可达96.9%,对候选窗口的最高识别准确率可达95.71%。通过本文算法和Edge Boxes-PCANet算法得到的漏检率、误检率和平均检测时间表明,本文算法的综合表现更优,说明本文算法可以高效精确地实现多目标鱼体检测。  相似文献   

16.
樱桃小番茄腋芽去除点定位方法研究   总被引:1,自引:0,他引:1  
为实现对樱桃小番茄腋芽去除点的精确定位,用蓝色LED光源对目标植株腋芽部位进行照射染色,区分目标植株与背景,提取获得图像的RGB颜色空间B通道分量,分割后得到完整目标图像;通过快速傅里叶变换(FFT),使用低通滤波器去除毛刺和噪声,保留基本轮廓特征;由形态学膨胀算法突出腋芽两侧特征点,通过ShiTomasi角点检测算法,找到目标图像角点,再经过特征点判别算法,找到特征点,由此判别腋芽存在与否,定位腋芽去除点,最后摘除腋芽。实验结果表明,腋芽识别成功率为93.94%,腋芽摘除成功率为88.9%,能够满足自动去除的要求。  相似文献   

17.
基于红外热成像的生猪耳温自动提取算法   总被引:2,自引:0,他引:2  
针对利用红外热成像进行生猪体温自动提取困难的问题,在设施猪场生猪体温红外巡检装置的基础上,提出将生猪耳部区域作为其体温的代表区域,探索一种基于红外热像图的生猪耳温自动提取算法(IT-PETE)。该算法通过高效而准确地识别生猪耳部区域并提取耳部区域的温度最大值和平均值,实现生猪体温非接触式自动监测。IT-PETE算法首先用拉普拉斯算子对生猪热红外图像进行预处理,然后基于YOLO v4和形态学对热红外图像中的生猪耳部进行提取,并结合耳部分割图像和温度矩阵自动获取耳部区域温度的最大值和平均值。采用5折交叉验证方法训练生猪耳部区域检测模型,训练集和验证集图像共2000幅,测试集400幅。试验表明,YOLO v4耳部区域检测准确率为97.6%,比Faster R-CNN和SSD分别提高了2.0个百分点和7.8个百分点,单帧图像的平均检测时间为12ms。同时对20头猪的人工统计耳温数据与算法提取体温进行相关性分析,得到两者在耳部区域温度最大值和平均值的决定系数分别为0.9849和0.9119,表明IT-PETE算法对体温数据的提取具有可靠性和可行性。因此,IT-PETE算法在一定程度上可为生猪体温自动化监测和预警系统提供技术支撑。  相似文献   

18.
基于机器视觉的猕猴桃特征参数提取   总被引:2,自引:0,他引:2  
以猕猴桃为研究对象,通过对源图像各颜色分量及颜色因子的灰度图、直方图及线剖面分析,选用Lab空间的a通道分量进行特征提取。为了改善图像质量,对a通道分量通过直方图均衡化、中值滤波进行增强。对滤波后的图像利用OTSU自动阈值分割法,完成目标与背景的分割。应用形态学处理方法,对图像先腐蚀再去除小目标最后进行反向膨胀运算去除残留物。对处理得到的二值图像运用Canny算子获取目标区域的边界信息,基于正椭圆Hough变换提取猕猴桃的质心、面积、周长和圆形度。为了测试提取算法的准确性和实时性,对采集的40张图像87个果实进行了特征提取试验。试验结果表明:正确提取率为88.5%,平均提取时间为3.976s,基本满足猕猴桃采摘机器人目标识别对图像处理的实时性要求。  相似文献   

19.
为实现大规模养殖场内奶牛目标的自动提取,将相关滤波算法融入目标提取基本框架,提出一种相关滤波融合边缘检测的奶牛目标提取(Correlation filtering-edge detection based target extraction, CFED)算法。首先利用颜色名(Color names, CN)、方向梯度直方图 (Histogram of oriented gradient, HOG)设计的相关滤波器获取奶牛目标范围;再利用13个不同方向的边缘滤波模板卷积目标范围图像得到图像边缘,最后融合边缘信息和颜色特征提取出奶牛目标。对奶牛场不同环境下的9段视频进行目标提取试验,结果表明,算法提取的目标与真实结果平均重叠率达到92.93%,较Otsu、K-means聚类、帧间差分法和高斯混合模型(Gaussian mixture model,GMM)分别高35.63、32.84、20.28、14.35个百分点;平均假阳性率和假阴性率分别为5.07%和5.08%,处理每帧图像平均耗时0.70s。该结果表明,提出的CFED算法具有较好的目标检测能力,为奶牛目标准确快速提取提供了一个有效方法。  相似文献   

20.
基于可见光机器视觉的棉花伪异性纤维识别方法   总被引:1,自引:0,他引:1  
为提高皮棉质量和皮棉中异纤的检测精度,提出了一种基于机器视觉的棉花伪异性纤维识别方法。皮棉经过开松装置被制成薄棉层,检测通道两侧的相机对棉层进行拍摄,并将采集到的棉层及异纤和伪异纤图像保存到工控机,通过图像分块及阈值分割等算法,提取伪异纤目标区域,统计获取区域的数个颜色、形状和纹理特征,基于特征数据,分别使用BP神经网络、一对一有向无环图策略线性核函数支持向量机和径向基核函数支持向量机对两大类棉花杂质进行分类识别。实验结果表明,99.15%的伪异纤目标可被准确识别,径向基核函数支持向量机在棉花异纤和伪异纤分类识别中,总分类正确率为95.60%,能够满足在线检测的要求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号