首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 125 毫秒
1.
针对输送带场景中羊肉分体需要进一步分类检测问题,提出一种基于单阶段目标检测算法的羊肉多分体实时分类检测方法.在羊屠宰车间环境下采集包含多类、多个羊肉分体图像,经图像增广及归一化后建立羊肉多分体图像数据集,其中训练集7 200幅,测试集1400幅,验证集400幅.利用单阶段目标检测算法YOLO v3引入迁移学习对羊肉多分...  相似文献   

2.
基于改进YOLO v3模型的奶牛发情行为识别研究   总被引:1,自引:0,他引:1  
为提高复杂环境下奶牛发情行为识别精度和速度,提出了一种基于改进YOLO v3模型的奶牛发情行为识别方法。针对YOLO v3模型原锚点框尺寸不适用于奶牛数据集的问题,对奶牛数据集进行聚类,并对获得的新锚点框尺寸进行优化;针对因数据集中奶牛个体偏大等原因而导致模型识别准确率低的问题,引入DenseBlock结构对YOLO v3模型原特征提取网络进行改进,提高了模型识别性能;将YOLO v3模型原边界框损失函数使用均方差(MSE)作为损失函数度量改为使用FIoU和两框中心距离Dc度量,提出了新的边界框损失函数,使其具有尺度不变性。从96段具有发情爬跨行为的视频片段中各选取50帧图像,根据发情爬跨行为在活动区出现位置的不确定性和活动区光照变化的特点,对图像进行水平翻转、±15°旋转、随机亮度增强(降低)等数据增强操作,用增强后的数据构建训练集和验证集,对改进后的模型进行训练,并依据F1、mAP、准确率P和召回率R指标进行模型优选。在测试集上的试验表明,本文方法模型的识别准确率为99.15%,召回率为97.62%,且处理速度达到31f/s,能够满足复杂养殖环境、全天候条件下奶牛发情行为的准确、实时识别。  相似文献   

3.
针对复杂背景下行人跟踪任务的深度学习网络模型和在线行人跟踪算法问题,在多层竞争融合模型目标检测预训练区域建议网络基础上,结合长期和短期并存的在线学习更新策略,实现行人跟踪任务。预训练网络的特征提取过程以VGG16为主干网络,将提取的特征投入多层竞争融合区域建议网络中,进而生成定位更准确的候选目标。在线跟踪算法使用预训练过的区域建议网络初始化参数值,选取第1帧500个正样本和5 000个负样本对区域建议网络进行微调,建立长期和短期更新的帧索引集,通过正负样本对区域建议网络进行更新,最终实现在线行人跟踪算法。在公开数据集Caltech、ETH、PETS 2009和Venice上对本文模型进行实验验证,结果表明,竞争融合区域建议网络在行人跟踪任务中性能优越,在几个环境背景较复杂的行人数据集中改进的方法均取得了很好的效果。  相似文献   

4.
水田田埂边界支持向量机检测方法   总被引:4,自引:0,他引:4  
提出了基于支持向量机的水田田埂边界线的检测算法。采用支持向量机分类算法代替传统的图像分割算法,分割水田图像,提高了在不同光照条件下田埂边界检测的鲁棒性。图像预处理阶段引入超像素分割算法,大大减少了后续图像处理的计算量,并为支持向量机的模型训练提供大量的样本。选取足够数量的超像素样本,提取其颜色特征和纹理特征,构成19维的特征向量,并作为训练支持向量机模型的输入。使用训练好的支持向量机模型识别新图像中的水田田埂区域,模型评价指标F1分数达到90. 7%。采用霍夫变换提取田埂边界,在NVIDIA的Jetson TX2硬件平台上,算法总运行时间在0. 8 s以内,有效满足了水田直播机的实时性要求。  相似文献   

5.
近年来,基于数字图像处理和机器学习算法的果实自动识别检测研究已经越来越成熟。针对传统检测方法检测过程中难以满足实时性要求的缺点,采用了基于Faster-RCNN的果实快速检测模型。模型由卷积神经网络(CNN)和区域提议网络(RPN)组成,首先由CNN进行卷积和池化操作提取特征,然后由RPN选取候选区域,通过网络全连接层参数共享,由目标识别分类器和边界框预测回归器得到多个可能包含目标的预测框,最后通过非极大值抑制挑选出精度最高的预测框完成目标检测。分别对桃子、苹果和橙子的三种果实进行检测,采用迁移学习方法,使用已经预训练好的两种深度神经网络模型ZFnet和VGG16,通过数据集的训练对Dropout及候选区域数量进行参数调整完成网络调优。检测并分析果实不同布局形态下模型的检测效果。试验结果表明,当Dropout取值为0.5或0.6,候选区域数量为300时网络模型最佳,ZFnet网络中,苹果平均精确度为92.70%,桃子为90.00%,而橙子为89.72%。VGG16网络中,苹果平均精度为94.17%,桃子为91.46%,橙子为90.22%。且ZFnet和VGG16的图像处理速度分别达到17 fps和7 fps,能够达到果实实时检测的目的。  相似文献   

6.
为准确高效地实现无接触式奶山羊个体识别,以圈养环境下奶山羊面部图像为研究对象,提出一种基于改进YOLO v5s的奶山羊个体识别方法。首先,从网络上随机采集350幅羊脸图像构成羊脸面部检测数据集,使用迁移学习思想预训练YOLO v5s模型,使其能够检测羊脸位置。其次,构建包含31头奶山羊3 844幅不同生长期的面部图像数据集,基于预训练的YOLO v5s,在特征提取层中引入SimAM注意力模块,增强模型的学习能力,并在特征融合层引入CARAFE上采样模块以更好地恢复面部细节,提升模型对奶山羊个体面部的识别精度。实验结果表明,改进YOLO v5s模型平均精度均值为97.41%,比Faster R-CNN、SSD、YOLO v4模型分别提高6.33、8.22、15.95个百分点,比YOLO v5s模型高2.21个百分点,改进模型检测速度为56.00 f/s,模型内存占用量为14.45 MB。本文方法能够准确识别具有相似面部特征的奶山羊个体,为智慧养殖中的家畜个体识别提供了一种方法支持。  相似文献   

7.
为在无人驾驶农机上实现快速、准确的葡萄园田间障碍目标检测,将EfficientDet-D0、YOLOV4-TINY、YOLOV3-TINY、YOLO-FASTEST四种轻量级目标检测神经网络在自建的葡萄园田间场景数据集进行训练,将训练模型移植到边缘设备NVIDIA JETSON TX2(以下简称TX2)上,对这4种模型的障碍检测精度和在TX2上的适用性进行试验评估。试验结果表明,YOLOV3-TINY、YOLOV4-TINY、EfficientDet-D0、YOLO-FASTEST对葡萄园田间场景障碍检测平均精度mAP分别为0.648、0.601、0.598和0.401。在TX2的实测结果显示,上述网络模型实时视频检测帧率分别为34.24帧、24.75帧、2.34帧和2.97帧。4种目标检测网络中,YOLOV3-TINY在数据集上的检测精度最高、实时检测速度最快,但对硬件资源消耗也相对较高。而在考虑硬件资源消耗时,使用YOLOV4-TINY可以在检测精度、实际运行速度和硬件资源消耗之间维持更好的平衡性,同时可以在运行多任务的情况下取得好的效果。  相似文献   

8.
为实现田间环境下对玉米苗和杂草的高精度实时检测,本文提出一种融合带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration, MSRCR)增强算法的改进YOLOv4-tiny模型。首先,针对田间环境的图像特点采用MSRCR算法进行图像特征增强预处理,提高图像的对比度和细节质量;然后使用Mosaic在线数据增强方式,丰富目标检测背景,提高训练效率和小目标的检测精度;最后对YOLOv4-tiny模型使用K-means++聚类算法进行先验框聚类分析和通道剪枝处理。改进和简化后的模型总参数量降低了45.3%,模型占用内存减少了45.8%,平均精度均值(Mean average precision, mAP)提高了2.5个百分点,在Jetson Nano嵌入式平台上平均检测帧耗时减少了22.4%。本文提出的Prune-YOLOv4-tiny模型与Faster RCNN、YOLOv3-tiny、YOLOv4 3种常用的目标检测模型进行比较,结果表明:Prune-YOLOv4-tiny的mAP为96.6%,分别比Faster RCNN和YOLOv3...  相似文献   

9.
基于深度学习与复合字典的马铃薯病害识别方法   总被引:4,自引:0,他引:4  
为解决自然环境下小样本病害叶片识别率低、鲁棒性不强的问题,以马铃薯病害叶片为研究对象,提出一种基于深度卷积神经网络与复合特征字典结合的病害叶片识别方法。首先,利用迁移学习技术对Faster R-CNN模型进行训练,检测出病害叶片的斑块区域;然后,采用高密度采样方法对整个斑块区域提取颜色特征和SIFT特征,建立颜色特征和SIFT特征词汇表,再由K-均值聚类算法对两类表观特征词汇表进行聚类,构造出复合特征字典;最后,将病害区域提取的特征在复合特征字典中映射后获得特征直方图,利用支持向量机训练出病害的识别模型。试验结果表明,复合特征字典中视觉单词数为50时,病害识别的鲁棒性和实时性最佳,平均识别准确率为90.83%,单帧图像耗时1.68 s;在颜色特征和SIFT特征组合下,本文方法在自然光照条件下对病害的平均识别准确率最高,达到84.16%;在相同数据集下,与传统词袋法相比,本文方法的平均识别准确率提高了25.45个百分点。  相似文献   

10.
对于道路车辆目标的跟踪,由于其高机动性、杂波密集等特点,交互式多模型联合概率数据关联无疑是一种好的跟踪算法。但其固有的缺点是计算量会随着目标个数的增多迅速增加,并且其较少的运动模型难以保证跟踪精度,而增加模型个数会引起模型之间的竞争。因此,提出了一种改进的变结构多模型联合数据关联算法(VSMM-JPDA)。理论分析与对比仿真表明:在非机动、机动转弯和直线机动情况下,该算法对目标的跟踪精度都优于固定结构多模型算法,并且运算量大大减少。  相似文献   

11.
为实现大规模养殖场内奶牛目标的自动提取,将相关滤波算法融入目标提取基本框架,提出一种相关滤波融合边缘检测的奶牛目标提取(Correlation filtering-edge detection based target extraction, CFED)算法。首先利用颜色名(Color names, CN)、方向梯度直方图 (Histogram of oriented gradient, HOG)设计的相关滤波器获取奶牛目标范围;再利用13个不同方向的边缘滤波模板卷积目标范围图像得到图像边缘,最后融合边缘信息和颜色特征提取出奶牛目标。对奶牛场不同环境下的9段视频进行目标提取试验,结果表明,算法提取的目标与真实结果平均重叠率达到92.93%,较Otsu、K-means聚类、帧间差分法和高斯混合模型(Gaussian mixture model,GMM)分别高35.63、32.84、20.28、14.35个百分点;平均假阳性率和假阴性率分别为5.07%和5.08%,处理每帧图像平均耗时0.70s。该结果表明,提出的CFED算法具有较好的目标检测能力,为奶牛目标准确快速提取提供了一个有效方法。  相似文献   

12.
目前农业环境下的无序目标的精确计数有很高的应用需求,这种计数对其生物量、生物密度管理起到了重要的指导作用。如黑水虻幼虫目标追踪过程中,追踪对象具有高速和非线性的特征,常规算法存在追踪目标速度不足和丢失目标后的再识别困难等问题。针对以上问题,本文提出了一种改进SORT算法,通过改进卡尔曼滤波模型的方式提升目标追踪算法的快速性和准确性,提升了计数的精度。另外,针对黑水虻幼虫目标识别过程中幼虫性状的多样性和混料导致的复杂背景问题,本文通过实验对比多种深度学习网络性能选定YOLO v5s算法提取图像多维度特征,提升了目标识别精度。实验结果表明:在划线计数方面,本文提出的改进SORT算法与原模型相比,平均精度从91.36%提升到95.55%,提升4.19个百分点,通过仿真和实际应用,证明了本文模型的有效性;在目标识别方面,使用YOLO v5s模型在训练集上帧率为156f/s,mAP@0.5为99.10%,精度为90.11%,召回率为99.22%,综合性能优于其他网络。  相似文献   

13.
山羊的脸部检测对羊场的智能化管理有着重要的意义。针对实际饲养环境中,羊群存在多角度、分布随机、灵活多变、羊脸检测难度大的问题,以YOLO v5s为基础目标检测网络,提出了一种结合坐标信息的山羊脸部检测模型。首先,通过移动设备获取舍内、舍外、单头以及多头山羊的图像并构建数据集。其次,在YOLO v5s的主干网络融入坐标注意力机制,以充分利用目标的位置信息,提高遮挡区域、小目标、多视角样本的检测精度。试验结果表明,改进YOLO v5s模型的检测精确率为95.6%,召回率为83.0%,mAP0.5为90.2%,帧速率为69 f/s,模型内存占用量为13.2 MB;与YOLO v5s模型相比,检测精度提高1.3个百分点,模型所占内存空间减少1.2 MB;且模型的整体性能远优于Faster R-CNN、YOLO v4、YOLO v5s模型。此外,本文构建了不同光照和相机抖动的数据集,来进一步验证本文方法的可行性。改进后的模型可快速有效地对复杂场景下山羊的脸部进行精准检测及定位,为动物精细化养殖时目标检测识别提供了检测思路和技术支持。  相似文献   

14.
为提高联合收获机收获质量与效率,构建了轮式谷物联合收获机视觉导航控制系统,结合OpenCV设计了谷物收获边界直线检测算法识别水稻田间已收获区域与未收获区域边界,经预处理、二次边缘分割和直线检测等得到联合收获机视觉导航作业前视目标路径,并根据前视路径相对位置信息进行田间动态标定获得联合收获机满幅收获作业状态;提出了一种基于前视点的直线路径跟踪控制方法,通过预纠偏控制实现维持满割幅的同时防止作物漏割,以相对位置偏差值和实时转向后轮转角作为视觉导航控制器的输入,并根据纠偏策略对应输出转向轮控制电压大小。稻田试验结果表明,该导航系统实现了轮式联合收获机田间相对位置姿态的可靠采集及目标直线路径跟踪控制的稳定执行,在田间照度符合人眼正常工作的情况下,收获边界识别算法检测准确率不低于96.28%,单帧检测时间50 ms以内;以不产生漏割为前提的视觉导航平均割幅率为94.16%,随作业行数增多,割幅一致性呈提高趋势。本研究可为联合收获机自动导航满割幅作业提供技术支撑。  相似文献   

15.
为解决养殖场条件下羊只的个体识别问题,本文基于小波变换与卷积神经网络,提出一种融合频域特征与空间域特征的羊脸识别模型DWT-GoatNet。首先采集总计30只高相似度西农萨能奶山羊日间、夜间两种不同光照环境下的面部图像,基于SSIM指标剔除其中相似度过高的样本,接着进行图像裁剪,并通过模糊、调整亮度、平移、旋转、加入噪声、缩放等方法完成数据增强;然后,设计基于二维离散小波变换(2D-DWT)与卷积运算的羊脸特征提取模块,完成特征融合;之后,以前述羊脸特征提取模块为基础,添加分类模块,进行卷积神经网络搭建;最后,进行超参数组合寻优,形成羊脸识别模型。试验结果表明,本文所构建的羊脸识别模型在日间、夜间两种不同光照环境下测试集上识别准确率分别可达99.74%和99.89%,高于AlexNet、VGGNet-16、GoogLeNet、ResNet-50、DenseNet-121等经典卷积神经网络模型,说明所构建模型适用于羊只的个体识别,为精准养殖、农险理赔领域相关工作提供了有效解决方案。  相似文献   

16.
The reduction in goat milk production and the competitiveness of more profitable activities have increased the adoption of measures to enhance goat milk and meat around the world. A simulation model was built to evaluate the dynamics of a dairy goat herd under different scenarios of production. A System Dynamics approach was used to identify management policies that could affect the behaviour of the herd over 10 years of simulation using data from a dairy goat herd in Brazil. The impact of reproductive and mortality rates, one or two annual reproductive cycles on production, and economic health of dairy goats on changes in the herd dynamics were evaluated. Simulations indicated that small changes in reproduction and mortality rates and milk price can considerably affect the dynamics of the herd as well as the financial health of the production system. The interferences created to visualize the effects were not immediately realized because of intrinsic delays in the system. The comparison of models with one or two breeding seasons indicated that the latter was considerably more profitable and had a faster turnover. It was also found that the two breeding season had a greater capacity to support reduction in milk price that could generate financial instability in the production system. It was concluded that mathematical models can be used to predict impacts in management policies on herd dynamics and sensitivity to support the dairy goat activity showing its viability as an agricultural activity that can contribute to the production and incomes in small farms.  相似文献   

17.
从目标跟踪理论出发,建立目标加速运动模型。根据实时的目标静态特征信息,即目标跟踪理论中的观测量,采用卡尔曼滤波及其改进算法对目标的运动参数做出合理的估计,并对加速运动目标的动态参数估计进行了仿真,验证了算法的实时性和可靠性。  相似文献   

18.
呼吸及反刍是奶山羊最基本的生理活动,及时准确地同步获取奶山羊的呼吸及反刍信息可以为评估奶山羊健康状况提供数据支撑。针对现有方法呼吸及反刍同步监测能力的不足,提出了一种基于声学冲激响应的单只静卧奶山羊呼吸及反刍同步监测方法。该方法首先利用声学在室内空间中的多径效应,实现奶山羊呼吸过程中胸脯起伏及反刍过程中嘴部咀嚼动作全向采集;其次计算收发信号的冲激响应,捕捉由呼吸及反刍运动造成多径信号周期性变化的特征;然后利用呼吸及反刍运动频率差实现呼吸和反刍信号的分离;最后经过幅度归一化、相位同步后实现呼吸及反刍波形的可视化。为了验证该方法的有效性,选用了不同朝向的静卧奶山羊进行呼吸及反刍监测试验,并分析了环境噪声对试验的影响,结果表明:对于不同朝向的奶山羊,该方法呼吸平均相对误差为2.60%,反刍平均相对误差为3.51%,平均漏帧率为2.49%,并对环境噪声有较强的抗干扰能力。  相似文献   

19.
基于DeepSORT算法的肉牛多目标跟踪方法   总被引:1,自引:0,他引:1  
肉牛的运动行为反映其健康状况,在实际养殖环境下如何识别肉牛并对其进行跟踪,对感知肉牛的运动行为至关重要。基于YOLO v3改进算法(LSRCEM-YOLO),利用视频监控实现了实际养殖环境下的肉牛实时跟踪。该方法采用MobileNet v2作为目标检测骨干网络,根据肉牛分布不均、目标尺度变化较大的特点,提出通过添加长短距离语义增强模块(LSRCEM)进行多尺度融合,结合Mudeep重识别模型实现了肉牛多目标跟踪。结果表明:在目标检测方面,LSRCEM-YOLO的mAP值达到了92.3%,模型参数量仅为YOLO v3的10%,相比YOLO v3-tiny也降低了31.34%;在肉牛重识别方面,采用基于调整感受野的Mudeep模型,获得了更多的多尺度特征,其Rank-1指标达到了96.5%;多目标跟踪的多目标跟踪准确率相对于DeepSORT算法从32.3%提高到了45.2%,ID switch次数降低了69.2%。本文方法可为实际环境下的肉牛行为实时跟踪、行为感知提供技术参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号