排序方式: 共有44条查询结果,搜索用时 176 毫秒
1.
基于隐马尔科夫模型的深度视频哺乳母猪高危动作识别 总被引:1,自引:4,他引:1
哺乳母猪的高危动作和仔猪存活率有密切关系,能直接体现其母性行为能力,而这些高危动作又与其姿态转换的频率、持续时间等密切相关。针对猪舍环境下,环境光线变化、母猪与仔猪黏连、猪体形变等给哺乳母猪姿态转换识别带来的困难。该文以梅花母猪为研究对象,以Kinect2.0采集的深度视频图像为数据源,提出基于Faster R-CNN和隐马尔科夫模型的哺乳母猪姿态转换识别算法,通过FasterR-CNN产生候选区域,并采用维特比算法构建定位管道;利用Otsu分割和形态学处理提取疑似转换片段中母猪躯干部、尾部和身体上下两侧的高度序列,由隐马尔科夫模型识别姿态转换。结果表明,对姿态转换片段识别的精度为93.67%、召回率为87.84%。研究结果可为全天候母猪行为自动识别提供技术参考。 相似文献
2.
人字形板式换热器流道传热特性及参数优化 总被引:2,自引:2,他引:0
为实现田间条件下快速、准确识别棉花与杂草,该文以自然光照下田间棉花与杂草为研究对象,采用垂直向下拍摄的方式获取棉花杂草视频,按1帧/s的速率从视频中提取图像,在人工去除冗余度过多的图片后,建立1 000幅图片的数据集。对比了Faster R-CNN和YOLOv3 2种典型卷积神经网络,将Faster R-CNN卷积神经网络的深度学习模型引入到棉花杂草图像识别中,并提出一种结构优化的方法,使之适用于复杂背景下的棉田杂草识别。该文选用残差卷积网络提取图像特征,Max-pooling 为下采样方法,RPN网络中引入特征金字塔网络生成目标候选框,对卷积神经网络结构进行优化。在使用700幅图片进行训练后,通过200 幅田间棉花杂草图像识别测试,结果表明:该方法的平均目标识别准确率达95.5%,识别单幅图像的平均耗时为1.51 s,采用GPU 硬件加速后识别单幅图像的平均耗时缩短为0.09 s。优化后的Faster R-CNN卷积神经网络相对于YOLOv3平均正确率MAP高0.3以上。特别是对于小目标对象,其平均正确率之差接近0.6。所提方法对复杂背景下棉花杂草有较好的检测效果,可为精确除草的发展提供参考。 相似文献
3.
4.
植物病害对食品安全具有灾难性的影响,它可以直接导致农作物的质量和产量显著下降,因此对植物病害的早期鉴定非常重要。传统的农作物病害诊断需要非常高的专业知识,不仅费时费力,还效率低下。针对这些问题,利用深度学习的方法,以马铃薯叶片为研究样本,基于TensorFlow开发Faster R-CNN网络模型。采用本地增强的方式对带有早疫病、晚疫病和健康的马铃薯叶片进行图像扩充,应用COCO初始权重进行迁移学习,探究了数据类别对模型检测结果的影响。结果表明,随着训练数据类别的增多模型性能会有略微的降低。同时还训练YOLOv3,YOLOv4网络与该模型进行对比,测试结果表明,所提出的Fater R-CNN模型优于其他网络模型。经检测该模型最佳精度达到99.5%,该研究为马铃薯病害检测提供了技术支持。 相似文献
5.
车辆检测是智能交通系统的基础架构。文章分析了三种经典的车辆检测算法——Faster R-CNN算法、YOLOv3算法、SSD算法的特点,在此基础上指出了它们的优点和缺点,为下一步的车辆检测算法改进做好了理论知识基础。 相似文献
6.
注意力与多尺度特征融合的水培芥蓝花蕾检测 总被引:4,自引:3,他引:1
准确辨识水培芥蓝花蕾特征是区分其成熟度,实现及时采收的关键。该研究针对自然环境下不同品种与成熟度的水培芥蓝花蕾外形与尺度差异大、花蕾颜色与茎叶相近等问题,提出一种注意力与多尺度特征融合的Faster R-CNN水培芥蓝花蕾分类检测模型。采用InceptionV3的前37层作为基础特征提取网络,在其ReductionA、InceptionA和InceptionB模块后分别嵌入SENet模块,将基础特征提取网络的第2组至第4组卷积特征图通过FPN特征金字塔网络层分别进行叠加后作为特征图输出,依据花蕾目标框尺寸统计结果在各FPN特征图上设计不同锚点尺寸。对绿宝芥蓝、香港白花芥蓝及两个品种的混合数据集测试的平均精度均值mAP最高为96.5%,最低为95.9%,表明模型能实现不同品种水培芥蓝高准确率检测。消融试验结果表明,基础特征提取网络引入SENet或FPN模块对不同成熟度花蕾的检测准确率均有提升作用,同时融合SENet模块和FPN模块对未成熟花蕾检测的平均准确率AP为92.3%,对成熟花蕾检测的AP为98.2%,对过成熟花蕾检测的AP为97.9%,不同成熟度花蕾检测的平均准确率均值mAP为96.1%,表明模型设计合理,能充分发挥各模块的优势。相比VGG16、ResNet50、ResNet101和InceptionV3网络,模型对不同成熟度花蕾检测的mAP分别提高了10.8%、8.3%、 6.9%和12.7%,检测性能具有较大提升。在召回率为80%时,模型对不同成熟度水培芥蓝花蕾检测的准确率均能保持在90%以上,具有较高的鲁棒性。该研究结果可为确定水培芥蓝采收期提供依据。 相似文献
7.
基于改进Faster R-CNN的马铃薯芽眼识别方法 总被引:3,自引:0,他引:3
为提高对马铃薯芽眼的识别效果,提出一种基于改进Faster R-CNN的马铃薯芽眼识别方法。对Faster R-CNN中的非极大值抑制(Non maximum suppression, NMS)算法进行优化,对与M交并比(Intersection over union, IOU) 大于等于Nt的相邻检测框,利用高斯降权函数对其置信度进行衰减,通过判别参数对衰减后的置信度作进一步判断;在训练过程中加入采用优化NMS算法的在线难例挖掘 (Online hard example mining, OHEM) 技术,对马铃薯芽眼进行识别试验。试验结果表明:改进的模型识别精度为96.32%,召回率为90.85%,F1为93.51%,平均单幅图像的识别时间为0.183s。与原始的Faster R-CNN模型相比,改进的模型在不增加运行时间的前提下,精度、召回率、F1分别提升了4.65、6.76、5.79个百分点。改进Faster R-CNN模型能够实现马铃薯芽眼的有效识别,满足实时处理的要求,可为种薯自动切块中的芽眼识别提供参考。 相似文献
8.
树冠信息是森林资源调查中的重要内容。传统的树冠冠幅测量方法为实地调查,该方法测量结果在特定的地形和森林环境中误差较大,且人力消耗大、操作繁琐、耗时长。无人机影像技术和深度学习的发展为树冠测量提供了新的方法和实现思路。利用无人机获取了临安东部青山湖绿道两块纯水杉林样地的正射影像图,通过改进目前先进的目标检测方法Faster R-CNN进行树冠的识别和冠幅的提取。基于改进的Faster R-CNN模型准确率和决定系数达到了92.92%和0.84,分别比改进前的模型提高了5.31%和0.12。这说明了无人机和目标检测技术识别树冠的可行性,这一方法和传统的调查方法相比,具有高效、便捷和低成本的优势。 相似文献
9.
自然环境下绿色柑橘视觉检测技术研究 总被引:14,自引:0,他引:14
绿色柑橘具有与背景相似的颜色特征,自然环境下绿色柑橘的视觉检测比较困难。提出基于深度学习技术,利用Faster RCNN方法进行树上绿色柑橘的视觉检测研究。首先配置深度学习的试验环境,同时设计了绿色柑橘图像采集试验,建立了柑橘图像样本集,通过试验对批处理大小、学习速率和动量等超参数进行调优,确定合适的学习速率为0.01、批处理为128、动量系数为0.9,使用确定的超参数对模型进行了训练,最终训练模型在测试集上的平均精度(MAP)为85.49%。通过设计自然环境下不同光照条件、图像中不同尺寸柑橘、不同个数柑橘的Faster RCNN方法与Otsu分割法的柑橘检测对比试验,并定义F值作为对比评价指标,分析2种方法的检测结果,试验结果表明:Faster RCNN方法与Otsu方法在不同光照条件下检测绿色柑橘的F值分别为77.45%和59.53%;不同个数柑橘果实检测结果的F值分别为82.58%和60.34%,不同尺寸柑橘检测结果的F值分别为73.53%和49.44%,表明所提方法对自然环境下绿色柑橘有较好的检测效果,为果园自动化生产和机器人采摘的视觉检测提供了技术支持。 相似文献
10.
为解决不同成熟度冬枣的样本数量相差悬殊导致的识别率低的问题,本文提出了一种基于数据平衡的Faster R-CNN的冬枣识别方法。该方法针对自然环境下不同成熟度的冬枣,首先从不同角度进行了数据平衡的Faster R-CNN冬枣识别方法研究,然后将所提出的方法与基于YOLOv3的识别方法进行了对比试验研究。研究结果表明:所提出的数据平衡的Faster R-CNN方法在样本数量不足和类别不平衡的情况下,增强了模型的泛化效果,对片红冬枣识别的平均精确度达到了98.50%,总损失值小于0.5,其识别平均精确度高于YOLOv3。该研究对解决冬枣自动化和智能化采摘的识别问题具有一定的实际意义和应用价值。 相似文献