排序方式: 共有42条查询结果,搜索用时 15 毫秒
1.
人字形板式换热器流道传热特性及参数优化 总被引:2,自引:2,他引:0
为实现田间条件下快速、准确识别棉花与杂草,该文以自然光照下田间棉花与杂草为研究对象,采用垂直向下拍摄的方式获取棉花杂草视频,按1帧/s的速率从视频中提取图像,在人工去除冗余度过多的图片后,建立1 000幅图片的数据集。对比了Faster R-CNN和YOLOv3 2种典型卷积神经网络,将Faster R-CNN卷积神经网络的深度学习模型引入到棉花杂草图像识别中,并提出一种结构优化的方法,使之适用于复杂背景下的棉田杂草识别。该文选用残差卷积网络提取图像特征,Max-pooling 为下采样方法,RPN网络中引入特征金字塔网络生成目标候选框,对卷积神经网络结构进行优化。在使用700幅图片进行训练后,通过200 幅田间棉花杂草图像识别测试,结果表明:该方法的平均目标识别准确率达95.5%,识别单幅图像的平均耗时为1.51 s,采用GPU 硬件加速后识别单幅图像的平均耗时缩短为0.09 s。优化后的Faster R-CNN卷积神经网络相对于YOLOv3平均正确率MAP高0.3以上。特别是对于小目标对象,其平均正确率之差接近0.6。所提方法对复杂背景下棉花杂草有较好的检测效果,可为精确除草的发展提供参考。 相似文献
2.
基于隐马尔科夫模型的深度视频哺乳母猪高危动作识别 总被引:5,自引:4,他引:1
哺乳母猪的高危动作和仔猪存活率有密切关系,能直接体现其母性行为能力,而这些高危动作又与其姿态转换的频率、持续时间等密切相关。针对猪舍环境下,环境光线变化、母猪与仔猪黏连、猪体形变等给哺乳母猪姿态转换识别带来的困难。该文以梅花母猪为研究对象,以Kinect2.0采集的深度视频图像为数据源,提出基于Faster R-CNN和隐马尔科夫模型的哺乳母猪姿态转换识别算法,通过FasterR-CNN产生候选区域,并采用维特比算法构建定位管道;利用Otsu分割和形态学处理提取疑似转换片段中母猪躯干部、尾部和身体上下两侧的高度序列,由隐马尔科夫模型识别姿态转换。结果表明,对姿态转换片段识别的精度为93.67%、召回率为87.84%。研究结果可为全天候母猪行为自动识别提供技术参考。 相似文献
3.
针对新疆棉田杂草的伴生特点带来的特征过拟合、精确率低等问题,以新疆棉花幼苗与杂草为研究对象,分析杂草识别率低的影响因素,建立了基于Faster R-CNN的网络识别模型.采集不同角度、不同自然环境和不同密集程度混合生长的棉花幼苗与杂草图像5 370张.为确保样本质量以及多样性,利用颜色迁移和数据增强来提高图像的颜色特征与扩大样本量,以PASCAL VOC格式数据集进行网络模型训练.通过综合对比VGG16,VGG19,ResNet50和ResNet101这4种网络的识别时间与精度,选择VGG16网络训练Faster R-CNN模型.在此基础上设计了纵横比为1∶1的最佳锚尺度,在该模型下对新疆棉花幼苗与杂草进行识别,实现91.49%的平均识别精度,平均识别时间262 ms.为农业智能精确除草装备的研发提供了参考. 相似文献
4.
为解决不同成熟度冬枣的样本数量相差悬殊导致的识别率低的问题,本文提出了一种基于数据平衡的Faster R-CNN的冬枣识别方法。该方法针对自然环境下不同成熟度的冬枣,首先从不同角度进行了数据平衡的Faster R-CNN冬枣识别方法研究,然后将所提出的方法与基于YOLOv3的识别方法进行了对比试验研究。研究结果表明:所提出的数据平衡的Faster R-CNN方法在样本数量不足和类别不平衡的情况下,增强了模型的泛化效果,对片红冬枣识别的平均精确度达到了98.50%,总损失值小于0.5,其识别平均精确度高于YOLOv3。该研究对解决冬枣自动化和智能化采摘的识别问题具有一定的实际意义和应用价值。 相似文献
5.
自然环境下绿色柑橘视觉检测技术研究 总被引:14,自引:0,他引:14
绿色柑橘具有与背景相似的颜色特征,自然环境下绿色柑橘的视觉检测比较困难。提出基于深度学习技术,利用Faster RCNN方法进行树上绿色柑橘的视觉检测研究。首先配置深度学习的试验环境,同时设计了绿色柑橘图像采集试验,建立了柑橘图像样本集,通过试验对批处理大小、学习速率和动量等超参数进行调优,确定合适的学习速率为0.01、批处理为128、动量系数为0.9,使用确定的超参数对模型进行了训练,最终训练模型在测试集上的平均精度(MAP)为85.49%。通过设计自然环境下不同光照条件、图像中不同尺寸柑橘、不同个数柑橘的Faster RCNN方法与Otsu分割法的柑橘检测对比试验,并定义F值作为对比评价指标,分析2种方法的检测结果,试验结果表明:Faster RCNN方法与Otsu方法在不同光照条件下检测绿色柑橘的F值分别为77.45%和59.53%;不同个数柑橘果实检测结果的F值分别为82.58%和60.34%,不同尺寸柑橘检测结果的F值分别为73.53%和49.44%,表明所提方法对自然环境下绿色柑橘有较好的检测效果,为果园自动化生产和机器人采摘的视觉检测提供了技术支持。 相似文献
6.
树冠信息是森林资源调查中的重要内容。传统的树冠冠幅测量方法为实地调查,该方法测量结果在特定的地形和森林环境中误差较大,且人力消耗大、操作繁琐、耗时长。无人机影像技术和深度学习的发展为树冠测量提供了新的方法和实现思路。利用无人机获取了临安东部青山湖绿道两块纯水杉林样地的正射影像图,通过改进目前先进的目标检测方法Faster R-CNN进行树冠的识别和冠幅的提取。基于改进的Faster R-CNN模型准确率和决定系数达到了92.92%和0.84,分别比改进前的模型提高了5.31%和0.12。这说明了无人机和目标检测技术识别树冠的可行性,这一方法和传统的调查方法相比,具有高效、便捷和低成本的优势。 相似文献
7.
基于改进Faster R-CNN的马铃薯芽眼识别方法 总被引:3,自引:0,他引:3
为提高对马铃薯芽眼的识别效果,提出一种基于改进Faster R-CNN的马铃薯芽眼识别方法。对Faster R-CNN中的非极大值抑制(Non maximum suppression, NMS)算法进行优化,对与M交并比(Intersection over union, IOU) 大于等于Nt的相邻检测框,利用高斯降权函数对其置信度进行衰减,通过判别参数对衰减后的置信度作进一步判断;在训练过程中加入采用优化NMS算法的在线难例挖掘 (Online hard example mining, OHEM) 技术,对马铃薯芽眼进行识别试验。试验结果表明:改进的模型识别精度为96.32%,召回率为90.85%,F1为93.51%,平均单幅图像的识别时间为0.183s。与原始的Faster R-CNN模型相比,改进的模型在不增加运行时间的前提下,精度、召回率、F1分别提升了4.65、6.76、5.79个百分点。改进Faster R-CNN模型能够实现马铃薯芽眼的有效识别,满足实时处理的要求,可为种薯自动切块中的芽眼识别提供参考。 相似文献
8.
目前对玉米出苗动态检测监测主要是依靠人工观测,耗时耗力且只能选择小的样方估算整体出苗情况。为解决人工出苗动态管理不精准的问题,实现田间精细化管理,本研究以田间作物表型高通量采集平台获取的高时序可见光图像和无人机平台获取的可见光图像两种数据源构建了不同光照条件下的玉米出苗过程图像数据集。考虑到田间存在环境背景复杂、光照不均等因素,在传统Faster R-CNN的基础上构建残差单元,使用ResNet50作为新的特征提取网络来对Faster R-CNN进行优化,首先实现对复杂田间环境下玉米出苗识别和计数;进而基于表型平台所获取的高时序图像数据,对不同品种、不同密度的玉米植株进行出苗动态连续监测,对各玉米品种的出苗持续时间和出苗整齐度进行评价分析。试验结果表明,本研究提出的方法应用于田间作物高通量表型平台出苗检测时,晴天和阴天的识别精度分别为95.67%和91.36%;应用于无人机平台出苗检测时晴天和阴天的识别精度分别91.43%和89.77%,可以满足实际应用场景下玉米出苗自动检测的需求。利用表型平台可获取时序数据的优势,进一步进行了玉米动态出苗检测分析,结果表明利用本模型得到的动态出苗结果与人工实际观测具有一致性,说明本研究提出的模型的具有鲁棒性和泛化性。 相似文献
9.
当前植物叶片表皮气孔计数多使用人工计数,该方法耗时费力,且准确性有限,为了使气孔检测这一问题变的简单快速,需要训练出基于目标检测的深度学习模型自动检测植物气孔,提出一种依据Faster R-CNN的活体植株叶片下表皮气孔快速检测新方法。该方法以深度卷积神经网络为基础,以现有Faster R-CNN为原型,实现了对活体叶片气孔的快速检测与统计计数,并得到了气孔的密度值。分别采用两种倍率下(500 X,1000 X)共1000张气孔图像数据组成500 X、1000 X和两种倍率的混合共3类数据集进行建模,利用测试集的200张气孔数据(500 X和1000 X各100张)作为测试集进行测试。算法性能验证采用交叉验证的方法得到气孔的检测召回率,其检测召回率最高值为99.32%(1000 X模型测试同倍率数据),最低值为89.59%(500 X模型测试1000 X数据),误检率为0,检测时间约为0.08 s/张,用召回率最高的模型计算出杨树叶片下表皮气孔密度为183个/mm^2。最后还用杨树气孔图像训练的模型对白桦叶片气孔图像进行了测试,检测召回率为95.60%。 相似文献
10.
为了快速而准确地统计视频监测区域内的水稻穗数,提出了一种基于改进Faster R-CNN的稻穗检测方法。针对稻穗目标较小的问题,在Inception_ResNet-v2的基础上引入空洞卷积进行优化;对于不同生长期稻穗差别大的问题,设计了针对标注框尺度的K-means聚类,为候选区域生成网络提供先验知识,从而提高了检测精度。鉴于小尺寸稻穗目标的特殊性,用ROIAlign替代ROIPooling,提高了感兴趣区域的提取精度。试验测试时,根据水稻不同发育期稻穗的表型特征差异自制了3类数据集,并选取最佳聚类数为10。模型对比试验表明,本文方法的稻穗检测平均精度均值达到80.3%,较Faster R-CNN模型提升了2.4个百分点,且比SSD和YOLO系列模型有较大幅度的提升。 相似文献