首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 140 毫秒
1.
改进Faster R-CNN的群养猪只圈内位置识别与应用   总被引:4,自引:3,他引:1  
群养圈栏内猪只的位置分布是反映其健康福利的重要指标。为解决传统人工观察方式存在的人力耗费大、观察时间长和主观性强等问题,实现群养猪只圈内位置的高效准确获取,该研究以三原色(Red Green Blue,RGB)图像为数据源,提出了改进的快速区域卷积神经网络(Faster Region Convolutional Neural Networks,Faster R-CNN)的群养猪只圈内位置识别算法,将时间序列引入候选框区域算法,设计Faster R-CNN和轻量化CNN网络的混合体,将残差网络(Residual Network,ResNet)作为特征提取卷积层,引入PNPoly算法判断猪只在圈内的所处区域。对育成和育肥2个饲养阶段的3个猪圈进行24 h连续98 d的视频录像,从中随机提取图像25 000张作为训练集、验证集和测试集,经测试该算法识别准确率可达96.7%,识别速度为每帧0.064 s。通过该算法获得了不同猪圈和日龄的猪群位置分布热力图、分布比例和昼夜节律,猪圈饲养面积的增加可使猪群在实体地面的分布比例显著提高(P<0.05)。该方法可为猪只群体行为实时监测提供技术参考。  相似文献   

2.
人字形板式换热器流道传热特性及参数优化   总被引:2,自引:2,他引:0  
为实现田间条件下快速、准确识别棉花与杂草,该文以自然光照下田间棉花与杂草为研究对象,采用垂直向下拍摄的方式获取棉花杂草视频,按1帧/s的速率从视频中提取图像,在人工去除冗余度过多的图片后,建立1 000幅图片的数据集。对比了Faster R-CNN和YOLOv3 2种典型卷积神经网络,将Faster R-CNN卷积神经网络的深度学习模型引入到棉花杂草图像识别中,并提出一种结构优化的方法,使之适用于复杂背景下的棉田杂草识别。该文选用残差卷积网络提取图像特征,Max-pooling 为下采样方法,RPN网络中引入特征金字塔网络生成目标候选框,对卷积神经网络结构进行优化。在使用700幅图片进行训练后,通过200 幅田间棉花杂草图像识别测试,结果表明:该方法的平均目标识别准确率达95.5%,识别单幅图像的平均耗时为1.51 s,采用GPU 硬件加速后识别单幅图像的平均耗时缩短为0.09 s。优化后的Faster R-CNN卷积神经网络相对于YOLOv3平均正确率MAP高0.3以上。特别是对于小目标对象,其平均正确率之差接近0.6。所提方法对复杂背景下棉花杂草有较好的检测效果,可为精确除草的发展提供参考。  相似文献   

3.
融合FPN的Faster R-CNN复杂背景下棉田杂草高效识别方法   总被引:7,自引:5,他引:2  
为实现田间条件下快速、准确识别棉花与杂草,该文以自然光照下田间棉花与杂草为研究对象,采用垂直向下拍摄的方式获取棉花杂草视频,按1帧/s的速率从视频中提取图像,在人工去除冗余度过多的图片后,建立1 000幅图片的数据集。对比了Faster R-CNN和YOLOv3 2种典型卷积神经网络,将Faster R-CNN卷积神经网络的深度学习模型引入到棉花杂草图像识别中,并提出一种结构优化的方法,使之适用于复杂背景下的棉田杂草识别。该文选用残差卷积网络提取图像特征,Max-pooling 为下采样方法,RPN网络中引入特征金字塔网络生成目标候选框,对卷积神经网络结构进行优化。在使用700幅图片进行训练后,通过200 幅田间棉花杂草图像识别测试,结果表明:该方法的平均目标识别准确率达95.5%,识别单幅图像的平均耗时为1.51 s,采用GPU 硬件加速后识别单幅图像的平均耗时缩短为0.09 s。优化后的Faster R-CNN卷积神经网络相对于YOLOv3平均正确率MAP高0.3以上。特别是对于小目标对象,其平均正确率之差接近0.6。所提方法对复杂背景下棉花杂草有较好的检测效果,可为精确除草提供参考。  相似文献   

4.
融合动态机制的改进型Faster R-CNN识别田间棉花顶芽   总被引:4,自引:4,他引:0  
针对田间密植环境棉花精准打顶时,棉花顶芽因其小体积特性所带来识别困难问题,该研究提出一种改进型更快速区域卷积神经网络(Faster Region Convolutional Neural Networks,Faster R-CNN)目标检测算法实现大田环境棉花顶芽识别。以Faster R-CNN为基础框架,使用 RegNetX-6.4GF作为主干网络,以提高图像特征获取性能。将特征金字塔网络(Feature Pyramid Network,FPN)和导向锚框定位(Guided Anchoring,GA)机制相融合,实现锚框(Anchor)动态自适应生成。通过融合动态区域卷积神经网络(Dynamic Region Convolutional Neural Networks,Dynamic R-CNN)方法,实现训练阶段检测模型自适应候选区域(Proposal)分布的动态变化,以提高算法训练效果。最后在目标候选区域(Region of Interest,ROI)中引入目标候选区域提取器(Generic ROI Extractor,GROIE)提高图像特征融合能力。采集自然环境7种不同棉花材料总计4 819张图片,建立微软常见物体图像识别库2017(Microsoft Common Objects in Context 2017,MS COCO 2017)格式的棉花顶芽图片数据集进行试验。结果表明,该研究提出的方法平均准确率均值(Mean Average Precision,MAP)为98.1%,模型的处理速度(Frames Per Second,FPS)为10.3帧/s。其MAP在交并比(Intersection Over Union,IOU)为0.5时较Faster R-CNN、RetinaNet、Cascade R-CNN和RepPoints网络分别提高7.3%、78.9%、10.1%和8.3%。该研究算法在田间对于棉花顶芽识别具有较高的鲁棒性和精确度,为棉花精准打顶作业奠定基础。  相似文献   

5.
采用轻量级网络MobileNetV2的酿酒葡萄检测模型   总被引:1,自引:1,他引:0  
为提高高分辨率田间葡萄图像中小目标葡萄检测的速度和精度,该研究提出了一种基于轻量级网络的酿酒葡萄检测模型(Wine Grape Detection Model,WGDM)。首先,采用轻量级网络MobileNetV2取代YOLOv3算法的骨干网络DarkNet53完成特征提取,加快目标检测的速度;其次,在多尺度检测模块中引入M-Res2Net模块,提高检测精度;最后,采用平衡损失函数和交并比损失函数作为改进的定位损失函数,增大目标定位的准确性。试验结果表明,提出的WGDM模型在公开的酿酒葡萄图像数据集的测试集上平均精度为81.2%,网络结构大小为44 MB,平均每幅图像的检测时间为6.29 ms;与单发检测器(Single Shot Detector,SSD)、YOLOv3、YOLOv4和快速区域卷积神经网络(Faster Regions with Convolutional Neural Network,Faster R-CNN)4种主流检测模型相比,平均精度分别提高8.15%、1.10%、3.33%和6.52%,网络结构分别减小了50、191、191和83 MB,平均检测时间分别减少了4.91、7.75、14.84和158.20 ms。因此,该研究提出的WGDM模型对田间葡萄果实具有更快速、更准确的识别与定位,为实现葡萄采摘机器人的高效视觉检测提供了可行方法。  相似文献   

6.
基于卷积神经网络结合图像处理技术的荞麦病害识别   总被引:3,自引:3,他引:0  
荞麦病害的发生极大地影响了荞麦的品质和产量,对病害的监测是确保荞麦产业健康发展的重要措施。该研究利用深度学习中卷积神经网络的多层特征提取方式,对荞麦病害的特征进行抽取,然后根据特征进行分类,最终实现对荞麦病害的判别。首先采用一种最大稳定极值区域(MSER,Maximally Stable Extremal Regions)和卷积神经网络(CNN,ConvolutionalNeuralNetwork)结合的方法对荞麦发病区域进行检测,实现了病害区域与非病害区域的分离,准确定位病灶位置;然后在传统卷积神经网络框架上,通过提升网络宽度,约束参数量,加入了两级inception结构,对成像环境复杂,低质量荞麦图像准确地进行特征抽取。同时,为了降低采样过程中光照的影响,采用基于余弦相似度的卷积代替传统的卷积运算,对于光照不均的荞麦叶片也能够进行较好的病害识别。最后,为了验证该研究所提方法的有效性,建立一个包含8种荞麦病害图像的数据集,结果表明采用MSER和CNN结合的区域检测与两级inception识别框架的方法,对于荞麦是否发病判别的精确率、召回率、以及精确率和召回率加权调和平均值分别达到了97.54%,96.38%,97.82%;对于具体病害的识别其均值为84.86%,85.78%,85.40%。该方法在识别精度和速度方面具有良好的性能,为实现荞麦病害的自动识别提供了重要的技术支持。  相似文献   

7.
基于卷积神经网络的温室黄瓜病害识别系统   总被引:25,自引:14,他引:11  
基于图像处理和深度学习技术,该研究构建了一个基于卷积神经网络的温室黄瓜病害识别系统。针对温室现场采集的黄瓜病害图像中含有较多光照不均匀和复杂背景等噪声的情况,采用了一种复合颜色特征(combinations of color features,CCF)及其检测方法,通过将该颜色特征与传统区域生长算法结合,实现了温室黄瓜病斑图像的准确分割。基于温室黄瓜病斑图像,构建了温室黄瓜病害识别分类器的输入数据集,并采用数据增强方法将输入数据集的数据量扩充了12倍。基于扩充后的数据集,构建了基于卷积神经网络的病害识别分类器并利用梯度下降算法进行模型训练、验证与测试。系统试验结果表明,针对含有光照不均匀和复杂背景等噪声的黄瓜病害图像,该系统能够快速、准确的实现温室黄瓜病斑图像分割,分割准确率为97.29%;基于分割后的温室黄瓜病斑图像,该系统能够实现准确的病害识别,识别准确率为95.7%,其中,霜霉病识别准确率为93.1%,白粉病识别准确率为98.4%。  相似文献   

8.
改进Faster-RCNN自然环境下识别刺梨果实   总被引:16,自引:12,他引:4  
为了实现自然环境下刺梨果实的快速准确识别,根据刺梨果实的特点,该文提出了一种基于改进的Faster RCNN刺梨果实识别方法。该文卷积神经网络采用双线性插值方法,选用FasterRCNN的交替优化训练方式(alternating optimization),将卷积神经网络中的感兴趣区域池化(ROI pooling)改进为感兴趣区域校准(ROI align)的区域特征聚集方式,使得检测结果中的目标矩形框更加精确。通过比较Faster RCNN框架下的VGG16、VGG_CNN_M1024以及ZF 3种网络模型训练的精度-召回率,最终选择VGG16网络模型,该网络模型对11类刺梨果实的识别精度分别为94.00%、90.85%、83.74%、98.55%、96.42%、98.43%、89.18%、90.61%、100.00%、88.47%和90.91%,平均识别精度为92.01%。通过对300幅自然环境下随机拍摄的未参与识别模型训练的刺梨果实图像进行检测,并选择以召回率、准确率以及F1值作为识别模型性能评价的3个指标。检测结果表明:改进算法训练出来的识别模型对刺梨果实的11种形态的召回率最低为81.40%,最高达96.93%;准确率最低为85.63%,最高达95.53%;F1值最低为87.50%,最高达94.99%。检测的平均速度能够达到0.2 s/幅。该文算法对自然条件下刺梨果实的识别具有较高的正确率和实时性。  相似文献   

9.
当前菠萝催花作业以人工喷洒为主,生产效率低、劳动强度大。菠萝苗心位置的精准识别和定位是实现机械化、智能化菠萝催花的核心问题。该研究在YOLOv4目标识别算法的基础上,选择GhostNet作为主干特征提取网络,构建了一种混合网络模型,并在颈部网络中融合深度可分离卷积与轻量级的注意力模块。改进后的模型相较于YOLOv4模型的总参数量减少70%。与YOLOv4、Faster R-CNN和CenterNet 3个模型进行检测对比试验,结果可得:改进模型在菠萝植株种植密集与稀疏的条件下识别精度分别为94.7%和95.5%,实时识别速度可达27帧/s,每张图像平均检测时间为72 ms,相比常规YOLOv4模型用时缩短23%。总体性能表现均优于对比组的目标检测模型。总的来说,改进模型YOLOv4-GHDW在一定程度上实现了检测速度、识别精度和模型体量三者之间平衡,能够在实际种植环境下对菠萝苗心有较好的识别效果。研究结果可为智能化菠萝精准催花设备研发提供视觉技术支持。  相似文献   

10.
改进Faster R-CNN的田间苦瓜叶部病害检测   总被引:11,自引:9,他引:2  
为实现在自然环境条件下对苦瓜叶部病害的目标检测,该研究提出了一种基于改进的更快速区域卷积神经网络(Faster Region with Convolutional Neural Network Features,Faster R-CNN)的苦瓜叶部病害目标检测方法。Faster R-CNN以残差结构卷积神经网络Res Net-50作为该次试验的特征提取网络,将其所得特征图输入到区域建议网络提取区域建议框,并且结合苦瓜叶部病害尺寸小的特点,对原始的Faster R-CNN进行修改,增加区域建议框的尺寸个数,并在ResNet-50的基础下融入了特征金字塔网络(Feature Pyramid Networks,FPN)。结果表明,该方法训练所得的深度学习网络模型具有良好的鲁棒性,平均精度均值(Mean Average Precision,MAP)值为78.85%;融入特征金字塔网络后,所得模型的平均精度均值为86.39%,提高了7.54%,苦瓜健康叶片、白粉病、灰斑病、蔓枯病、斑点病的平均精确率(Average Precision,AP)分别为89.24%、81.48%、83.31%、88.62%和89.28%,在灰斑病检测精度上比之前可提高了16.56%,每幅图像的检测时间达0.322s,保证检测的实时性。该方法对复杂的自然环境下的苦瓜叶部病害检测具有较好的鲁棒性和较高的精度,对瓜果类疾病预防有重要的研究意义。  相似文献   

11.
面向大规模多类别的病虫害识别模型   总被引:1,自引:1,他引:0  
早期病虫害精准识别是预警和防控的关键,但是病虫害种类繁多数量巨大,外部形态存在类间相似度较高而类内差异性较大等性状特征,导致病虫害识别仍然是一项极具挑战的工作。为实现病虫害识别分类任务中差异化特征的提取和表示,该研究提出一种大规模多类别精细病虫害识别网络模型(a large-scale multi-category fine-grained pest and disease network,PD-Net)。首先通过在基准网络模型中引入卷积块注意力模型,通过混合跨特征通道域和特征空间域实现模型在通道和空间两个维度上对关键特征提取和表示,用以增强网络对差异化特征的提取和表示能力。其次引入跨层非局部模块,提升模型在多个特征提取层之间对于多尺度特征的融合。在61类病害数据集和102类虫害数据集上的试验结果表明,对比AlexNet、VGG16、GoogleNet、Inception-v3、DenseNet121和ResNet50模型,该研究提出的面向大规模多类别病虫害识别模型,Top1识别准确率在病害和虫害集上分别达到88.617%和74.668%,精确率分别达到了0.875和0.745,召回率分别达到0.874和0.738,F1值达到0.874和0.732,试验结果对比其他模型均有一定幅度的提升,验证了PD-Net模型在大规模多类别病虫害识别上的有效性。  相似文献   

12.
改进RetinaNet的水稻冠层害虫为害状自动检测模型   总被引:1,自引:4,他引:1  
中国现行的水稻冠层害虫为害状田间调查方法需要测报人员下田目测为害状发生情况,此种人工调查方法存在客观性差、效率低与劳动强度大等问题。近几年,诸多学者开始利用深度学习方法来识别植物病虫为害状,但大多针对单株或单个叶片上病虫害种类进行识别研究。该研究采集了水稻冠层多丛植株上稻纵卷叶螟和二化螟为害状图像,提出一种改进RetinaNet的水稻冠层害虫为害状自动检测模型。模型中采用ResNeXt101作为特征提取网络,组归一化(Group Normalization,GN)作为归一化方法,改进了特征金字塔网络(Feature Pyramid Network,FPN)结构。改进后的RetinaNet模型对2种害虫为害状区域检测的平均精度均值达到93.76%,为实现水稻害虫为害状智能监测提供了理论依据和技术支持。  相似文献   

13.
基于改进EfficientNet模型的作物害虫识别   总被引:1,自引:7,他引:1       下载免费PDF全文
精准识别作物害虫是控制虫害发生态势的重要基础。针对现有害虫识别准确率较低、基于卷积神经网络的害虫识别结构较复杂且计算成本较高、害虫识别模型泛化能力低及难以部署等问题,该研究提出了一种基于改进EfficientNet模型的作物害虫智能识别模型。该模型通过引入坐标注意力(Coordinate Attention, CA)机制而改进EfficientNet主体结构,引入数据增强的组合训练策略及Adam优化算法来提高模型的泛化能力,并采用迁移学习策略来训练改进的EfficientNet模型,从而提出了一个高性能轻量化的作物害虫识别模型CA-EfficientNet。在公开的大规模作物害虫数据集IP102上展开试验,结果表明该研究提出的CA-EfficientNet模型识别准确率达到69.45%,较改进前提高了4.01个百分点;与现有同类最优算法(GAEnsemble)的性能相比,识别准确率高出2.32个百分点。改进后的CA-EfficientNet模型参数量为5.38 M,较改进前仅增加了0.09 M;相比于经典分类网络VGG、ResNet-50、GoogleNet等,其参数量仅是这些网络模型参数量的3.89%、22.72%和52.63%。试验结果表明,所提方法有效提高了作物害虫图像的识别准确率,较大幅度地减少了模型参数量,在保持轻量化计算开销的基础上获得了明显优于同类最优算法的准确率。  相似文献   

14.
基于改进SSD的柑橘实时分类检测   总被引:6,自引:6,他引:0  
针对人工分拣柑橘过程中,检测表面缺陷费时费力的问题,该文提出了一种基于改进SSD深度学习模型的柑橘实时分类检测方法。在经改装的自制打蜡机试验台架下采集单幅图像含有多类多个柑橘的样本2 500张,随机选取其中2 000张为训练集,500张为测试集,在数据集中共有正常柑橘19 507个,表皮病变柑橘9 097个,机械损伤柑橘4 327个。该方法通过单阶段检测模型SSD-ResNet18对图片进行计算和预测,并返回图中柑橘的位置与类别,以此实现柑橘的分类检测。以平均精度AP(average precision)的均值m AP(mean average precision)作为精度指标,平均检测时间作为速度指标,在使用不同特征图、不同分辨率和ResNet18、MobileNetV3、ESPNetV2、VoVNet39等4种不同特征提取网络时,进行模型分类检测效果对比试验研究。研究表明,该模型使用C4、C5特征图,768×768像素的分辨率较为合适,特征提取网络ResNet18在检测速度上存在明显优势,最终该模型的m AP达到87.89%,比原SSD的87.55%高出0.34个百分点,平均检测时间为20.27 ms,相较于原SSD的108.83 ms,检测耗时降低了436.90%。该模型可以同时对多类多个柑橘进行实时分类检测,可为自动化生产线上分拣表面缺陷柑橘的识别方面提供技术借鉴。  相似文献   

15.
玉米籽粒破损是制约中国玉米籽粒直收技术推广应用的瓶颈问题,如何快速准确地获取玉米收获过程中籽粒损伤情况是玉米智能化收获的关键。为了解决这一问题,该研究提出一种基于深度学习的玉米籽粒破损检测装置及方法,该方法采用籽粒单层化装置不断获取高质量玉米籽粒集图像数据,并通过深度学习分割、分类两阶段模型实现破损玉米籽粒检测。图像分割阶段通过深度学习经典实例分割模型(Mask R-CNN)完成区域内玉米籽粒单体分割;而图像分类则由该研究基于残差模块提出的新型网络模型(BCK-CNN)实现。为了评价BCK-CNN分类模型的有效性,将其和其他典型深度学习分类模型进行对比测试,并利用可视化的技术评估了不同模型对玉米籽粒的分类性能。结果表明:BCK-CNN模型对完整、破损玉米籽粒的分类准确性分别达到96.5%、94.2%。另外,选取平均相对误差为评价指标,通过模拟试验对比验证了该检测方法对破损玉米籽粒的检测性能。结果表明:相较于人工计算籽粒破损率,该研究提出的破损玉米籽粒检测方法计算得到的平均相对误差仅4.02%;且将其部署在移动工控机上对单周期玉米籽粒集图像检测时间可以控制在1.2 s内,研究结果为玉米收获过程中破损籽粒高效精准检测提供参考。  相似文献   

16.
自动监测装置用温室粉虱和蓟马成虫图像分割识别算法   总被引:6,自引:5,他引:1  
为了监测温室黄瓜作物虫害种类、数量变化情况以预测虫害发展趋势,该文以粉虱和蓟马为例,提出了一种基于Prewitt、Canny边缘检测算子分割和SVM(support vector machine)的温室粉虱和蓟马诱虫板的图像识别算法。该方法利用HSI(Hue-Saturation-Intensity)颜色空间的I分量与L*a*b*颜色空间的b分量二值图像中害虫目标与背景的高对比性,再分别相应地利用Prewitt算子和Canny算子进行单头害虫边缘分割,再经过形态学处理,最后融合这两幅二值图像完成单头害虫区域的提取。然后提取害虫的5个形态特征(面积、相对面积、周长、复杂度、占空比)及9个颜色特征(Hue-Saturation-Value颜色空间、HSI颜色空间、L*a*b*颜色空间各分量的一阶矩),并对这14个特征参数进行归一化处理,将特征值作为SVM的输入向量,进行温室粉虱和蓟马的诱虫板图像识别。通过分析比较不同向量组合的BP(back propagation)与SVM的害虫识别率、4种不同SVM核函数的害虫识别率,发现颜色特征向量是粉虱和蓟马识别的主成分,且SVM的识别效果优于BP神经网络、线性核函数的SVM分类性能最好且稳定。结果表明:平均识别准确率达到了93.5%,粉虱和蓟马成虫的识别率分别是96.0%和91.0%,能够实现温室害虫的诱虫板图像识别。该研究可以为虫害的监测与预警提供支持,为及时采取正确的防治措施提供重要的理论依据。  相似文献   

17.
采用改进CenterNet模型检测群养生猪目标   总被引:5,自引:4,他引:1  
为实现对群养环境下生猪个体目标快速精准的检测,该研究提出了一种针对群养生猪的改进型目标检测网络MF-CenterNet(MobileNet-FPN-CenterNet)模型,为确保目标检测的精确度,该模型首先以无锚式的CenterNet为基础结构,通过引入轻量级的MobileNet网络作为模型特征提取网络,以降低模型大小和提高检测速度,同时加入特征金字塔结构FPN(Feature Pyramid Networks)以提高模型特征提取能力,在保证模型轻量化、实时性的同时,提高遮挡目标和小目标的检测精度。该研究以某商业猪场群养生猪录制视频作为数据源,采集视频帧1 683张,经图像增强后共得到6 732张图像。试验结果表明,MF-CenterNet模型大小仅为21 MB,满足边缘计算端的部署,同时对生猪目标检测平均精确度达到94.30%,检测速度达到69 帧/s,相较于Faster-RCNN、SSD、YOLOv3、YOLOv4目标检测网络模型,检测精度分别提高了6.39%、4.46%、6.01%、2.74%,检测速度分别提高了54、47、45、43 帧/s,相关结果表明了该研究所提出的改进型的轻量级MF-CenterNet模型,能够在满足目标检测实时性的同时提高了对群养生猪的检测精度,为生产现场端的群养生猪行为实时检测与分析提供了有效方法。  相似文献   

18.
融合双分支特征和注意力机制的葡萄病虫害识别模型   总被引:1,自引:1,他引:0  
葡萄病虫害识别是精细化防治的前提。针对现有研究中存在的数据集少、识别精度低、模型参数量大等问题,该研究构建包含健康叶片、3类病害叶片和16类虫害的葡萄病虫害数据集,提出基于改进MobileNet V2模型的葡萄病虫害识别模型。首先在MobileNet V2模型的反向残差模块中嵌入坐标注意力(Coordinate Attention,CA)机制,提升模型的信息表征能力;然后使用深度可分离卷积设计双分支特征融合模块,加强模型的特征提取能力;最后对模型的通道数进行调整,精简模型结构。试验结果表明:MobileNet_Vitis在葡萄病虫害数据集上的识别准确率和F1分数为89.16%和80.44%,相比改进前的MobileNet V2 提高了1.83和9.31个百分点,而模型参数大小为7.85 MB,减少了8.5%。与ResNet 101、ShuffleNet V2、MobileNet V3和GhostNet相比,MobileNet_Vitis的识别精度和F1分数更高,参数量更小。MobileNet_Vitis对单张葡萄病虫害图像的推理时间为17.53 ms,可以达到快速识别的要求。该研究提出的模型能够较好地识别葡萄病虫害,并且较大幅度地减少模型的参数量。将MobileNet_Vitis模型部署到移动端的小程序上,可为葡萄病虫害的防治提供帮助。  相似文献   

19.
为提高苹果采摘机器人的工作效率和环境适应性,使其能全天候的在不同光线环境下对遮挡、粘连和套袋等多种情况下的果实进行识别定位,该文提出了基于YOLOv3(you only look once)深度卷积神经网络的苹果定位方法。该方法通过单个卷积神经网络(one-stage)遍历整个图像,回归目标的类别和位置,实现了直接端到端的目标检测,在保证效率与准确率兼顾的情况下实现了复杂环境下苹果的检测。经过训练的模型在验证集下的m AP(meanaverageprecision)为87.71%,准确率为97%,召回率为90%,IOU(intersection over union)为83.61%。通过比较YOLOv3与Faster RCNN算法在不同数目、不同拍摄时间、不同生长阶段、不同光线下对苹果的实际检测效果,并以F1为评估值对比分析了4种算法的差异,试验结果表明YOLOv3在密集苹果的F1高于YOLOv2算法4.45个百分点,在其他环境下高于Faster RCNN将近5个百分点,高于HOG+SVM(histogram of oriented gradient+support vector machine)将近10个百分点。并且在不同硬件环境验证了该算法的可行性,一幅图像在GPU下的检测时间为16.69 ms,在CPU下的检测时间为105.21 ms,实际检测视频的帧率达到了60帧/s和15帧/s。该研究可为机器人快速长时间高效率在复杂环境下识别苹果提供理论基础。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号