首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 923 毫秒
1.
传统深度学习模型在用于蔬菜病害图像识别时,存在由于网络梯度退化导致的识别性能下降问题。为此,本文研究了一种基于深度残差网络模型的番茄叶片病害识别方法。该方法首先利用贝叶斯优化算法自主学习网络中难以确定的超参数,降低了深度学习网络的训练难度。在此基础上,通过在传统深度神经网络中添加残差单元,解决了由于梯度爆炸/消失造成的过深层次病害识别网络模型性能下降的问题,能够实现番茄叶片图像的高维特征提取,根据该特征可进行有效病害鉴定。试验结果表明,本研究中基于超参数自学习构建的深度残差网络模型在番茄病害公开数据集上取得了良好的识别性能,对白粉病、早疫病、晚疫病和叶霉病等4种番茄叶片常见病害的识别准确率达到95%以上。本研究可为快速准确识别番茄叶片病害提供参考。  相似文献   

2.
大数据背景下产生了海量图像数据,传统的图像识别方法识别玉米植株病害准确率较低,已远远不能满足需求。卷积神经网络作为深度学习中的常用算法被广泛用于处理机器视觉问题,能自动识别和提取图像特征。因此,本研究提出一种基于数据增强与迁移学习相结合的卷积神经网络识别玉米植株病害模型。该算法首先通过数据增强方法增加数据,以提高模型的泛化性和准确率;再构建基于迁移学习的卷积神经网络模型,引入该模型的训练方式,提取病害图片特征,加速卷积神经网络的训练过程,降低网络的过拟合程度;最后将该模型运用到从农田采集的玉米病害图片,进行玉米病害的精确识别。识别试验结果表明:使用数据增强与迁移学习的卷积神经网络优化算法对玉米主要病害(玉米大斑病、小斑病、灰斑病、黑穗病及瘤黑粉病)的平均识别准确度达96.6%,和单一的卷积神经网络相比,精度提高了25.6%,处理每张图片时间为0.28s,比传统神经网络缩短了将近10倍。本算法的精确度和训练速度上比传统卷积神经网络有明显提高,为玉米等农作物植株病害的识别提供了新方法。  相似文献   

3.
苹果和番茄是日常生活非常常见的果蔬,准确地识别病害能够提升作物产量,减少经济损失。针对现有的植物病害检测方法不能准确且快速地检测植物叶片中病害区域的问题,设计一种基于改进Yolov5的深度学习方法,用于检测苹果、番茄叶片常见病害。通过数据增强和图像标注技术构建苹果、番茄叶片病害数据集,利用K means算法对初始锚框进行调整,在此基础上使用复合主干网增强Yolov5主干网对病害特征的提取能力,使用Varifocal Loss函数提高对密集感染区域的识别精度。试验结果表明:改进后的Yolov5病害检测算法mAP达到95.7%,在原来Yolov5模型基础上mAP提升1.7%,平均检测一张图像耗时0.033 s,为苹果、番茄叶片病害检测提供一种高性能的解决方案,能够以较高的准确率对植物叶片病害进行分类与定位。  相似文献   

4.
数据集对基于深度学习的作物病害识别有效性影响   总被引:1,自引:0,他引:1  
基于深度学习的作物病害自动识别已成为农业信息化领域新的研究热点,为探究数据集的大小和质量对基于深度学习的作物病害识别有效性的影响,研究不同数据集训练得到的模型识别效果并进行了分析。以338张玉米病害数据集为例,对其进行数据增强、移除背景和细分割划分等处理,设计5个AlexNet框架的CNN网络模型并利用不同类型的数据集进行测试,使用十倍交叉法验证识别结果。试验结果表明:使用不同数量和等级的数据训练后的模型识别准确率分别为56.80%、78.30%、80.50%、89.30%和81.00%。在获得每个网络的最终精度后,挑选出识别错误的图像进行分析,结合前人的研究结果,得出影响深度神经网络用于作物病害识别有效性的9个主要因素。数据集对基于深度学习的作物病害识别有效性的影响因素主要分为带注释的数据集大小、叶片症状代表性、协变量转移、图像背景情况、图像数据获取过程、症状分割、特征多变性、并发性病害以及症状的相似性等这9类,该试验能够为深度学习技术田间病害识别的实际应用中提供依据和指导。  相似文献   

5.
基于高光谱图像的龙眼叶片叶绿素含量分布模型   总被引:2,自引:0,他引:2  
针对传统高光谱单点法检测叶绿素含量效率低、精度不足等问题,提出一种基于高光谱图像和卷积神经网络(CNN)多特征融合的深度学习龙眼叶片叶绿素含量分布预测模型。首先进行Savitzky-Golay光谱去噪,然后通过奇异值分解(SVD)和独立成分分析(ICA)提取特征光谱,再对特征光谱图像提取灰度共生矩阵(GLCM)和CNN纹理特征,最后建立粒子群优化(PSO)支持向量回归(SVR)、深度神经网络(DNNs)分布模型。结果表明,基于特征光谱建模的PSO-SVR预测效果最佳,全期的校正集和验证集模型决定系数R2为0.822 0和0.815 2。对比多种主流模型,基于特征光谱、GLCM纹理、CNN纹理特征的ICA-DNNs模型预测精度最高,校正集和验证集R2分别为0.835 8和0.821 0。试验结果表明,高光谱图像可快速无损地对龙眼叶片叶绿素含量分布进行检测,可为龙眼树实时营养监测和病害早期防治提供理论依据。  相似文献   

6.
基于深度学习与复合字典的马铃薯病害识别方法   总被引:4,自引:0,他引:4  
为解决自然环境下小样本病害叶片识别率低、鲁棒性不强的问题,以马铃薯病害叶片为研究对象,提出一种基于深度卷积神经网络与复合特征字典结合的病害叶片识别方法。首先,利用迁移学习技术对Faster R-CNN模型进行训练,检测出病害叶片的斑块区域;然后,采用高密度采样方法对整个斑块区域提取颜色特征和SIFT特征,建立颜色特征和SIFT特征词汇表,再由K-均值聚类算法对两类表观特征词汇表进行聚类,构造出复合特征字典;最后,将病害区域提取的特征在复合特征字典中映射后获得特征直方图,利用支持向量机训练出病害的识别模型。试验结果表明,复合特征字典中视觉单词数为50时,病害识别的鲁棒性和实时性最佳,平均识别准确率为90.83%,单帧图像耗时1.68 s;在颜色特征和SIFT特征组合下,本文方法在自然光照条件下对病害的平均识别准确率最高,达到84.16%;在相同数据集下,与传统词袋法相比,本文方法的平均识别准确率提高了25.45个百分点。  相似文献   

7.
现有基于深度学习的农作物病害识别方法对网络浅层、中层、深层特征中包含的判别信息挖掘不够,且提取的农作物病害图像显著性特征大多不足,为了更加有效地提取农作物病害图像中的判别特征,提高农作物病害识别精度,提出一种基于多层信息融合和显著性特征增强的农作物病害识别网络(Crop disease recognition network based on multi-layer information fusion and saliency feature enhancement, MISF-Net)。MISF-Net主要由ConvNext主干网络、多层信息融合模块、显著性特征增强模块组成。其中,ConvNext主干网络主要用于提取农作物病害图像的特征;多层信息融合模块主要用于提取和融合主干网络浅层、中层、深层特征中的判别信息;显著性特征增强模块主要用于增强农作物病害图像中的显著性判别特征。在农作物病害数据集AI challenger 2018及自制数据集RCP-Crops上的实验结果表明,MISF-Net的农作物病害识别准确率分别达到87.84%、95.41%,F1值分别达到87.72%、95....  相似文献   

8.
针对传统苹果叶部病害分类方法精准性差、效率低等问题,提出了一种基于改进ResNet18的苹果叶部病害多分类算法。通过在原始ResNet18网络的基础上增加通道与空间注意力机制分支,强化网络对叶部病害区域的特征提取能力,提高病害的识别精度和实时性。为更好地引导网络学习到零散分布的病害斑点的特征,引入特征图随机裁剪分支,不仅实现有限样本空间的扩充,还进一步优化网络结构,提高训练速度。试验以苹果5类常见的叶部病害(黑星病、黑腐病、雪松锈病、灰斑病、白粉病)为主要研究对象,并与主流分类算法模型进行对比。试验结果表明,所提ResNet18-CBAM-RC1模型病害分类准确率可达98.25%,高于ResNet18(93.19%)和VGG16(96.13%),能够有效提取叶片病害特征,增强对多类病害的识别,提高识别准确率。此外,模型内存占用量仅为37.44 MB,单幅图像推理时间为9.11 ms,可满足嵌入式设备上果园病害识别的实时性要求。  相似文献   

9.
深度学习在农作物病害图像识别中的研究进展   总被引:1,自引:0,他引:1  
农作物病害识别关乎作物的产量与质量,是智慧农业发展过程中必不可少的重要环节。随着深度学习技术在图像处理领域的飞速发展,利用深度学习从图像中识别出农作物患病类型的方法已逐渐成为主流。主要对基于深度学习的农作物病害识别方法进行综述,简要地介绍深度学习和卷积神经网络,收集一些常用的病害图像公开数据集。根据训练样本采集环境的不同,从实验室和野外两个方面概述近年来基于深度学习病害识别方法的进展,指出每种方法的优势与不足,总结出该研究领域存在数据量不足、任务难度大、深度学习模型网络结构复杂3个主要问题,并在此基础上进行展望,提出建立大规模、多种类、多类型病害数据库和设计高性能的深度学习模型是未来的重要发展方向。  相似文献   

10.
基于卷积网络的沙漠腹地绿洲植物群落自动分类方法   总被引:1,自引:0,他引:1  
为解决沙漠腹地绿洲遥感图像植物群落背景较易混淆,仅用传统的基于像元光谱信息的图像处理方法未能充分利用其图像特征信息,使得提取效果不佳的问题,针对地物类内特征复杂、类间边界模糊的特点,以连续分布的区域为研究对象,提出了一种基于深度卷积神经网络(Convolutional neural network,CNN)的高分辨率遥感影像植物群落自动分类方法。切分无人机影像获得规则块图像,利用基于CNN的VGGNet和Res Net模型分别对块图像的特征进行抽象与学习,以自动获取更加深层抽象、更具代表性的图像块深层特征,从而实现对植物群落分布区域的提取,以原图像与结果图像叠加的形式输出植物群落自动分类结果。采用了不同梯度的样本数量作为训练样本,利用文中提出的方法分析了不同梯度的训练样本数量对自动分类结果的影响。实验结果表明,训练样本数量对分类精度具有明显的影响;提高其泛化能力后,Res Net50模型与VGG19模型的建模精度从86. 00%、83. 33%分别提升到92. 56%、90. 29%; Res Net50模型分类精度为83. 53%~91. 83%,而VGG19模型分类精度为80. 97%~89. 56%,与传统的监督分类方法比较,深度卷积网络明显提高了分类精度。分类结果表明,训练样本数量不低于200时,基于CNN的Res Net50模型表现出最佳的分类结果。  相似文献   

11.
近年来,基于叶片图像的番茄病害识别研究受到广泛关注。本研究利用番茄叶部病害图像中病斑的颜色和纹理的差异,通过提取番茄病害叶片图像的颜色矩(CM)、颜色聚合向量(CCV)和方向梯度直方图(HOG)等颜色纹理特征,引入核相互子空间法(KMSM),建立了番茄叶部病害快速识别模型(CCHKMSM)。该模型首先通过高斯核函数,将从不同类别叶部病害图像数据中抽取的颜色及纹理特征映射到高维空间;然后对映射的高维空间进行主成分分析,建立非线性病害特征空间;最后基于非线性特征空间最小正则角对病害进行识别。本研究分别以公共农业病虫害数据集PlantVillage中的9种番茄病害类和1类健康番茄叶片图像,以及实际场景下采集的3种叶部病虫害图像数据集开展算法验证试验。基于PlantVillage的试验结果表明,当每类样本集数量为350张时,本研究所提出的CCHKMSM模型识别率达到100%,模型训练时间为0.1540 s,平均识别时间为0.013 s;同时,在样本数量150张到1000张的测试区间内,模型平均识别率为99.14%。该识别率高于其他典型的机器学习模型,与基于深度学习的识别方法相当。基于实际复杂场景下采集病害图像集的实验中,通过对原始图像切割分块后,对各病害的平均识别率为96.21%。试验结果表明,本研究提出的CCHKMSM模型识别准确率高且计算量小,其训练时间和测试时间都远低于深度学习等方法。该方法对系统要求低,具有在手持设备、边缘计算终端等低配置感知系统中的应用潜力。  相似文献   

12.
为有效识别茶叶嫩芽提高机械采摘精度、规划采摘路线以避免伤害茶树,针对传统目标检测算法在复杂背景下检测精度低、鲁棒性差、速度慢等问题,探索了基于Faster R-CNN目标检测算法在复杂背景下茶叶嫩芽检测方面的应用。首先对采集图像分别进行等分裁切、标签制作、数据增强等处理,制作VOC2007数据集;其次在计算机上搭建深度学习环境,调整参数进行网络模型训练;最后对已训练模型进行测试,评价已训练模型的性能,并同时考虑了Faster R-CNN模型对于嫩芽类型(单芽和一芽一叶/二叶)的检测精度。结果表明,当不区分茶叶嫩芽类型时,平均准确度(AP)为54%,均方根误差(RMSE)为3.32;当区分茶叶嫩芽类型时,单芽和一芽一叶/二叶的AP为22%和75%,RMSE为2.84;另外剔除单芽后,一芽一叶/二叶的AP为76%,RMSE为2.19。通过对比基于颜色特征和阈值分割的茶叶嫩芽识别算法(传统目标检测算法),表明深度学习目标检测算法在检测精度和速度上明显优于传统目标检测算法(RMSE为5.47),可以较好地识别复杂背景下的茶叶嫩芽。  相似文献   

13.
基于迁移学习的农作物病虫害检测方法研究与应用   总被引:3,自引:0,他引:3  
为了提高农作物病虫害严重程度(健康、一般、严重)的分类效果,采用迁移学习方式并结合深度学习提出了一种基于残差网络(ResNet 50)的CDCNNv2算法。通过对10类作物的3万多幅病虫害图像进行训练,获得了病虫害严重程度分类模型,其识别准确率可达91.51%。为了验证CDCNNv2模型的鲁棒性,分别与使用迁移学习的ResNet 50、Xception、VGG16、VGG19、DenseNet 121模型进行对比试验,结果表明,CDCNNv2模型比其他模型的平均精度提升了2.78~10.93个百分点,具有更高的分类精度,病虫害严重程度识别的鲁棒性增强。基于该算法所训练的模型,结合Android技术开发了一款实时在线农作物病虫害等级识别APP,通过拍摄农作物叶片病虫害区域图像,能够在0.1~0.5s之内获取识别结果(物种-病害种类-严重程度)及防治建议。  相似文献   

14.
针对番茄病害识别模型参数量大、计算成本高、准确率低等问题,本文提出一种基于多尺度特征融合和坐标注意力机制的轻量级网络(Multi scale feature fusion and coordinate attention MobileNet, MCA-MobileNet)模型。采集10类番茄叶片图像,采用基于Wasserstein距离的生成对抗网络(Wasserstein generative adversarial networks, WGAN)进行数据增强,解决了样本数据不足和不均衡的问题,提高模型的泛化能力。在原始模型MobileNet-V2的基础上,引入改进后的多尺度特征融合模块对不同尺度的特征图进行特征提取,提高模型对不同尺度的适应性;将轻量型的坐标注意力机制模块(Coordinate attention, CA)嵌入倒置残差结构中,使模型更加关注叶片中的病害特征,提高对病害种类的识别准确率。试验结果表明,MCA-MobileNet对番茄叶片病害的识别准确率达到94.11%,较原始模型提高2.84个百分点,且参数量仅为原始模型的1/6。该方法较好地平衡了模型的识别准确率和计算成本,为番茄叶片病害的现场部署和实时检测提供了思路和技术支撑。  相似文献   

15.
针对自然环境下马铃薯叶片病害识别率低和晚疫病斑定位难的问题,基于大田环境中采集的马铃薯叶片图像,首先对马铃薯叶片病害进行识别,对比AlexNet、VGG16、InceptionV3、ResNet50、MobileNet五种神经网络模型,结果表明InceptionV3模型的识别效果准确率最高,可达98.00%。其次对马铃薯叶片的晚疫病斑进行检测,提出一种改进型的CenterNet-SPP模型,该模型通过特征提取网络获取对象的中心点,再通过中心点回归获得中心点偏移量、目标大小等图像信息,训练后的模型在验证集下的mAP可达90.03%,以F1为评价值分析对比其它目标检测模型,CenterNet-SPP模型的效果最好,准确率为94.93%,召回率为90.34%,F1值为92.58%,平均检测一张图像耗时0.10 s。为自然环境下马铃薯叶片病害识别和检测提供较为全面的深度学习算法和模型研究基础。  相似文献   

16.
马铃薯典型病害图像自适应特征融合与快速识别   总被引:3,自引:0,他引:3  
针对自然条件下马铃薯典型病害区域定位和识别难的问题,提出了一种马铃薯典型病害图像的自适应特征融合与快速识别方法。该方法利用K-means、Hough变换与超像素算法定位叶片,结合二维Otsu与形态学法分割病斑区域,通过病斑图像颜色、形状、纹理的自适应主成分分析(PCA)特征加权融合,进行支持向量机(SVM)病害识别。对3类马铃薯典型病害图像进行识别试验,结果表明:SVM识别模型下,自适应特征融合方法相比PCA降维、特征排序选择等传统自适应方法,平均识别率至少提高了1.8个百分点;13个自适应融合特征下,识别方法平均识别率为95.2%,比人工神经网络、贝叶斯分类器提高了3.8个百分点和8.5个百分点,运行时间为0.600 s,比人工神经网络缩短3 s,可有效保证识别精度,大大加快了识别速度。  相似文献   

17.
基于多源图像融合的自然环境下番茄果实识别   总被引:1,自引:0,他引:1  
蔬果采摘机器人面对的自然场景复杂多变,为准确识别和分割目标果实,实现高成功率采收,提出基于多源图像融合的识别方法。首先,针对在不同自然场景下单图像通道信息不充分问题,提出融合RGB图像、深度图像和红外图像的多源信息融合方法,实现了机器人能够适应自然环境中不同光线条件的番茄果实。其次,针对传统机器学习训练样本标注低效问题,提出聚类方法对样本进行辅助快速标注,完成模型训练;最终,建立扩展Mask R-CNN深度学习算法模型,进行采摘机器人在线果实识别。实验结果表明,扩展Mask R-CNN算法模型在测试集中的检测准确率为98.3%、交并比为0.916,可以满足番茄果实识别要求;在不同光线条件下,与Otsu阈值分割算法相比,扩展Mask R-CNN算法模型能够区分粘连果实,分割结果清晰完整,具有更强的抗干扰能力。  相似文献   

18.
由于数控机床精度演化规律难以通过数学建模分析,提出了一种基于时序深度学习网络的数控机床运动精度建模与预测方法。基于长短时记忆网络建立时序深度学习预测模型,利用相空间重构原理构建模型时序输入向量,采用多层网格搜索方法选择最优隐含层层数、隐含层节点数等模型参数,以BPTT方法训练模型;模型自动提取运动精度时间序列的时空特征,挖掘精度时间序列前后关联信息,对运动精度变化趋势进行预测。实验结果表明,基于时序深度学习网络的预测模型能够准确预测数控机床精度的衰退趋势,预测的最大相对误差不大于7. 96%,优于传统方法。  相似文献   

19.
气孔是植物叶片与外界环境交换气体和水分的重要结构。针对现有气孔性状分析主要采用人工测量,过程繁琐、效率低下、容易出现人为误差的问题,本文采用YOLO(You only look once)深度学习模型完成了玉米叶片气孔的自动识别与自动测量工作。结合玉米叶片气孔数据集的特点,对YOLO深度学习模型进行了改进,有效地提高了气孔识别和测量的精确率。对YOLO深度学习模型中的预测端进行了优化,降低了误检率;同时,结合气孔特征对16倍、32倍下采样层进行简化,提高了识别效率。实验结果表明,改进后的YOLO深度学习模型在玉米叶片气孔数据集上识别精确率达到95%,参数测量的平均精确率达到90%以上。本文方法能够自动完成玉米叶片气孔的识别、计数与测量,解决了传统气孔分析方法的低效率问题,为农业科学家、植物学家开展植物气孔分析研究提供了技术支撑。  相似文献   

20.
针对自然环境复杂背景下葡萄霜霉病检测分级困难的问题,提出了一种基于语义分割结合K-means聚类和随机森林算法的葡萄霜霉病检测分级方法,实现对葡萄霜霉病快速分级。构建了葡萄霜霉病数据集,采用HRNet v2+OCR网络建立葡萄叶片语义分割模型,提取复杂环境下葡萄叶片;采用K-means聚类算法将葡萄叶片分解为若干子区域图像,并标记少量数据集进行随机森林算法学习,实现葡萄叶片病斑分割与提取;同时在叶片提取和病斑提取过程中,设计一种像素尺寸变换方法,解决图像分辨率引起的精度低问题。基于HRNet v2+OCR网络的葡萄叶片分割模型的准确率为98.45%,平均交并比为97.23%;融合K-means聚类和随机森林(RF)算法的葡萄叶片正面、反面和正反面霜霉病病害分级准确率分别为52.59%、73.08%和63.32%,病害等级误差小于等于2级时的病害分级准确率分别为88.67%、96.97%和92.98%。研究结果表明,基于K-means聚类和随机森林算法的葡萄霜霉病检测分级方法能够准确地分割自然环境复杂背景下的葡萄叶片和葡萄霜霉病病斑,并实现葡萄霜霉病分级,为葡萄霜霉病精准防治提供了方法和...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号