首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 156 毫秒
1.
基于迁移学习的卷积神经网络玉米病害图像识别   总被引:17,自引:0,他引:17  
为实现小数据样本复杂田间背景下的玉米病害图像识别,提出了一种基于迁移学习的卷积神经网络玉米病害图像识别模型。在VGG-16模型的基础上,设计了全新的全连接层模块,并将VGG-16模型在Image Net图像数据集训练好的卷积层迁移到本模型中。将收集到的玉米病害图像数据集按3∶1的比例分为训练集与测试集。为扩充图像数据,对训练集原图进行了旋转、翻转等操作。基于扩充前后的训练集,对只训练模型的全连接层和训练模型的全部层(卷积层+全连接层)两种迁移学习方式进行了试验,结果表明,数据扩充和训练模型的全部层能够提高模型的识别能力。在训练模型全部层和训练集数据扩充的条件下,对玉米健康叶、大斑病叶、锈病叶图像的平均识别准确率为95. 33%。与全新学习相比,迁移学习能够明显提高模型的收敛速度与识别能力。将训练好的模型用Python开发为图形用户界面,可实现田间复杂背景下玉米大斑病与锈病图像的智能识别。  相似文献   

2.
基于迁移学习的卷积神经网络植物叶片图像识别方法   总被引:10,自引:0,他引:10  
郑一力  张露 《农业机械学报》2018,49(S1):354-359
为了提高植物叶片图像的识别准确率,考虑到植物叶片数据库属于小样本数据库,提出了一种基于迁移学习的卷积神经网络植物叶片图像识别方法。首先对植物叶片图像进行预处理,通过对原图的随机水平、垂直翻转、随机缩放操作,扩充植物叶片图像数据集,对扩充后的叶片图像数据集样本进行去均值操作,并以4∶1的比例划分为训练集和测试集;然后将训练好的模型(AlexNet、InceptionV3)在植物叶片图像数据集上进行迁移训练,保留预训练模型所有卷积层的参数,只替换最后一层全连接层,使其能够适应植物叶片图像的识别;最后将本文方法与支持向量机(SVM)方法、深度信念网络(DBN)方法、卷积神经网络(CNN)方法在ICL数据库进行对比实验。实验使用Tensorflow训练网络模型,实验结果由TensorBoard可视化得到的数据绘制而成。结果表明,利用AlexNet、InceptionV3预训练模型得到的测试集准确率分别为95.31%、95.40%,有效提高了识别准确率。  相似文献   

3.
基于迁移学习和Mask R-CNN的稻飞虱图像分类方法   总被引:4,自引:0,他引:4  
针对当前稻飞虱图像识别研究中自动化程度较低、识别精度不高的问题,提出了一种基于迁移学习和Mask R-CNN的稻飞虱图像分类方法。首先,根据稻飞虱的生物特性,采用本团队自主研发的野外昆虫图像采集装置,自动获取稻田稻飞虱及其他昆虫图像;采用VIA为数据集制作标签,将数据集分为稻飞虱和非稻飞虱两类,并通过迁移学习在Res Net50框架上训练数据;最后,基于Mask R-CNN分别对稻飞虱、非稻飞虱、存在干扰以及存在黏连和重合的昆虫图像进行分类实验,并与传统图像分类算法(SVM、BP神经网络)和Faster R-CNN算法进行对比。实验结果表明,在相同样本条件下,基于迁移学习和Mask R-CNN的稻飞虱图像分类算法能够快速、有效识别稻飞虱与非稻飞虱,平均识别精度达到0. 923,本研究可为稻飞虱的防治预警提供信息支持。  相似文献   

4.
传统的花类识别方法和普通卷积神经网络模型无法对花类图像进行准确的特征提取,花类之间较高的相似性使得分类识别较难。针对以上问题,为提高图像识别率,提出一种基于VGG16网络的迁移学习方法,对花卉图像进行分类。首先对花卉图像进行数据加强,然后对数据集预训练模型进行迁移学习,修改全连接分类层,最后对优化器与激活函数进行微调,得出分类结果。实验表明:该模型在花类分类识别中比传统方法和普通卷积神经网络模型得出的准确率高,迁移后准确率达到89.10%。  相似文献   

5.
基于迁移学习和双线性CNN的细粒度菌菇表型识别   总被引:1,自引:0,他引:1  
为了对细粒度菌菇进行表型识别,在双线性卷积神经网络细粒度图像识别框架基础上,提出了一种基于迁移学习和双线性Inception-ResNet-v2网络的菌菇识别方法。利用Inception-ResNet-v2网络的特征提取能力,结合双线性汇合操作,提取菌菇图像数据的细粒度特征,采用迁移学习将ImageNet数据集上预训练的模型参数迁移到细粒度菌类表型数据集上。试验表明,在开源数据集和个人数据集上,识别精度分别达到87.15%和93.94%。开发了基于Flask框架的在线菌类表型识别系统,实现了细粒度菌菇表型的在线识别与分析。  相似文献   

6.
为了准确、定量地检测齿轮的表面缺陷,提出了2种采用深度学习算法的卷积神经网络模型(CNN)检测齿轮的表面缺陷。该方法对卷积核和卷积层进行了优化,并使用最大池化代替了大步长卷积,以扩大接收场的大小并以高分辨率捕获齿轮的精细特征,改进了分类器模块。使用和不使用数据扩充的Alex Net和Res Net模型都涉及通过操纵原始数据创建新数据点的过程,此过程无需添加新照片即可增加深度学习(DL)中训练图像的数量,适用于数据集较小的情况;收集生产过程中齿轮的200个图像的自数据集,通过灰度处理、调整图像大小获得清晰的目标齿轮轮廓并识别齿轮特征点。实验结果表明,经过训练的数据增强模型对Res Net和Alex Net分别具有95.83%和97.94%的最佳效果。与目前仅基于机器视觉的齿轮表面缺陷检测技术相比,该方法具有很好的通用性,获得了最高的识别率。  相似文献   

7.
大数据背景下产生了海量图像数据,传统的图像识别方法识别玉米植株病害准确率较低,已远远不能满足需求。卷积神经网络作为深度学习中的常用算法被广泛用于处理机器视觉问题,能自动识别和提取图像特征。因此,本研究提出一种基于数据增强与迁移学习相结合的卷积神经网络识别玉米植株病害模型。该算法首先通过数据增强方法增加数据,以提高模型的泛化性和准确率;再构建基于迁移学习的卷积神经网络模型,引入该模型的训练方式,提取病害图片特征,加速卷积神经网络的训练过程,降低网络的过拟合程度;最后将该模型运用到从农田采集的玉米病害图片,进行玉米病害的精确识别。识别试验结果表明:使用数据增强与迁移学习的卷积神经网络优化算法对玉米主要病害(玉米大斑病、小斑病、灰斑病、黑穗病及瘤黑粉病)的平均识别准确度达96.6%,和单一的卷积神经网络相比,精度提高了25.6%,处理每张图片时间为0.28s,比传统神经网络缩短了将近10倍。本算法的精确度和训练速度上比传统卷积神经网络有明显提高,为玉米等农作物植株病害的识别提供了新方法。  相似文献   

8.
小麦白粉病、赤霉病和锈病是危害小麦产量的三大病害。为提高小麦病害图像的识别准确率,构建一种基于Vision Transformer的小麦病害图像识别算法。首先,通过田间拍摄的方式收集包含小麦白粉病、赤霉病和锈病3种病害在内的小麦病害图像,并对原始图像进行预处理,建立小麦病害图像识别数据集;然后,基于改进的Vision Transformer构建小麦病害图像识别算法,分析不同迁移学习方式和数据增强对模型识别效果的影响。试验可知,全参数迁移学习和数据增强能明显提高Vision Transformer模型的收敛速度和识别精度。最后,在相同时间条件下,对比Vision Transformer、AlexNet和VGG16算法在相同数据集上的表现。试验结果表明,Vision Transformer模型对3种小麦病害图像的平均识别准确率为96.81%,相较于AlexNet和VGG16模型识别准确率分别提高6.68%和4.94%。  相似文献   

9.
基于卷积神经网络与迁移学习的稻田苗期杂草识别   总被引:1,自引:0,他引:1  
杂草类别信息获取是实现杂草智能化田间管理的基础,为实现自然光照和大田复杂背景下的稻田苗期杂草自动识别,提出了一种基于卷积神经网络(Convolutional Neural Network,CNN)与迁移学习相结合的稻田苗期杂草识别方法,可将预训练CNN图像分类模型的参数迁移到稻田苗期杂草识别任务。工作时,采集6种稻田苗期杂草图像共928幅,包括鳢肠、丁香蓼、空心莲子草、千金子、野慈姑和稗草,随机选择70%的图像样本作为训练集,剩余30%的图像样本作为测试集。基于3种经典CNN图像分类模型AlexNet、VGG16和GoogLeNet进行参数迁移学习,这3种参数迁移模型对6种稻田苗期杂草测试样本的正确识别率分别为96.40%、97.48%和91.01%。试验结果表明:基于预训练CNN图像分类模型与迁移学习相结合的稻田苗期杂草识别方法切实可行,可为其他农业应用中小样本图像的识别提供参考。  相似文献   

10.
基于深度学习的大豆生长期叶片缺素症状检测方法   总被引:5,自引:0,他引:5  
为了检测作物叶片缺素,提出了一种基于神经网络的大豆叶片缺素视觉检测方法。在对大豆缺素叶片进行特征分析后,采用深度学习技术,利用Mask R-CNN模型对固定摄像头采集的叶片图像进行分割,以去除背景特征,并利用VGG16模型进行缺素分类。首先通过摄像头采集水培大豆叶片图像,对大豆叶片图像进行人工标记,建立大豆叶片图像分割任务的训练集和测试集,通过预训练确定模型的初始参数,并使用较低的学习率训练Mask RCNN模型,训练后的模型在测试集上对背景遮挡的大豆单叶片和多叶片分割的马修斯相关系数分别达到了0.847和0.788。通过预训练确定模型的初始参数,使用训练全连接层的方法训练VGG16模型,训练的模型在测试集上的分类准确率为89.42%。通过将特征明显的叶片归类为两类缺氮特征和4类缺磷特征,分析讨论了模型的不足之处。本文算法检测一幅100万像素的图像平均运行时间为0.8 s,且对复杂背景下大豆叶片缺素分类有较好的检测效果,可为农业自动化生产中植株缺素情况估计提供技术支持。  相似文献   

11.
为研究激光雷达单木分割辅助条件下无人机可见光图像树种识别应用潜力,提出联合卷积神经网络(CNN)和集成学习(EL)的树种识别方法.首先利用同期无人机激光雷达数据和可见光影像数据进行单木树冠探测并制作单木树冠影像数据集;其次引入ResNet50网络并结合引入有效通道注意力机制、替换膨胀卷积、调整卷积模块层数搭建出4个卷积...  相似文献   

12.
针对鱼种类多、数据采集难度大,且需要细粒度图像识别等问题,提出了一种基于度量学习的小样本学习方法.采用基于度量学习的小样本学习网络以及ResNet18的残差块结构,提取鱼图像的深层次特征,并将其映射至嵌入空间进而在嵌入空间判断鱼的种类.为了进一步提升识别准确率,利用小样本学习模型在mini-ImageNet数据集进行预...  相似文献   

13.
为精准化管理果园,针对存在裸露土壤、遮蔽物、果树冠层阴影和杂草等复杂环境下难以提取导航线问题,通过无人机搭载多光谱相机获取苹果园影像数据后提取果树像元并进行全局果树行导航线提取。通过处理多光谱影像数据得到正射影像图(DOM)、数字表面模型(DSM)图像,选取并计算易于区分杂草与苹果树的归一化差异绿度指数(NDGI)、比值植被指数(RVI)分布图,构建DSM、NDGI、RVI融合图像后,综合利用过绿植被(EXG)指数和归一化差异冠层阴影指数(NDCSI)以阈值分割法剔除融合图像中土壤、遮蔽物、阴影等像元,降低非植被像元对果树提取的干扰。对比使用支持向量机(SVM)法、随机森林(RF)法和最大似然(MLC)法分别提取最终融合图像和普通正射影像中的苹果树像元,并计算混淆矩阵评价各识别精度。试验表明,MLC法对融合图像中果树的识别效果最优,其用户精度、制图精度、总体分类精度、Kappa系数分别为88.57%、93.93%、93.00%、0.8824;相对于普通正射影像,本文构建的最终融合图像使3种方法的识别精度均得到有效提升。其中,融合图像对RF法的用户精度提升幅度最大,为27.12个百分点;对SVM法的制图精度提升幅度最大,为9.03个百分点;对3种方法的总体分类精度提升幅度最低为13个百分点;对SVM法的Kappa系数提升幅度最大,为22.55%,且对其余两种方法的提升也均在20%以上。将本文得到的苹果树像元提取结果图像做降噪、二值化、形态学转换等处理后,以感兴趣区域划分法提取各果树行特征点,并以最小二乘法拟合各行特征点得到导航线,其平均角度偏差为0.5975°,10次测试整体平均用时为0.4023s。所提方法为复杂环境中果树像元和果树行导航线提取提供了重要依据。  相似文献   

14.
针对复杂环境下番茄叶部图像因其背景复杂导致病害识别较为困难,以温室大棚内采集的番茄叶部图像作为研究对象,对番茄白粉病、早疫病和斑潜蝇三种常见病虫害,提出一种结合颜色纹理特征的基于支持向量机(SVM)的CCL-SVM的复杂环境番茄叶部图像病害识别方法。CCL-SVM方法为实现小样本及复杂背景环境下的快速识别,首先采用滑动窗口将原始番茄叶部病害图像切割成小区域图像,选取不包含背景的小区域图像样本作为试验样本,从而实现样本数量和样本多样性的增加,并降低样本复杂背景的影响。通过对样本数据抽取颜色纹理特征(CCL),采用SVM模型对番茄早疫病、白粉病、斑潜蝇和健康叶片分类识别。试验结果表明,提出的CCL-SVM方法比Gray-SVM对番茄叶片病害种类的识别性能得到大幅提升,识别率从60.63%提升到97.5%;CCL-SVM方法识别精度高于对比的深度学习网络VGG16和Alexnet方法,且每个小区域图像的平均测试时间远低于深度学习网络。本文设计的CCL-SVM方法具有减小复杂背景影响,计算量小及系统要求低的优点,为复杂环境下番茄病害快速识别提供一种新的思路。  相似文献   

15.
针对现有基于卷积神经网络的水果图像分类算法均使用池化层进行降维处理会丢失部分特征,导致分类精度有待提高的问题,提出FC-CNN(Fruit Classification Convolutional Neural Network)水果图像分类算法.该算法基于深度卷积神经网络思想,设计了一种由二维卷积层、批量规范化层和激活...  相似文献   

16.
基于多源图像融合的自然环境下番茄果实识别   总被引:1,自引:0,他引:1  
蔬果采摘机器人面对的自然场景复杂多变,为准确识别和分割目标果实,实现高成功率采收,提出基于多源图像融合的识别方法。首先,针对在不同自然场景下单图像通道信息不充分问题,提出融合RGB图像、深度图像和红外图像的多源信息融合方法,实现了机器人能够适应自然环境中不同光线条件的番茄果实。其次,针对传统机器学习训练样本标注低效问题,提出聚类方法对样本进行辅助快速标注,完成模型训练;最终,建立扩展Mask R-CNN深度学习算法模型,进行采摘机器人在线果实识别。实验结果表明,扩展Mask R-CNN算法模型在测试集中的检测准确率为98.3%、交并比为0.916,可以满足番茄果实识别要求;在不同光线条件下,与Otsu阈值分割算法相比,扩展Mask R-CNN算法模型能够区分粘连果实,分割结果清晰完整,具有更强的抗干扰能力。  相似文献   

17.
草地贪夜蛾是对粮食安全具有巨大威胁的害虫,早发现、早防治对虫情控制具有重要意义。目前,利用深度学习方法进行草地贪夜蛾及其近缘种成虫识别的相关研究存在数据量严重偏小的情况,有可能造成模型未能真正学习到草地贪夜蛾及其近缘种成虫的环形纹、肾形纹等关键视觉特征。针对上述问题,本研究在建立包含草地贪夜蛾在内的7种夜蛾科成虫,10,177幅图像组成的数据库基础上,采用迁移学习方式建立了VGG-16、ResNet-50和DenseNet-121,3种夜蛾成虫识别深度学习模型,并用相同的测试集测试了所有模型。结果表明,构建的模型识别准确率均超过了98%。此外,本研究用特征可视化技术展现了模型习得的特征,并验证了这些特征和专家进行人工识别的关键视觉特征的一致性——ResNet-50和DenseNet-121的平均特征识别率在85%左右,进一步支持了用深度学习进行草地贪夜蛾成虫实时识别的可行性。研究发现,不同模型对夜蛾科成虫视觉特征的学习能力不一样,在评价模型时不能仅看识别率,还需要加入视觉特征识别率指标对模型的学习内容进行评价。本研究通过试验证明可视化分析可以直观认识模型的特征学习情况,可为行业内或其他领域的研究人员提供参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号