首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 421 毫秒
1.
基于深度学习的5种树皮纹理图像识别研究   总被引:1,自引:0,他引:1  
目的针对在树皮图像识别时,现有的算法和识别过程过于复杂的问题,提出了基于深度学习的方法来对不同树种的树皮图像进行识别。方法本文以5种常见树种的树皮纹理图像为例,采用基于卷积神经网络的深度学习方法,将原始图像直接作为输入,通过卷积和池化层对图像的低级、高级特征进行自动提取,解决了手动提取纹理特征的困难和问题;在此基础上,对CNN模型结构进行改进,采用带Maxout的ELU激励函数来代替ReLU函数,解决模型的偏移和零梯度问题;对损失函数进行改进,通过添加规范项来优化结构参数,并使用分段常数衰减法对学习率进行动态调控;最后采用softmax分类器对图像类别进行输出。结果对5个树种的树皮图像共计10 000张图像进行实验,其中每类选取200张图像作为测试集。最终训练准确率达到93.80%,测试集识别准确率为97.70%。另外,为验证本文方法的可行性,与传统人工特征提取法,提取HOG特征、Gabor特征和灰度共生矩阵统计法,训练SVM分类器。通过实验比较,本文方法识别准确率最高。结论本文提出的基于深度学习的树皮纹理图像识别方法是可行的,提高了识别效率和精度,为树种的智能化识别提供新的参考。   相似文献   

2.
针对在树皮图像分类过程中图像训练数据数量少、识别准确率低的问题,提出一种基于卷积神经网络的小样本树皮图像识别方法。以5种常见树种的树皮图像作为研究对象,在基于卷积神经网络的Inception_v3模型基础上,对原始数据集进行数据增强的一系列操作,扩大数据集的数量;在此基础上,对所有数据集进行白化处理,以降低数据之间的冗余性,使得特征之间相关性较低;采用ReLU激励函数和Dropout方法,防止训练时引起的过拟合现象;同时,在模型的最后添加3层全连接层,增强模型的特征表达能力,采用softmax分类器。最终确定了一个10层CNN模型:5个卷积层、2个池化层、3个全连接层。结果表明,上述网络模型对数据集的识别准确率为94%,并且为验证本研究方法的可行性,分别在MNIST数据集、ImageNet数据集、CIFAR-10数据集进行测试,识别准确率分别为92%、90%、93%。因此,提出的方法在小样本的识别试验中具有较高的识别准确率和一定的可行性。  相似文献   

3.
基于改进VGG卷积神经网络的棉花病害识别模型   总被引:5,自引:2,他引:3  
为实现自然条件下棉花病害图像准确分类,提出基于改进VGG-16卷积神经网络的病害识别模型。该模型在VGG-16网络模型基础上,优化全连接层层数,并用6标签SoftMax分类器替换原有VGG-16网络中的SoftMax分类器,优化了模型结构和参数,通过微型迁移学习共享预训练模型中卷积层与池化层的权值参数。从构建的棉花病害图像库中随机抽取病害图像样本作为训练集和测试集,用以测试该方法的性能。试验结果表明:该模型能有效提取出棉花病害叶片图像的多层特征图像,并通过Relu激活函数的处理更能凸显棉花病害的边缘信息与纹理信息,分辨率为512像素×512像素图像在样本训练与验证试验效果最好。在平均识别准确率方面,本研究模型较BP神经网络、支持向量机、AlexNET、GoogleNET、VGG-16NET效果最好,达到89.51%,实现对棉花的褐斑病、炭疽病、黄萎病、枯萎病、轮纹病、正常叶片的准确区分。该模型在棉花病害识别领域具备良好的分类性能,可实现自然条件下棉花病害的准确识别。  相似文献   

4.
为减轻花叶病对大豆产量的影响,实现对大豆花叶病害初期的快速检测,本文提出了一种基于卷积神经网络(convolutional neural network, CNN)模型的大豆花叶病害的诊断识别方法。首先对分别接种SC3、SC7病毒7 d后发病初期及正常的‘南农1138-2’大豆样本各80片(共计240片)进行高光谱图像采集,根据其图像信息提取并计算感兴趣区域的平均光谱值,建立基于高光谱图像的CNN模型。最终模型训练集识别率达到94.79%,预测集识别率达到92.08%,其中对接种SC3病毒的花叶病叶片识别率为88.75%,对接种SC7病毒的花叶病叶片识别率为93.13%,对正常叶片识别率为94.38%。对比最小二乘支持向量机和极限学习机模型,CNN模型能够更充分提取光谱的深层特征信息,识别效果显著提高。研究表明,基于高光谱图像的CNN模型能够更精确地实现对大豆花叶病初期检测,将CNN与高光谱结合的方法也为病害检测提供了一种新思路。  相似文献   

5.
为提升草地贪夜蛾及其近缘种成虫识别模型的泛化能力,除识别准确率外额外引入特征识别率对模型的泛化能力进行评估。将带有批归一化层的VGG-16-bn模型的全连接层以全局平均值池化层取代,并在模型训练阶段引入了Grad-CAM可视化结果进行训练指导,共构建了4种改进模型识别草地贪夜蛾及其近缘种成虫。试验结果表明,改进后的模型的识别准确率均在99.22%以上,VGG-16-bn-GAP模型参数内存需求仅为原始模型的10.98%。为评估模型的泛化能力,利用导向反向传播梯度值、Grad-CAM及Grad-CAM++对模型习得的特征进行可视化,并和专家进行人工识别的关键视觉特征进行比较,结果表明改进的VGG-16-bn-GAP模型和VGG16-bn-GAIN模型获得的草地贪夜蛾平均特征识别率比原始模型分别提高12.25%和13.42%。两种改进方式单独应用均能显著提高特征识别率,但同时使用两种方法效果并不明显。本文提出的以特征识别率评估模型泛化能力的方法,可为特征识别率和识别准确率的提升提供参考。  相似文献   

6.
基于Faster-RCNN的花生害虫图像识别研究   总被引:1,自引:0,他引:1  
为实现花生害虫图像的准确分类,共收集花生主要害虫图片2 038张,针对目前在基于Faster-RCNN的图像识别领域较为成熟的VGG-16和ResNet-50这2种网络模型进行对比研究,并针对ResNet-50模型参数进行调整,提出了基于学习率、训练集和测试集以及验证集的比例选择、迭代次数等参数改进的ResNet-50卷积神经网络的模型。结果表明:该模型可以准确高效地提取出花生主要害虫的多层特征图像,在平均识别率上,经过改进的ResNet-50网络模型在识别花生害虫图像上优于ResNet-50原始网络模型。该模型可以准确地分类花生主要害虫图像,可在常规情况下实现花生害虫的图像识别。  相似文献   

7.
青色油茶果及其背景色差不大,形状特征差别明显,可用于特征识别。本文提出一种基于归一化傅里叶描述子、Hu不变矩形状特征和BP神经网络识别油茶果的方法。首先将油茶果从RGB颜色空间转换到HSV颜色空间,提取H分量后进行二值化;其次通过形态学算法去除二值化图像中的噪声;然后提取其前8阶归一化傅里叶描述子作为BP神经网络特征向量进行识别。结果显示,油茶果识别率为85%。为了进一步提高识别率,提取油茶果的7个Hu不变矩特征,利用BP神经网络识别,识别率可达100%。  相似文献   

8.
针对传统苹果叶部病害识别方法识别率低和现有卷积神经网络(CNN)训练时间长的问题,提出一种基于多尺度注意力卷积神经网络的苹果叶部病害识别方法。该方法由多尺度空洞卷积模块Inception与改进的残差模块组成,其中,多尺度空洞卷积模块Inception用于图像的多尺度特征提取,在卷积模块中引入双注意力机制增强网络模型,显著表示图像中叶部病斑区域特征,降低非病斑区域与背景区域对识别结果的干扰,在原始残差模块上引入卷积层与非线性激活函数改进的残差模块,增加鲁棒性判别特征的跨层融合,在苹果病害叶片图像数据集上的识别准确率达96%以上。结果表明,所提出的方法具有参数量少、占用内存小以及性能好的优势,可进一步应用于田间苹果叶部病害智能识别系统。  相似文献   

9.
为解决传统卷积神经网络模型训练时间长、参数量大、泛化能力弱等问题,提出了一种基于VGG-16的改进多尺度卷积神经网络模型。用一个叠加卷积层替换VGG-16模型的最后3×3×512卷积层,并进行批归一化处理,提高模型训练速度;用全局池化层替换全连接层,大大减少模型参数总量。利用Plant Village公共数据集(健康玉米叶片、灰斑病、锈病和叶枯病叶片)结合大田试验采集的玉米病害图像数据对改进后模型进行训练和测试,并与常见的传统卷积神经网络模型进行对比。结果表明,模型参数和收敛时间均小于传统卷积神经网络,单一背景下的平均分类识别准确率达99.31%,明显优于传统神经网络模型(VGG-16的90.89%、ResNet-50的93.60%、Inception-V3的94.23%、MobileNet-V2的93.83%和DenseNet-201的95.70%)。同时,利用大田复杂背景病害图片测试新模型的泛化性,识别准确率达98.44%,单张图片测试平均仅需0.25 s。  相似文献   

10.
为了实现自然场景下水稻害虫实时精准被识别,构建基于VGG-16卷积神经网络的水稻害虫智能识别模型。该模型采用VGG-16卷积神经网络为核心网络结构,根据水稻害虫的个体特征和自然场景,对VGG-16网络的卷积层局部调整,优化主要模型参数,实现水稻害虫的智能识别,其识别的平均准确率是90.7%,实现对沙叶蝉、大螟、斑须蝽、点蜂缘蝽和白背飞虱的准确识别。研究结果显示,采用卷积神经网络技术可以实现自然场景下害虫图像的精准识别,代替人工辨认,提高水稻害虫防治率,实现实时、精准防治的目标。  相似文献   

11.
基于多特征融合和稀疏表示的农业害虫图像识别方法   总被引:1,自引:0,他引:1  
【目的】在农业害虫测报中,常常需要从大量的昆虫中识别出几种重要的测报害虫。目前基于图像的农业害虫识别研究,大部分是在有限种类有限样本量基础上进行的农业害虫识别。本研究为了从大量的水稻昆虫图像中识别出9种水稻测报害虫,尝试提出了一种基于多特征融合和稀疏表示的农业害虫图像识别方法。【方法】首先,为了获得最优的农业害虫识别模型,将所有图像进行旋转使昆虫头朝上,按照1﹕2长宽比裁剪图像,使昆虫居中并占据图像大部分区域,将图像进行等比例缩放至统一尺寸48×96像素。提取所有昆虫的HSV颜色特征、局部特征中的HOG特征、Gabor特征和LBP特征。然后,利用单一特征和融合特征分别对训练样本构建过完备字典,字典中的每一个列向量表示一个训练样本,且满足同一类训练样本均在同一个子空间中;应用过完备字典对测试图像进行多特征稀疏表示,通过求解l1范数意义下的优化问题获取稀疏解,使得除测试样本所在的类别外其他的训练样本的系数都是零或接近零的数值。最后,计算稀疏集中指数阈值,用于判断测试样本的有效性,如果测试样本的稀疏集中指数大于该阈值,则认为最小残差所对应的类别即为测试样本的类别,否则认为该测试样本为非测报昆虫。同时,利用相同的特征和训练样本训练SVM分类器对测试样本进行测试,与稀疏表示害虫识别模型进行比较。【结果】利用单一特征训练的稀疏表示害虫识别模型中,基于HOG特征的稀疏表示识别模型获得了9种测报害虫较高的识别率和较低的误检率,分别为87.0%和7.5%;利用颜色特征分别与3种局部特征进行结合获得的稀疏表示识别模型,测试结果表明,基于颜色和HOG特征的稀疏表示识别模型获得了最高的识别率和最低的误检率,分别为90.1%和5.2%;将颜色、HOG和Gabor 3个特征结合获得的稀疏表示识别模型,识别率下降为83.5%,误检率上升为10.3%。利用同样的特征或特征融合训练得到的支持向量机分类器,识别率均低于对应特征获得的稀疏表示识别模型的识别率,而误检率均高于对应特征训练的稀疏表示害虫识别模型的误检率。【结论】基于颜色和HOG 融合特征的稀疏表示识别模型获得了较高的农业害虫识别率和较低的误检率;通过稀疏集中指数阈值,有效地排除了非测报昆虫,实现了从大量的农业昆虫中自动识别出需要测报的害虫。  相似文献   

12.
针对目前林业部门人工调查树种存在效率低、成本高等问题,采用无人机遥感技术进行树种分类识别,提高树种调查效率,辅助林业管理部门进行林木种植结构分析、病虫害防治等工作。利用无人机获取矮冬青、三球悬铃木、马尾松和紫叶李的冠层红绿蓝(red-green-blue,RGB)可见光影像,进行数字表面模型(digital surface model,DSM)特征图像提取,通过色彩空间转换提高树种间颜色差异;应用最优尺度分割,以纹理特征、颜色特征及几何特征为分类特征参数,优选最佳分类特征集,以期实现无人机可见光影像的树种分类。结果表明,DSM与RGB特征融合图像提取树种的精度较高,可见光影像分类总精度为91.58%,Kappa系数为0.89;特征融合图像分类总精度为98.27%,Kappa系数为0.98。研究提出的特征融合图像结合面向对象分类方法实现了可见光影像的树种分类,为实现树种计数、统计、分类提供数据参考。  相似文献   

13.
为提高复杂背景下立木图像的识别准确率,提出近似联合训练的Faster R-CNN对立木图像进行目标提取并分类。首先迁移ImageNet上的模型VGG16、ResNet101和MobileNetV2提取图像特征并微调网络,然后构建新的数据集包括7科10种立木图像共2 304张,通过该数据集训练和测试3种网络模型下的Faster R-CNN。结果表明,通过近似联合训练的Faster R-CNN得到的均值平均精度分别是93.64%、92.38%、92.58%,对于不同种属的立木,VGG16网络效果最佳。由于光照会对图像识别造成影响,将光照平衡前后的结果作对比,得到光照平衡后的立木图像识别结果优于平衡前。并利用训练的模型对斜向生长的立木图片进行检测,结果显示生长方向不影响图像识别准确率。证明该方法在具有复杂背景的立木图像上具有良好的效果,对更多立木的识别有一定的参考价值。  相似文献   

14.
杨秋霞  罗传文 《安徽农业科学》2014,(34):12342-12346
为了实现森林火灾的智能识别,提出一种基于局部二值模式和稀疏表示的林火烟雾自动识别方法.选取森林火灾烟雾视频和干扰视频,经运动区域检测提取疑似林火烟雾图像样本.首先对疑似林火烟雾样本图像采用不同的LBP算子进行纹理特征提取,然后选取350幅林火烟雾样本构建林火烟雾特征字典,另外选取343幅林火烟雾图像样本和331幅干扰图像样本进行测试,对每个测试样本利用11最小化范数计算其在训练字典上的稀疏表示系数和重构误差,最后根据经验阈值进行分类识别.结果表明,LBP特征提取结合稀疏表示方法可以有效地实现林火烟雾的自动识别,识别率可达92.88%,为林火烟雾的模式识别提供了一种有效的解决方案.  相似文献   

15.
目的针对传统水稻病害识别技术对图像特定特征依赖性强、识别效率低等问题,提出将深度学习理论应用到水稻病害识别中,以期取得较好的识别效果。方法通过使用深度卷积网络建立水稻病害识别模型,对水稻3种主要病害数据进行了归一化处理,采用深度学习框架Keras进行深度CNN训练。通过设置不同的卷积核尺寸和池化函数,对水稻3种常见病害进行分类识别研究。结果卷积核尺寸采用9×9和池化函数采用最大池化构建的模型识别率最高;模型经过5次迭代,其识别准确率就能达到90%以上;当迭代6次时,图像趋于稳定,模型基本达到收敛;从模型性能分析看,损失函数呈梯度下降趋势,变化相对平稳,预测损失偏差逐步减少。结论该模型具有泛化能力较强、准确率较高、鲁棒性较好及损失率较小等特点,这为植物病害的识别研究提供了参考和借鉴。  相似文献   

16.
基于分层卷积深度学习系统的植物叶片识别研究   总被引:5,自引:3,他引:2  
深度学习已成为图像识别领域的研究热点。本文以植物叶片图像识别为研究对象,对单一背景和复杂背景图像分别给出了优化预处理方案;设计了一个8层卷积神经网络深度学习系统分别对Pl@antNet叶片库和自扩展的叶片图库中33 293张简单背景和复杂背景叶片图像进行训练和识别,并与传统基于植物叶片多特征的识别方法进行了比较分析。实验证明:本文提供的CNN+SVM和CNN+Softmax分类器识别方法对单一背景叶片图像识别率高达91.11%和90.90%,识别复杂背景叶片图像的识别率也能高达34.38%,取得了较好的识别效果。利用本文实现的分层卷积深度学习识别系统在数据量大而无法做出更多优化的情况下,叶片图像的识别率更高,尤其是针对复杂背景下的叶片图像,取得了极佳的识别效果。   相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号