首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到14条相似文献,搜索用时 93 毫秒
1.
为实现在茶园环境中快速、准确地识别害虫目标,该文提出了一种基于卷积神经网络的深度学习模型来进行害虫定位和识别的方法。该文通过对整个图像进行颜色衰减加速运算,结合超像素区域之间的空间影响,计算各个超区域的显著性值,进而提供害虫目标的潜在区域,最终结合Grab Cut算法进行害虫目标的定位和分割。对于分割后的害虫目标,通过优化后的卷积神经网络进行表达和分类,并进一步对卷积神经网络的结构进行了约减。通过对23种茶园主要害虫的识别,试验结果表明,识别准确率在优化前后分别为0.915和0.881,优化后的模型内存需求和运行耗时分别降低至6 MB和0.7 ms,取得了较好的识别效果。  相似文献   

2.
基于深度卷积神经网络的番茄主要器官分类识别方法   总被引:3,自引:14,他引:3  
为实现番茄不同器官的快速、准确检测,提出一种基于深度卷积神经网络的番茄主要器官分类识别方法。在VGGNet基础上,通过结构优化调整,构建了10种番茄器官分类网络模型,在番茄器官图像数据集上,应用多种数据增广技术对网络进行训练,测试结果表明各网络的分类错误率均低于6.392%。综合考虑分类性能和速度,优选出一种8层网络用于番茄主要器官特征提取与表达。用筛选出的8层网络作为基本结构,设计了一种番茄主要器官检测器,结合Selective Search算法生成番茄器官候选检测区域。通过对番茄植株图像进行检测识别,试验结果表明,该检测器对果、花、茎的检测平均精度分别为81.64%、84.48%和53.94%,能够同时对不同成熟度的果和不同花龄的花进行有效识别,且在检测速度和精度上优于R-CNN和Fast R-CNN。  相似文献   

3.
基于卷积神经网络的田间多簇猕猴桃图像识别方法   总被引:4,自引:17,他引:4  
为实现田间条件下快速、准确地识别多簇猕猴桃果实,该文根据猕猴桃的棚架式栽培模式,采用竖直向上获取果实图像的拍摄方式,提出一种基于Le Net卷积神经网络的深度学习模型进行多簇猕猴桃果实图像的识别方法。该文构建的卷积神经网络通过批量归一化方法,以Re LU为激活函数,Max-pooling为下采样方法,并采用Softmax回归分类器,对卷积神经网络结构进行优化。通过对100幅田间多簇猕猴桃图像的识别,试验结果表明:该识别方法对遮挡果实、重叠果实、相邻果实和独立果实的识别率分别为78.97%、83.11%、91.01%和94.78%。通过与5种现有算法进行对比试验,该文算法相对相同环境下的识别方法提高了5.73个百分点,且识别速度达到了0.27 s/个,识别速度较其他算法速度最快。证明了该文算法对田间猕猴桃图像具有较高的识别率和实时性,表明卷积神经网络在田间果实识别方面具有良好的应用前景。  相似文献   

4.
基于卷积神经网络提取多尺度分层特征识别玉米杂草   总被引:3,自引:10,他引:3  
为提高作物与杂草识别的准确率、稳定性和实时性,该文以幼苗期玉米及杂草为研究对象,提出了基于卷积神经网络提取多尺度分层特征的玉米杂草识别方法。首先建立卷积神经网络模型,以从图像的高斯金字塔中提取多尺度分层特征作为识别依据,再与多层感知器相连接实现图像中各像素的识别;为了避免目标交叠所带来的问题,对图像进行超像素分割,通过计算每个超像素内部的平均像素类别分布确定该超像素块的类别,再将相同类别的相邻超像素合并,最终实现图像中各目标的识别。试验结果表明:该方法的平均目标识别准确率达98.92%,标准差为0.55%,识别单幅图像的平均耗时为1.68 s,采用GPU硬件加速后识别单幅图像的平均耗时缩短为0.72 s。该方法实现了精确、稳定和高效的玉米与杂草识别,研究可为精确除草的发展提供参考。  相似文献   

5.
在自然环境下对火龙果进行实时检测是实现火龙果自动化采摘的必要条件之一。该研究提出了一种轻量级卷积神经网络YOLOv4- LITE火龙果检测方法。YOLOv4集成了多种优化策略,YOLOv4的检测准确率比传统的YOLOv3高出10%。但是YOLOv4的骨干网络复杂,计算量大,模型体积较大,不适合部署在嵌入式设备中进行实时检测。将YOLOv4的骨干网络CSPDarknet-53替换为MobileNet-v3,MobileNet-v3提取特征可以显著提高YOLOv4的检测速度。为了提高小目标的检测精度,分别设置在网络第39层以及第46层进行上采样特征融合。使用2 513张不同遮挡环境下的火龙果图像作为数据集进行训练测试,试验结果表明,该研究提出的轻量级YOLOv4-LITE模型 Average Precision(AP)值为96.48%,F1值为95%,平均交并比为81.09%,模型大小仅为2.7 MB。同时对比分析不同骨干网络,MobileNet-v3检测速度大幅度提升,比YOLOv4的原CSPDarknet-53平均检测时间减少了132.33 ms。YOLOv4-LITE在GPU上检测一幅1 200×900的图像只需要2.28 ms,可以在自然环境下实时检测,具有较强的鲁棒性。相比现有的目标检测算法,YOLOv4-LITE的检测速度是SSD-300的9.5倍,是Faster-RCNN的14.3倍。进一步分析了多尺度预测对模型性能的影响,利用4个不同尺度特征图融合预测,相比YOLOv4-LITE平均检测精度提高了0.81%,但是平均检测时间增加了10.33 ms,模型大小增加了7.4 MB。因此,增加多尺度预测虽然提高了检测精度,但是检测时间也随之增加。总体结果表明,该研究提出的轻量级YOLOv4-LITE在检测速度、检测精度和模型大小方面具有显著优势,可应用于自然环境下火龙果检测。  相似文献   

6.
基于深度全卷积神经网络的大田稻穗分割   总被引:9,自引:7,他引:2  
稻穗的准确分割是获取水稻穗部性状、实现水稻表型自动化测量的关键。该研究应用水稻图像数据集及数据增广技术,离线训练了用于稻穗分割的3个分别基于Seg Net,Deep LAB和PSPNet的全卷积神经网络。综合考虑分割性能和计算速度,优选了基于Seg Net的网络,称为Panicle Net。在线分割阶段先将原始图像划分为子图,由Panicle Net分割子图,再拼接子图得到分割结果。比较该算法及现有作物果穗分割算法Panicle-SEG、HSeg、i2滞后阈值法及joint Seg,该算法对与训练样本同年度拍摄样本Qseg值0.76、F值0.86,不同年度样本Qseg值0.67、F值0.80,远优于次优的Panicle-SEG算法,且计算速度约为Panicle-SEG算法的35倍。该算法能克服稻穗边缘严重不规则、不同品种及生育期稻穗外观差异大、穂叶颜色混叠和复杂大田环境中光照、遮挡等因素的干扰,提升稻穗分割准确度及效率,进而服务于水稻育种栽培。  相似文献   

7.
【目的】目前堆肥腐熟度主要采用复杂的化学、生物学方法进行判断,操作繁琐且效率低。卷积神经网络 (convolutional neural network,CNN) 模拟人类视觉,既可保留堆肥图像的颜色信息,也提取了轮廓、线条、粒度等更加具有代表性的特征,从而避免了因光照条件不同对堆肥腐熟度预测识别效果的影响。本文提出了通过堆肥图像判断堆肥腐熟度的方法,构建基于卷积神经网络的堆肥腐熟度预测模型,并验证了该模型进行堆肥腐熟度判断的准确度。【方法】供试堆肥样本采集自江苏、山东、浙江三省,堆肥原料分别为秸秆、尾菜和畜禽粪便,堆肥周期依次为50 d、45 d和60 d。在厂棚内的堆肥槽中,用海康威视摄像头 (型号为C3W,焦段为广角,焦距2.8 mm,清晰度1080 p,夜间自动补光,摄像头距堆肥表面约1 m) 拍摄不同腐熟时期的堆肥图像,图像格式为JPEG。分别取三种不同原料的堆肥图像样本构成三组图像数据集,将三种原料的图像按照尾菜∶秸秆∶畜禽粪便原料1∶1∶1构成第四组图像数据集。每组数据集中,80%的图像数据用于训练基于卷积神经网络模型,并建立预测模型参数。剩余20%的图像用于测试,验证模型的腐熟度预测效果。【结果】搭建的堆肥腐熟度预测模型由输入层、3层卷积层、3层池化层、2层全连接层和输出层构成。构建的腐熟度预测模型在秸秆、尾菜、畜禽粪便及三者堆肥混合图像数据集上的腐熟度预测平均准确率分别为98.7%、98.7%、98.8%和98.2%。与几种经典高效的图像特征提取、分类方法相比,较每个数据集上最优经典算法的平均准确率提升了3~14个百分点。通过CNN方法判断堆肥腐熟度,纹理特征比颜色特征更加有效。【结论】采用卷积神经网络的堆肥腐熟度预测模型能够提取堆肥图像外观特征,实现在可见光条件下直接通过堆肥图像准确、快速地识别堆肥腐熟度,可为堆肥企业生产实践提供指导。  相似文献   

8.
基于改进卷积神经网络的多种植物叶片病害识别   总被引:13,自引:23,他引:13  
针对训练收敛时间长,模型参数庞大的问题,该文将传统的卷积神经网络模型进行改进,提出一种批归一化与全局池化相结合的卷积神经网络识别模型.通过对卷积层的输入数据进行批归一化处理,以便加速网络收敛.进一步缩减特征图数目,并采用全局池化的方法减少特征数.通过设置不同尺寸的初始层卷积核和全局池化层类型,以及设置不同初始化类型和激活函数,得到8种改进模型,用于训练识别14种不同植物共26类病害并选出最优模型.改进后最优模型收敛时间小于传统卷积神经网络模型,仅经过3次训练迭代,就能达到90%以上的识别准确率;参数内存需求仅为2.6 MB,平均测试识别准确率达到99.56%,查全率和查准率的加权平均分数为99.41%.改进模型受叶片的空间位置的变换影响较小,能识别多种植物叶片的不同病害.该模型具有较高的识别准确率及较强的鲁棒性,该研究可为植物叶片病害的识别提供参考.  相似文献   

9.
基于卷积神经网络的菊花花型和品种识别   总被引:7,自引:1,他引:7  
菊花作为国内十大名花之一,具有极为重要的观赏价值和经济价值,表现为种类丰富、花样瓣形繁多的特点,这些特征对其智能识别和高效的管理带来很大挑战。目前菊花的识别和管理主要靠人工方式,效率不高。本文基于端到端的卷积神经网络技术,直接作用于菊花的原始图像数据,通过逐层进行特征学习,进而利用多层网络获取菊花的特征信息,从而避免了人工提取特征的困难和问题,在此基础上使用优化目标函数实现菊花花型的高效、智能识别。针对菊花花型之间差别细微的特点,在细粒度上实现区分相同花型和不同花型的目标函数,系统不仅能够识别菊花花型,还能给出菊花所属的概率值和该花型涵盖的菊花品种。系统的实现分为离线训练和在线识别2个阶段,训练处的模型可以离线托管在云端以便在移动环境下使用。为了训练网络模型,采集了大量的菊花图像样本,并手工标注了相关的花型和类别信息,在此数据集上,与现有的典型系统进行了对比试验,试验表明:系统平均识别率可以达到0.95左右,部分达到0.98,系统识别精度得到明显提升,除此之外系统还能提供更加详细的菊花种类信息,实现了的菊花花型和品种智能识别和高效管理,具有重要的理论和应用价值,为菊花的自动化管理提供了有力的手段。  相似文献   

10.
基于空间金字塔池化和深度卷积神经网络的作物害虫识别   总被引:6,自引:5,他引:1  
为了减少因作物害虫姿态多样性和尺度多样性导致其识别精度相对较低的问题,该文将空间金字塔池化与改进的YOLOv3深度卷积神经网络相结合,提出了一种基于空间金字塔池化的深度卷积神经网络农作物害虫种类识别算法,首先对测试图像上的害虫进行检测定位,然后对检测定位出的害虫进行种类识别。通过改进YOLOv3的网络结构,采用上采样与卷积操作相结合的方法实现反卷积,使算法能够有效地检测到图片中体型较小的作物害虫样本;通过对采集到的实际场景下20类害虫进行识别测试,识别精度均值可达到88.07%。试验结果表明,本文提出的识别算法能够有效地对作物害虫进行检测和种类识别。  相似文献   

11.
黄瓜病害叶片中的病斑区域分割是病害检测与类型识别的关键步骤,分割效果将直接影响病害检测和识别的精度。针对传统方法对于黄瓜病害叶片图像分割精度低和泛化能力弱等问题,提出一种基于多尺度融合卷积神经网络(Multi-Scale Fusion Convolutional Neural Networks,MSF-CNNs)的黄瓜病害叶片分割方法。MSF-CNNs由编码网络(Encoder Networks,ENs)和解码网络(Decoder Networks,DNs)两部分组成,其中ENs为一个多尺度卷积神经网络组成,用于提取病害叶片图像的多尺度信息;DNs基于九点双线性插值算法,用于恢复输入图像的尺寸和分辨率。在MSF-CNNs模型训练的过程中,使用一种渐进微调的迁移学习方法加速模型的训练,提高模型的分割精度。在复杂背景下的作物病害叶片图像数据库上进行病害叶片图像分割试验,并与现有的分割方法全卷积网络(Fully Convolutional Networks,FCNs)、SegNet、U-Net、DenseNet进行比较。结果表明,该MSF-CNNs能够满足复杂环境下的黄瓜病害叶片图像分割需求,像素分类精度为92.38%、平均分割准确率为93.12%、平均交并比为91.36%、频率加权交并比为89.76%。与FCNs、SegNet、U-Net、DenseNet相比较,MSF-CNNs的平均分割精度分别提高了13.00%、10.74%、10.40%、10.08%和6.40%。使用渐进学习训练方式后,训练时间缩短了0.9 h。该方法为进一步的黄瓜病害检测和识别方法研究提供了参考。  相似文献   

12.
基于全卷积网络的哺乳母猪图像分割   总被引:4,自引:8,他引:4  
猪舍场景下,光照变化、母猪体表颜色不均及与环境颜色对比度不大、母猪与仔猪的粘连等,均给目标分割带来很大的困难。该文提出了基于全卷积网络(FCN,fully convolutional networks)的哺乳母猪图像分割算法。以VGG16为基础网络,采用融合深层抽象特征与浅层细节特征并将融合的特征图上采样8倍的跳跃式结构,设计哺乳母猪分割的FCN。利用Caffe深度学习框架,以7栏伴有不同日龄仔猪的3811幅哺乳母猪训练样本进行母猪分割FCN训练,在另外21栏的523幅哺乳母猪测试集上的分割结果表明:该算法可有效避免光线变化、母猪颜色不均、小猪遮挡与粘连等影响,实现完整的哺乳母猪区域分割;分割的平均准确率达到99.28%,平均区域重合度达到95.16%,平均速度达到0.22 s/幅。与深度卷积网络的SDS(simultaneous detection and segmentation)及传统的基于图论的图像分割、基于水平集的图像分割方法做了对比试验,该文分割方法平均区域重合度分别比这3种方法高出9.99、31.96和26.44个百分点,有较好的泛化性和鲁棒性,实现了猪舍场景下哺乳母猪准确、快速分割,可为猪只图像分割提供了技术参考。  相似文献   

13.
如何解决运动中肉牛关键部位自动识别,是实现肉牛异常行为早期发现的关键。该文通过Kinect采集肉牛图像的2种模态(Depth和RGB):基于RGB模态提出随机最近邻像素比较法,实现肉牛动作样本的自动抓取;基于Depth模态提出深度均值法,实现彩色图像背景过滤并保留肉牛形体信息,生成DRGB图像样本;基于Fast R-CNN设计识别器,参考Alex Net设计了8种分类网络并比较网络分类精度,选择最优网络作为识别器的基础网络;输入DRGB样本对网络的识别部分二次训练,最终得到符合精度要求的识别器。试验证明,RNNPC的有效数据率为94%;Selective Search算法在DRGB上产生的候选区域数量减少90%;识别网络的平均分类精度可以达到75.88%,处理图像速率为4.32帧/s,效果优于原Fast RCNN,基本可以实现运动中肉牛形体部位识别。  相似文献   

14.
基于改进VGG-19卷积神经网络的冰鲜鲳鱼新鲜度评估方法   总被引:1,自引:1,他引:0  
保障冰鲜水产品的质量安全是提升水产行业供求效益的关键环节之一。传统的水产品新鲜度检测方法存在破坏样本、操作复杂、检测效率低等问题,冷链储运的发展急需一种快速、准确的鱼肉新鲜度检测技术。该研究以冰鲜鲳鱼为研究对象,提出基于计算机视觉的鲳鱼新鲜度评估方法,为鱼肉冷链储运系统智能化发展提供技术支持。首先,建立冰鲜鲳鱼新鲜度等级图像数据集。其次,针对数据集规模小的问题,结合迁移学习方法训练卷积神经网络CNN(Convolutional Neural Network)提高模型的泛化能力,并选择试验效果较优的VGG-19(Visual Geometry Group 19)为分类算法主模型。最后,针对VGG-19分类网络结构复杂的问题,优化全连接层数量及结构,该优化模型的鲳鱼新鲜度识别准确率可达99.79%,与优化全连接层前相比准确率提升了1.05个百分点,全连接层参数量降低了97%,占空间降低了443.9 MB,时间效率、空间效率也均有提升。此外,为进一步说明模型对鲳鱼新鲜度等级的判定依据,该研究利用类激活映射方法对鲳鱼新鲜度分级结果进行可视化,试验表明鲳鱼腹部特征是对新鲜度分级最有效的信息,研究结果为构建基于深度卷积神经网络的鱼肉新鲜度分级模型提供参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号