首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 187 毫秒
1.
蟹塘中不定期放置不同类型、不同大小的养殖装置影响无人作业船的自动巡航作业,为了提高无人作业船的工作效率和安全性,该研究提出一种改进YOLOv5s的轻量化蟹塘障碍物检测模型,并结合深度相机对蟹塘障碍物进行定位。改进模型从平衡检测速度和检测精度的角度出发,首先将ShuffleNetV2轻量化网络作为主干特征提取网络,大幅缩减模型体积;其次在不增加计算量的同时引入SENet注意力机制,加强对蟹塘障碍物目标的特征感知;接着将SPPF模块改进为SPPFCSPC模块,增强不同尺度下蟹塘障碍物的检测效果;最后采用SIoU损失函数加速模型收敛,提高检测的准确性。改进模型结合RealSense D435i深度相机获取的彩色图像对障碍物进行检测,并得到障碍物中心点在蟹塘坐标系下的三维坐标和障碍物的投影宽度。试验结果表明,改进模型对竹竿、蟹笼、增氧机3类障碍物具有良好的区分度和识别效果,与原始YOLOv5s模型相比,改进模型的参数量和计算量分别减小了62.8%和80.0%,模型大小仅为5.5 MB,单张图像的检测速度达15.2 ms,检测速度提升了44.5%,平均精度均值(mean average prec...  相似文献   

2.
针对目前在水下复杂环境中池塘养殖河蟹与饵料的检测算法存在检测精度低、速度慢等问题,该研究提出了基于改进YOLOv5s(you only look once version 5 small)的河蟹与饵料检测方法。首先,采用轻量化卷积Ghost替换普通卷积,同时利用GhostBottleneck结构替换原主干网络中的残差结构快速提取网络特征,减少模型计算量,满足安卓端的应用要求。其次,为了弥补因网络参数量减少造成网络检测精度稍有降低的问题,借鉴BiFPN(bidirectional feature pyramid network)的思想改进原始YOLOv5s的双向融合骨干网络,以较低的计算成本提高网络对小目标的检测精度。此外,为了帮助网络进一步更好地识别目标,加入了CA(coordinate attention)注意力机制,使得图像中感兴趣的区域能够更准确地被捕获。试验结果表明:该研究改进模型平均精度均值为96.9%,计算量为8.5GFLOPs,与当前主流的单阶段有锚框目标检测算法SSD(single shot multibox detector)和YOLOv3相比,具有更高的检测精度以及更少的计算量。相比于原始YOLOv5s模型,本文改进模型平均精度均值提高了2.2个百分点,计算量和模型内存都降低了40%以上。最后,将改进前后的模型部署到安卓设备上测试。测试结果表明:改进后模型的平均检测速度为148ms/帧,相较于原始模型检测速度提高了20.9%,并且保持了较好的检测效果,平衡了安卓设备对模型检测精度以及速度的性能需求,能够为河蟹养殖投饵量的精准确定提供参考。  相似文献   

3.
为了进一步提升油茶果壳籽分选效率,该研究采集油茶果脱壳后经过初步筛分的果壳与茶籽图像,构建壳籽分类图像数据集,以VGG16为基础网络,通过深度可分离卷积模块和全连接层神经元数目优选等方式缩小模型规模,采用跨层特征融合机制与引入指数线性单元(exponential linear units, ELU)激活函数优化网络结构,提出一种适用于油茶果壳籽分选的卷积神经网络模型。结果表明,跨层特征融合机制加强了深层网络特征的有效信息表达能力,相比于未融合时的模型精度得到了明显提升,并且三次跨层特征融合总体优于一次与二次融合方式。ELU激活函数加快了模型收敛速度,同时缓解了梯度爆炸,提高了模型鲁棒性。当全连接层神经元个数减少为128时模型得到进一步压缩,并且拟合程度较好。改进模型在油茶果壳籽图像分类上的验证集准确率为98.78%,模型的占存仅需8.41MB,与未改进的VGG16模型相比,准确率提高了0.84个百分点,模型占存减少了519.38MB,并且改进模型的性能相比于AlexNet、ResNet50与MobileNet_V2等其他网络更具优势,同时在测试试验中该模型分选准确率达到了98.28%,平均检测时间为85.06 ms,满足油茶果的壳籽在线快速分选要求。该研究提出的改进卷积神经网络模型具有较高的准确率与较强的泛化能力,可为深度学习运用于油茶果壳籽实时分选提供理论参考。  相似文献   

4.
基于红外热成像与改进YOLOV3的夜间野兔监测方法   总被引:7,自引:7,他引:0  
随生态改善,野兔数量增多,对农田与林地的危害日益加重。野兔活动多为夜间,目标小,运动速度快,且出现环境较复杂,监控兔害,需要一种高效智能化的方法。针对野兔活动习性,该文提出了使用红外热成像实时监控,结合改进的YOLOV3目标检测方法对夜间野兔进行检测。根据YOLOV3目标检测网络基本结构提出了一种针对红外图像中野兔的实时检测的网络(infrared rabbit detection YOLO,IR-YOLO),该网络特征提取部分压缩YOLOV3特征提取网络深度,利用浅层卷积层特征以提高低分辨率红外小目标检测精度,降低运算量,网络检测部分使用基于CenterNet结构的检测方式以提高检测速度。使用热成像野外实时采集的夜间野兔图像作为数据集,包括不同距离,尺度,出现环境不同的野兔共计6 000幅红外图像制作训练集与测试集,比例为5:1。试验结果表明,IR-YOLO在红外热成像视频中复杂环境下出现的野兔检测率达75%,平均检测速度51帧/s,相对改进前YOLOV3检测率提高15个百分点,相对改进前YOLOV3检测速度提高5帧/s。相比其他目标检测算法各项检测指标更为优良,检测率方面相对Faster-RCNN与RFCN-RESNET101分别提高45个百分点与20个百分点,检测速度方面相对Faster-RCNN与RFCN-RESNET101分别提高30和与45帧/s。该方法可高效快速地对夜间复杂环境下出现的野兔进行检测,也可广泛应用于夜间对其他类型农业害兽的检测。  相似文献   

5.
为提高金银花采摘机器人的工作效率和采摘精度,实现将模型方便快速部署到移动端,该研究提出一种基于改进YOLOv5s的轻量化金银花识别方法。用EfficientNet的主干网络替换YOLOv5s的Backbone层,并在改进之后的Backbone层加入原YOLOv5s的SPPF特征融合模块,减少了模型的参数量和计算量,同时降低模型权重的大小,便于之后移动端的部署;其次,为提高模型对于金银花的识别效果,该研究在Neck层中用CARAFE上采样模块替换原始模型中的上采样模块,在略微提高参数量的前提下提高了模型识别金银花的精确度和平均精度,提高了采摘效率。试验结果显示,改进后的轻量化模型参数量仅为3.89 × 106 M,为原始YOLOv5s模型的55.5%;计算量仅为7.8 GFLOPs,为原始模型的49.4%;权重仅为7.8 MB,为原始模型的57.4%,并且精确度和平均精度达到了90.7%和91.8%,相比原始YOLOv5s模型分别提高1.9和0.6个百分点。改进后的轻量化模型与当前主流的Faster-RCNN、SSD、YOLO系列目标检测模型相比,不但提高了检测精度,还大幅减少了模型的参数量、计算量和权重大小,研究结果为后续金银花采摘机器人的识别和移动端的部署提供了参考和依据。  相似文献   

6.
小白菜是中国种植面积较广、深受大众喜爱的蔬菜,但真实菜地环境中虫害往往出现在叶片的特定区域,且受环境因素如光照和背景干扰较大,影响对其的智能检测。为提高小白菜虫害的检测效率和准确率,该研究提出一种基于YOLOv5s网络框架改进的YOLOPC小白菜虫害识别模型。首先,引入CBAM(Convolutional Block Attention Module)注意力机制,将其放在CBS(卷积层Convolution+归一化层Batch normalization+激活函数层SILU)的输入端构成CBAM-CBS的结构,动态调整特征图中各个通道和空间位置的权重;使用上采样和1×1卷积操作来调整特征图的尺寸和通道数,实现不同层次特征的融合,增强模型的特征表示能力。同时,改进损失函数,使其更适合边界框回归的准确性需求;利用空洞卷积的优势提高网络的感受野范围,使模型能够更好地理解图像的上下文信息。试验结果表明,与改进前的YOLOv5s模型相比,YOLOPC模型对小白菜小菜蛾和潜叶蝇虫害检测的平均精度(mean Average Precision, mAP)达到91.40%,提高了12.9个百分点;每秒传输帧数(Frame Per Second, FPS)为58.82帧/s,增加了11.2帧/s,增加幅度达23.53个百分点;参数量仅为14.4 MB,降低了25.78个百分点。与经典的目标检测算法SSD、Faster R-CNN、YOLOv3、YOLOv7和YOLOv8相比,YOLOPC模型的平均精度分别高出20.1、24.6、14、13.4和13.3个百分点,此外,其准确率、召回率、帧速率和参数量均展现出显著优势。该模型可为复杂背景下小白菜虫害的快速准确检测提供技术支持。  相似文献   

7.
为了解决因梭梭和红柳等宿主遮挡、样本分布密集、样本大小不均衡等造成人工种植肉苁蓉检测精度低以及模型参数量过大难以向嵌入式设备移植等问题,该研究提出一种基于改进YOLOv5s的人工种植肉苁蓉轻量化检测方法。首先,将YOLOv5s的主干网络替换为EfficientNetv2网络,以减少模型参数量和计算复杂度进而实现模型轻量化,便于后期将模型向嵌入式设备部署;其次,为了增强模型对小目标肉苁蓉特征信息的提取能力,将C3模块与Swin Transformer Block进行整合,得到C3STR模块,将其引入主干网络,并将其输出的特征图与Neck网络中的特征图进行融合;最后,在检测头前端与颈项加强网络之间添加CA注意力机制,以弱化背景信息、聚焦目标特征,提高网络检测性能。试验结果表明,该模型对于肉苁蓉的检测精度和准确率分别为89.8%和92.3%,模型的参数量和计算量分别为5.69×106 MB和6.8 GB,权重文件大小为11.9 MB,单幅图像推理时间为8.9 ms,能够实现实时性检测。同其他主流模型相比,改进后的模型的检测精度分别比SSD、Faster R-CNN、YO...  相似文献   

8.
基于叶绿素荧光成像技术的番茄苗热害胁迫智能识别方法   总被引:1,自引:1,他引:0  
为实现作物热害胁迫状态快速、无损和智能化识别,该研究设计了一套叶绿素荧光图像采集装置,并提出一种基于叶绿素荧光成像技术的番茄苗热害胁迫智能识别方法。以不同热害阶段下的番茄苗叶片作为研究对象,通过搭建的叶绿素荧光图像采集设备获取具有单一背景的叶片原始荧光图像,将获取的12组荧光参数值结合Spearman等级相关性分析得到相关性最高的非调节性能量耗散的量子产量Y(NO),对其进行图像预处理后构建番茄苗叶片热害图像数据集。对AlexNet模型进行改进,引入批量归一化(Batch Normalization,BN)方法加快模型的收敛速度,选择Mish激活函数提高模型的表达能力,同时使用全局平均池化层(Golbal Average Pooling,GAP)替换全连接层和深度可分离卷积替换传统卷积的方法减少模型参数量,以提升模型运行速度,通过Adam优化算法更新梯度。研究结果表明,改进AlexNet模型性能最优,平均识别精度达98.8%,平均测试耗时为11.6 ms,模型权重空间仅为1.13 MB。相比未改进AlexNet模型,平均测试耗时下降23.2%,模型权重空间下降99.5%。该研究为番茄苗早期热害胁迫检测和胁迫等级划分提供了一种方法,也为其他作物夏季热害监测和防控提供技术参考。  相似文献   

9.
深度估计是智能农机视觉系统实现三维场景重建和目标定位的关键。该文提出一种基于自监督学习的番茄植株图像深度估计网络模型,该模型直接应用双目图像作为输入来估计每个像素的深度。设计了3种面向通道分组卷积模块,并利用其构建卷积自编码器作为深度估计网络的主体结构。针对手工特征衡量2幅图像相似度不足的问题,引入卷积特征近似性损失作为损失函数的组成部分。结果表明:基于分组卷积模块的卷积自编码器能够有效提高深度估计网络的视差图精度;卷积特征近似性损失函数对提高番茄植株图像深度估计的精度具有显著作用,精度随着参与损失函数计算的卷积模块层数的增加而升高,但超过4层后,其对精度的进一步提升作用不再明显;当双目图像采样距离在9.0 m以内时,该文方法所估计的棋盘格角点距离均方根误差和平均绝对误差分别小于2.5和1.8 cm,在3.0 m以内时,则分别小于0.7和0.5 cm,模型计算速度为28.0帧/s,与已有研究相比,2种误差分别降低了33.1%和35.6%,计算速度提高了52.2%。该研究可为智能农机视觉系统设计提供参考。  相似文献   

10.
针对实际复杂田间环境下杂草与作物识别精度低和实时性差的问题,为减少弱光环境对分割识别效果的影响,实现甜菜与杂草的实时精确分割识别,该文首先将可见光图像进行对比度增强,再将近红外与可见光图像融合为4通道图像;将深度可分离卷积以及残差块构成分割识别模型的卷积层,减少模型参数量及计算量,构建编码与解码结构并融合底层特征,细化分割边界。以分割识别精度、参数量以及运行效率为评价指标,通过设置不同宽度系数以及输入图像分辨率选出最优模型。试验结果表明:本文模型的平均交并比达到87.58%,平均像素准确率为99.19%,帧频可达42.064帧/s,参数量仅为525 763,具有较高分割识别精度和较好实时性。该方法有效实现了甜菜与杂草的精确实时识别,可为后续机器人精确除草提供理论参考。  相似文献   

11.
采用改进的SqueezeNet模型识别多类叶片病害   总被引:3,自引:3,他引:0  
为实现作物叶片病害的准确识别,该研究以PlantVillage工程开源数据库中14种作物38类叶片为研究对象,从网络规模小型化和计算过程轻量化需求的角度出发,对经典轻量级卷积神经网络SqueezeNet提出改进措施,包括修改最后一层卷积层的输出、删除经典模型中的后3个fire模块并修改fire模块5的参数、调节fire...  相似文献   

12.
基于改进FCN-8s的灵武长枣图像分割方法   总被引:4,自引:4,他引:0  
针对不同成熟度灵武长枣图像中多尺度长枣目标的分割问题,该研究提出了一种基于改进FCN-8s的灵武长枣图像分割方法。首先,建立包含不同成熟度灵武长枣图像的数据集。其次,提出一个多尺度特征提取模块,该模块以3×3卷积为主分支,增加1×1卷积和5×5深度可分离卷积作为辅助分支,以提取灵武长枣图像中的多尺度特征。然后,用多尺度特征提取模块替换FCN-8s中的3×3卷积,又对FCN-8s网络结构做了一定的改进,得到了改进FCN-8s。最后,在灵武长枣数据集上进行试验,结果表明,改进FCN-8s的枣类交并比、平均交并比、像素准确率、召回率和像素准确率、召回率的调和平均值F1分数分别达到了93.50%、96.41%、98.44%、97.86%和98.15%,比原FCN-8s的各项评价指标分别高出了11.31、6.20、1.51、5.21和3.14个百分点。网络参数量为5.37×106,分割速度为16.20帧/s。改进FCN-8s满足了灵武长枣智能化采摘机器人对视觉识别系统的要求,为实现灵武长枣的智能化采摘提供了技术支持。  相似文献   

13.
基于改进的轻量化卷积神经网络火龙果检测方法   总被引:2,自引:2,他引:0  
在自然环境下对火龙果进行实时检测是实现火龙果自动化采摘的必要条件之一。该研究提出了一种轻量级卷积神经网络YOLOv4- LITE火龙果检测方法。YOLOv4集成了多种优化策略,YOLOv4的检测准确率比传统的YOLOv3高出10%。但是YOLOv4的骨干网络复杂,计算量大,模型体积较大,不适合部署在嵌入式设备中进行实时检测。将YOLOv4的骨干网络CSPDarknet-53替换为MobileNet-v3,MobileNet-v3提取特征可以显著提高YOLOv4的检测速度。为了提高小目标的检测精度,分别设置在网络第39层以及第46层进行上采样特征融合。使用2 513张不同遮挡环境下的火龙果图像作为数据集进行训练测试,试验结果表明,该研究提出的轻量级YOLOv4-LITE模型 Average Precision(AP)值为96.48%,F1值为95%,平均交并比为81.09%,模型大小仅为2.7 MB。同时对比分析不同骨干网络,MobileNet-v3检测速度大幅度提升,比YOLOv4的原CSPDarknet-53平均检测时间减少了132.33 ms。YOLOv4-LITE在GPU上检测一幅1 200×900的图像只需要2.28 ms,可以在自然环境下实时检测,具有较强的鲁棒性。相比现有的目标检测算法,YOLOv4-LITE的检测速度是SSD-300的9.5倍,是Faster-RCNN的14.3倍。进一步分析了多尺度预测对模型性能的影响,利用4个不同尺度特征图融合预测,相比YOLOv4-LITE平均检测精度提高了0.81%,但是平均检测时间增加了10.33 ms,模型大小增加了7.4 MB。因此,增加多尺度预测虽然提高了检测精度,但是检测时间也随之增加。总体结果表明,该研究提出的轻量级YOLOv4-LITE在检测速度、检测精度和模型大小方面具有显著优势,可应用于自然环境下火龙果检测。  相似文献   

14.
基于Transformer的强泛化苹果叶片病害识别模型   总被引:2,自引:2,他引:0  
模型泛化能力是病害识别模型多场景应用的关键,该研究针对不同环境下的苹果叶片病害数据,提出一种可以提取多类型特征的强泛化苹果叶片病害识别模型CaTNet。该模型采用双分支结构,首先设计了一种卷积神经网络分支,负责提取苹果叶片图像的局部特征,其次构建了具有挤压和扩充功能的视觉Transformer分支,该分支能够提取苹果叶片图像的全局特征,最后将两种特征进行融合,使Transformer分支可以学习局部特征,使卷积神经网络分支学习全局特征。与多种卷积神经网络模型和Transformer模型相比,该模型具有更好的泛化能力,仅需学习实验室环境叶片数据,即可在自然环境数据下达到80%的识别精度,相较卷积神经网络EfficientNetV2提升7.21个百分点,相较Transformer网络PVT提升26.63个百分点,能够有效提升对不同环境数据的识别精度,解决了深度学习模型训练成本高,泛化能力弱的问题。  相似文献   

15.
改进SSD的灵武长枣图像轻量化目标检测方法   总被引:2,自引:2,他引:0  
针对加载预训练模型的传统SSD(Single Shot MultiBox Detector)模型不能更改网络结构,设备内存资源有限时便无法使用的问题,该研究提出一种不使用预训练模型也能达到较高检测精度的灵武长枣图像轻量化目标检测方法。首先,建立灵武长枣目标检测数据集。其次,以提出的改进DenseNet网络为主干网络,并将Inception模块替换SSD模型中的前3个额外层,同时结合多级融合结构,得到改进SSD模型。然后,通过对比试验证明改进DenseNet网络和改进SSD模型的有效性。在灵武长枣数据集上的试验结果表明,不加载预训练模型的情况下,改进SSD模型的平均准确率(mAP,mean Average Precision)为96.60%,检测速度为28.05帧/s,参数量为1.99×106,比SSD模型和SSD模型(预训练)的mAP分别高出2.02个百分点和0.05个百分点,网络结构参数量比SSD模型少11.14×106,满足轻量化网络的要求。即使在不加载预训练模型的情况下,改进SSD模型也能够很好地完成灵武长枣图像的目标检测任务,研究结果也可为其他无法加载预训练模型的目标检测任务提供新方法和新思路。  相似文献   

16.
为提高自然环境下生姜叶片病虫害的识别精确率,提出一种基于改进YOLOv5s的生姜叶片病虫害识别模型。建立了田间不同自然环境条件下的生姜叶片病虫害数据集,为保证模型在田间移动设备上流畅运行,实现网络模型的轻量化,在YOLOv5s中引入GhostNet网络中的Ghost模块和Ghost BottleNeck结构。同时,为避免生姜叶片病虫害图像小目标特征丢失的情况,增强图像特征提取,加入CA注意力机制模块,提升生姜叶片病虫害的识别准确率和定位精确度。改进后的模型参数量、计算量和权重文件大小分别为YOLOv5s模型的52.0%、50.6%和55.2%,对生姜叶片病虫害识别平均精度均值达到了83.8%。与Faster-RCNN、SSD、YOLOv4、YOLOv5s、Tea-YOLOv5s等算法相比,平均精度均值分别提高37.6、39.1、22.5、1.5、0.7个百分点,将改进后的目标检测模型部署在Jetson Orin NX开发板上,并使用TensorRT、Int8量化和CUDA等方法对检测模型加速,加速后的模型检测速度为74.3帧/s,满足实时检测的要求,测试结果显示,改进后的模型减少了漏检、误检的情况,并且对目标定位更加精准,适用于自然环境下生姜叶片病虫害的精准识别,为后续生姜机械自动化施药作业提供技术理论支持。  相似文献   

17.
融合轻量化网络与注意力机制的果园环境下苹果检测方法   总被引:1,自引:1,他引:0  
为提高复杂果园环境下苹果检测的综合性能,降低检测模型大小,通过对单阶段检测网络YOLOX-Tiny的拓扑结构进行了优化与改进,提出了一种适用于复杂果园环境下轻量化苹果检测模型(Lightweight Apple Detection YOLOX-Tiny Network,Lad-YXNet)。该模型引入高效通道注意力(Efficient Channel Attention,ECA)和混洗注意力(Shuffle Attention,SA)两种轻量化视觉注意力模块,构建了混洗注意力与双卷积层(Shuffle Attention and Double Convolution Layer,SDCLayer)模块,提高了检测模型对背景与果实特征的提取能力,并通过测试确定Swish与带泄露修正线性单元(Leaky Rectified Linear Unit,Leaky-ReLU)作为主干与特征融合网络的激活函数。通过消融试验探究了Mosaic增强方法对模型训练的有效性,结果表明图像长宽随机扭曲对提高模型综合检测性能贡献较高,但图像随机色域变换由于改变训练集中苹果的颜色,使模型检测综合性能下降。为提高模型检测苹果的可解释性,采用特征可视化技术提取了Lad-YXNet模型的主干、特征融合网络和检测网络的主要特征图,探究了Lad-YXNet模型在复杂自然环境下检测苹果的过程。Lad-YXNet经过训练在测试集下的平均精度为94.88%,分别比SSD、YOLOV4-Tiny、YOLOV5-Lite和YOLOX-Tiny模型提高了3.10个百分点、2.02个百分点、2.00个百分点和0.51个百分点。Lad-YXNet检测一幅图像的时间为10.06 ms,模型大小为16.6 MB,分别比YOLOX-Tiny减少了20.03%与18.23%。该研究为苹果收获机器人在复杂果园环境下准确、快速地检测苹果提供了理论基础。  相似文献   

18.
基于改进型YOLOv4-LITE轻量级神经网络的密集圣女果识别   总被引:9,自引:9,他引:0  
对密集圣女果遮挡、粘连等情况下的果实进行快速识别定位,是提高设施农业环境下圣女果采摘机器人工作效率和产量预测的关键技术之一,该研究提出了一种基于改进YOLOv4-LITE轻量级神经网络的圣女果识别定位方法。为便于迁移到移动终端,该方法使用MobileNet-v3作为模型的特征提取网络构建YOLOv4-LITE网络,以提高圣女果果实目标检测速度;为避免替换骨干网络降低检测精度,通过修改特征金字塔网络(Feature Pyramid Networks,FPN)+路径聚合网络(Path Aggregation Network,PANet)的结构,引入有利于小目标检测的104×104尺度特征层,实现细粒度检测,在PANet结构中使用深度可分离卷积代替普通卷积降低模型运算量,使网络更加轻量化;并通过载入预训练权重和冻结部分层训练方式提高模型的泛化能力。通过与YOLOv4在相同遮挡或粘连程度的测试集上的识别效果进行对比,用调和均值、平均精度、准确率评价模型之间的差异。试验结果表明:在重叠度为0.50时所提出的密集圣女果识别模型在全部测试集上调和均值、平均精度和准确率分别为0.99、99.74%和99.15%,同比YOLOv4分别提升了0.15、8.29、6.55个百分点,权重大小为45.3 MB,约为YOLOv4的1/5,对单幅416×416(像素)图像的检测,在图形处理器(Graphics Processing Unit,GPU)上速度可达3.01 ms/张。因此,该研究提出的密集圣女果识别模型具有识别速度快、识别准确率高、轻量化等特点,可为设施农业环境下圣女果采摘机器人高效工作以及圣女果产量预测提供有力的保障。  相似文献   

19.
融合高光谱图像技术与MS-3DCNN的小麦种子品种识别模型   总被引:2,自引:2,他引:0  
小麦品种的纯度和小麦产量密切相关,为了实现小麦种子品种的快速识别,该研究利用高光谱图像技术结合多尺度三维卷积神经网络(Multi-Scale 3D Convolutional Neural Network,MS-3DCNN)提出了一种小麦种子的品种识别模型。首先,利用连续投影算法(Successive Projections Algorithm,SPA)对原始高光谱图像进行波段选择,以减少MS-3DCNN模型的输入图像通道数量,降低网络训练参数规模;其次,利用多尺度三维卷积模块提取特征图的图像特征和不同特征图之间的耦合特征;最后,以6个品种小麦共6 000粒种子的高光谱图像(400~1 000 nm)为研究对象,基于SPA算法选择了22个波段高光谱数据,利用MS-3DCNN、支持向量机(Support Vector Machine,SVM)分别构建了识别模型。试验结果表明,MS-3DCNN模型取得了96.72%的测试集识别准确率,相较于光谱特征SVM识别模型和融合特征SVM识别模型分别提高了15.38%和9.50%。进一步比较了MS-3DCNN与基于二维卷积核、三维卷积核、多尺度二维卷积核构建的多个识别模型性能,结果表明多尺度三维卷积核能提取多种尺度的信息,其识别模型的准确率提高了1.34%~2.70%,可为小麦种子高光谱图像品种识别提供一种可行的技术途径。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号