首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 62 毫秒
1.
基于改进DenseNet的田间杂草识别   总被引:3,自引:3,他引:0  
精确、快速地获取作物和杂草的类别信息是实现自动化除草作业的重要前提。为解决复杂环境下农作物田间杂草种类的高效准确识别问题,该研究提出一种基于改进DenseNet的杂草识别模型。首先,在DenseNet-121网络的基础上,通过在每个卷积层后引入ECA(Efficient Channel Attention)注意力机制,增加重要特征的权重,强化杂草特征并抑制背景特征;其次,通过DropBlock正则化随机隐藏杂草图像部分特征块,以提升模型的泛化能力,增强模型识别不同类型杂草的适应性;最后,以自然环境下玉米幼苗和6类伴生杂草作为样本,在相同试验条件下与VGG-16、ResNet-50和未改进的DenseNet-121模型进行对比试验。结果表明,改进的DenseNet模型性能最优,模型大小为26.55 MB,单张图像耗时0.23 s,平均识别准确率达到98.63%,较改进前模型的平均识别准确率提高了2.09%,且综合性能显著高于VGG-16、ResNet-50模型;同时,通过采用CAM(Class Activation Mapping)可视化热度图方法分析,得出改进前后模型的类别判断概率分别为0.68和0.98,本文模型明显高于未改进模型,进一步验证了改进模型的有效性。该模型能够很好地解决复杂环境下农作物和杂草的种类精准识别问题,为智能除草机器人开发奠定了坚实的技术基础。  相似文献   

2.
基于移位窗口Transformer网络的玉米田间场景下杂草识别   总被引:2,自引:2,他引:0  
针对实际复杂田间场景中作物与杂草识别准确性与实时性差,易受交叠遮挡影响,像素级数据标注难以大量获取等问题,该研究提出基于移位窗口Transformer网络(Shifted Window Transformer,Swin Transformer)的高效识别方法,在实现作物语义分割的基础上快速分割杂草。首先建立玉米语义分割模型,引入Swin Transformer主干并采用统一感知解析网络作为其高效语义分割框架;改进Swin Transformer主干调整网络参数,生成4种改进模型,通过精度与速度的综合对比分析确定最佳模型结构;基于玉米形态分割,建立改进的图像形态学处理组合算法,实时识别并分割全部杂草区域。测试结果表明,该研究4种改进模型中,Swin-Tiny-UN达到最佳精度-速度平衡,平均交并比为94.83%、平均像素准确率为97.18%,推理速度为18.94帧/s。对于模拟实际应用的视频数据,平均正确检测率为95.04%,平均每帧检测时间为5.51′10-2 s。该方法有效实现了玉米与杂草的实时准确识别与精细分割,可为智能除草装备的研发提供理论参考。  相似文献   

3.
为实现复杂田间场景中幼苗期玉米和杂草的准确识别与区域划分,该研究提出改进的双注意力语义分割方法,通过获取形态边界实现玉米幼苗的识别与精细分割,在此基础上采用形态学处理方法识别图像中除玉米外的全部杂草区域.首先对6种当前最高性能的语义分割网络进行对比,确定模型原始架构;建立幼苗期玉米语义分割模型,包括改进深层主干网络增强...  相似文献   

4.
基于光谱特性分析的冬油菜苗期田间杂草识别   总被引:3,自引:3,他引:0  
杂草识别是自动除草的关键环节,运用光谱分析技术可以快速识别杂草。该文以冬油菜苗、冬油菜苗期杂草和土壤为研究对象,通过ASD便携式光谱分析仪采集光谱数据。对每个样本连续采集5组数据,经平均、一阶导数、压缩等预处理后,得到368组波长在400~2300 nm范围内的光谱数据。采用逐步判别分析法,按统计量Wilks’ Lambda最小值原则选择变量,选取了710、755、950和595 nm共4个特征波长。运用4个特征波长分别建立了典型判别函数模型和贝叶斯判别函数模型。用这2组模型分别对预测集进行预测,典型判别函数模型的正确识别率为97.78%,在不同的先验概率下贝叶斯判别函数模型的正确识别率分别为98.89%和97.78%。结果表明:当先验概率根据类别大小计算时,以特征波长建立的贝叶斯判别函数模型能较好的识别冬油菜苗期田间杂草,而且模型稳定。该研究结果可为杂草探测光谱传感器的开发提供参考。  相似文献   

5.
基于机器视觉的田间杂草识别技术研究进展   总被引:7,自引:2,他引:7  
田间杂草识别技术是实现变量喷洒除草剂以保护环境的关键所在。针对国内外在精细农业的杂草识别领域,全面、系统地分析了基于机器视觉的田间杂草识别技术的研究进展与应用状况,以促进该项技术在中国的应用和发展。分别阐述了利用植物和背景形状特征、纹理特征、颜色特征和多光谱特征识别田间杂草技术的理论依据、特征参数、研究状况和问题所在,并指出了实现田间实时识别的难点。  相似文献   

6.
减少化学产品(化肥、农药等)的用量,是精确农业的主要目标之一。人们力图通过图像分析,测量田间一些地块的杂草和作物的比例并确定杂草的位置,但是在彩色图像里,作物叶子和杂草叶子的交叉给计算机区分它们带来了困难。文中针对两种不同情况,提出了两种不同的识别方法。一种方法是针对没有作物叶子和杂草叶子交叉的情况,另一种方法是针对有某些交叉的情况提出的。前一种方法计算时间短,后一种方法需要大量计算。还提出在图像分割过程中,用不同特征法和两步法进行区域合并的模式,其不同特征包括:区域像素各颜色成分的平均值,区域边界的比值和区域的形状。  相似文献   

7.
针对传统Alex Net模型参数大、特征尺度单一的问题,该文提出一种空洞卷积与全局池化相结合的多尺度特征融合卷积神经网络识别模型。通过对初始卷积层的卷积核进行膨胀,以增大其感受野而不改变参数计算量,并采用全局池化代替传统的全连接层来减少模型的参数。通过设置不同膨胀系数的初始卷积层卷积核与全局池化层类型,以及设置不同Batch Size,得到8种改进模型,用于训练识别共12种农作物幼苗与杂草,并从建立的模型中选出最优模型。改进后的最优模型与传统Alex Net模型相比,仅经过4次训练迭代,就能达到90%以上的识别准确率,平均测试识别准确率达到98.80%,分类成功指数达到96.84%,模型内存需求减少为4.20 MB。实际田间预测野芥与雀麦幼苗的准确率都能达到75%左右,说明该文最优模型对正常情况下的幼苗识别性能较好,但对复杂黑暗背景下的甜菜幼苗准确率为60%,对恶劣背景下的识别性能还有待提升。由于模型使用了更宽的网络结构,增加了特征图的多尺度融合,保持对输入空间变换的不变性,故对正常情况下不同作物幼苗与杂草的识别能力较强。该文改进模型能达到较高的平均识别准确率及分类成功率,可为后续深入探索复杂田间背景下的杂草识别以及杂草与幼苗识别装置的研制打下基础。  相似文献   

8.
用彩色图像识别田间洋葱和杂草的研究   总被引:2,自引:2,他引:0  
减少化学产品(化肥、农药等)的用量,是精确农业的主要目标之一。人们力图通过图像分析,测量田间一些地块的杂草和作物的比例并确定杂草的位置,但是在彩色图像里,作物叶子和杂草叶子的交叉给计算机区分它们带来了困难。文中针对两种不同情况,提出了两种不同的识别方法。一种方法是针对没有作物叶子和杂草叶子交叉的情况,另一种方法是针对有某些交叉的情况提出的。前一种方法计算时间短,后一种方法需要大量计算。还提出在图像分割过程中,用不同特征法和两步法进行区域合并的模式,其不同特征包括:区域像素各颜色成分的平均值,区域边界的比值和区域的形状。  相似文献   

9.
利用计算机图像处理技术分析了玉米苗期田间杂草的特征量,识别出田间杂草并确定了杂草的位置和生长状况。研究中采用双峰法滤除了土壤背景,根据投影面积、叶长、叶宽识别出了杂草,并且根据杂草投影面积确定出了杂草密度。实验结果表明,此方法可有效地识别出玉米苗期田间细长的单子叶杂草。  相似文献   

10.
鸭蛋裂纹检测技术对于禽蛋加工工厂实现智能化蛋品检测、分级具有重要意义。该研究针对鸭蛋裂纹检测流程复杂、计算量大、模型尺寸大等问题,提出了一种基于改进YOLOv5l(you only look once version5 large)的轻量裂纹检测算法,通过在黑暗条件下使用LED灯照射鸭蛋,根据裂纹蛋壳与完好蛋壳透光性不同产生的图像差异进行检测。通过在YOLOv5中引入Ghost_conv模块,大大减少了模型的浮点计算量和参数量,并在模型的骨干网络中加入ECA(efficient channel attention)注意力机制以及使用多尺度特征融合方法 BIFPN(bi-directional feature pyramid network),增加模型对有效信息的关注度,以提高算法检测精度。同时使用CIoU与α-IoU损失函数融合后替代YOLOv5原始GIoU函数加速回归预测。利用自建的鸭蛋裂纹数据集验证改进后模型的性能,结果表明,本研究提出的改进YOLOv5l网络模型检测精准率为93.8%,与原始YOLOv5l模型相比,检测精度提高了6.3个百分点,参数量和浮点计算量分别减少了30.6...  相似文献   

11.
基于颜色特征的棉田绿色杂草图像识别方法   总被引:9,自引:5,他引:4  
为实现棉田精确喷洒除草剂的自动化作业,该文基于颜色特征开展棉田中绿色杂草与棉苗的自动识别研究。利用苗期棉花茎秆呈暗红色的特点,首先使用Otsu法对所获图像的超红特征灰度图像和超绿特征灰度图像进行动态阈值分割,分别获取棉苗茎秆和绿色植物的二值图像。然后从棉苗茎秆二值图像中提取棉苗茎秆坐标,将棉苗茎秆与绿色植物二值图像进行位置信息融合,确定绿色植物二值图像中的棉苗区域,从而识别出各个绿色杂草区域并确定其区域质心和面积。通过15幅棉田绿色杂草图像进行试验表明,在棉苗茎秆不被叶片遮挡以及棉苗和杂草间不出现重叠的情况下,绿色杂草可以完全识别,棉苗的识别率可达到74%以上。  相似文献   

12.
奶牛站立、喝水、行走、躺卧等日常行为与其生理健康密切相关,高效准确识别奶牛行为对及时掌握奶牛健康状况,提高养殖场经济效益具有重要意义。针对群体养殖环境下奶牛行为数据中,场景复杂、目标尺度变化大、奶牛行为多样等对行为识别造成的干扰,该研究提出一种改进YOLOV5s奶牛多尺度行为识别方法。该方法在骨干网络顶层引入基于通道的Transformer注意力机制使模型关注奶牛目标区域,同时对奶牛多尺度行为目标增加路径聚合结构的支路与检测器获取底层细节特征,并引入SE(Squeeze-and-Excitation Networks)注意力机制优化检测器,构建SEPH(SE Prediction Head)识别重要特征,提高奶牛多尺度行为识别能力。试验验证改进后的奶牛行为识别模型在无权重激增的同时,多尺度目标识别结果的平均精度均值较YOLOV5s提高1.2个百分点,尤其是对奶牛行走识别结果的平均精度4.9个百分点,研究结果为群体养殖环境下,全天实时监测奶牛行为提供参考。  相似文献   

13.
基于改进YOLOv7的复杂环境下红花采摘识别   总被引:1,自引:2,他引:1  
针对光照、遮挡、密集以及样本数量不均衡等复杂环境造成红花机械化采摘识别不准问题,提出一种基于YOLOv7的改进模型,制作红花样本数据集建立真实采摘的复杂环境数据,增加Swin Transformer注意力机制提高模型对各分类样本的检测精准率,改进Focal Loss损失函数提升多分类任务下不均衡样本的识别率。经试验,改进后的模型各类别样本的检测平均准确率(mAP)达到88.5%,与改进前相比提高了7个百分点,不均衡类别样本平均精度(AP)提高了15.9个百分点,与其他模型相比,检测平均准确率与检测速度均大幅提升。结果表明改进后的模型可以准确地实现对红花的检测,模型参数量小识别速度快,适合在红花采摘机械上进行迁移部署,可为机械化实时采摘研究提供技术支持。  相似文献   

14.
基于改进YOLOv4-Tiny的蓝莓成熟度识别方法   总被引:1,自引:2,他引:1  
为实现自然环境下蓝莓果实成熟度的精确快速识别,该研究对YOLOv4-Tiny网络结构进行改进,提出一种含有注意力模块的目标检测网络(I-YOLOv4-Tiny)。该检测网络采用CSPDarknet53-Tiny网络模型作为主干网络,将卷积注意力模块(Convolution Block Attention Module,CBAM)加入到YOLOv4-Tiny网络结构的特征金字塔(Feature Pyramid Network,FPN)中,通过对每个通道的特征进行权重分配来学习不同通道间特征的相关性,加强网络结构深层信息的传递,从而降低复杂背景对目标识别的干扰,且该检测网络的网络层数较少,占用内存低,以此提升蓝莓果实检测的精度与速度。对该研究识别方法进行性能评估与对比试验的结果表明,经过训练的I-YOLOv4-Tiny目标检测网络在验证集下的平均精度达到97.30%,能有效地利用自然环境中的彩色图像识别蓝莓果实并检测果实成熟度。对比YOLOv4-Tiny、YOLOv4、SSD-MobileNet、Faster R-CNN目标检测网络,该研究在遮挡与光照不均等复杂场景中,平均精度能达到96.24%。平均检测时间为5.723 ms,可以同时满足蓝莓果实识别精度与速度的需求。I-YOLOv4-Tiny网络结构占用内存仅为24.20 M,为采摘机器人与早期产量预估提供快速精准的目标识别指导。  相似文献   

15.
融合FPN的Faster R-CNN复杂背景下棉田杂草高效识别方法   总被引:2,自引:5,他引:2  
为实现田间条件下快速、准确识别棉花与杂草,该文以自然光照下田间棉花与杂草为研究对象,采用垂直向下拍摄的方式获取棉花杂草视频,按1帧/s的速率从视频中提取图像,在人工去除冗余度过多的图片后,建立1 000幅图片的数据集。对比了Faster R-CNN和YOLOv3 2种典型卷积神经网络,将Faster R-CNN卷积神经网络的深度学习模型引入到棉花杂草图像识别中,并提出一种结构优化的方法,使之适用于复杂背景下的棉田杂草识别。该文选用残差卷积网络提取图像特征,Max-pooling 为下采样方法,RPN网络中引入特征金字塔网络生成目标候选框,对卷积神经网络结构进行优化。在使用700幅图片进行训练后,通过200 幅田间棉花杂草图像识别测试,结果表明:该方法的平均目标识别准确率达95.5%,识别单幅图像的平均耗时为1.51 s,采用GPU 硬件加速后识别单幅图像的平均耗时缩短为0.09 s。优化后的Faster R-CNN卷积神经网络相对于YOLOv3平均正确率MAP高0.3以上。特别是对于小目标对象,其平均正确率之差接近0.6。所提方法对复杂背景下棉花杂草有较好的检测效果,可为精确除草提供参考。  相似文献   

16.
基于多路卷积神经网络的大田小麦赤霉病图像识别   总被引:8,自引:7,他引:1  
为了准确地识别小麦病害,及时采取防治措施,减少农药施用的成本,同时减少农业生态环境的污染,该研究以灌浆期感染赤霉病的小麦麦穗图像为研究对象,根据病变区域与健康区域的颜色分布特点,设计了一种多路卷积神经网络用于小麦赤霉病图像的识别。首先利用深度语义分割网络U-Net对大田环境下的小麦图像进行分割,去除小麦叶片及其他无关背景的影响,从而分割出麦穗图像。然后设计结构较为简单的多路卷积神经网络分别提取麦穗图像R、G、B 3个通道的特征,通过特征融合获得具有高辨识性的麦穗图像语义特征。最后,为了增大赤霉病和健康麦穗图像特征之间的可区分性,同时减小赤霉病麦穗图像类内特征的差异,采用联合损失函数进一步改善网络的性能。该研究对采集的大田环境下的510幅灌浆期小麦群体图像进行分割,选取2 745幅完整单株麦穗图像利用所设计的多路卷积神经网络进行赤霉病识别试验,结果表明该研究所提算法对单株麦穗赤霉病识别精度达到100%,能够为小麦病害的智能识别提供帮助。  相似文献   

17.
杂草作为一种常见的农业问题,对农作物的生长造成比较严重的影响,控制和管理杂草是农业生产活动中的重要一环。近年来,随着无人机技术和人工智能技术的快速发展,基于无人机平台的特定区域杂草管理是目前除草作业的主流研究,而精确高效地对田间杂草进行识别和检测是实现自动化杂草管理的重要前提。但高效的识别模型往往意味着大量的农业数据。为了降低对农业标签数据的依赖性,该研究提出了一种UANP-MT (uncertainty aware and network perturbed mean teacher)的半监督语义分割网络。该模型基于PSPNet结构与MT (mean teacher)的思想,首先通过对教师网络做扩增输出,令该部分做出若干次推理并取其均值,以此来保证网络预测的鲁棒性,其次在网络的一致性学习部分构建不确定性系数来约束不同网络间的输出差异,提高预测的置信度和可靠性,从而提高模型的识别准确度。为了验证所提出的模型的有效性,设计消融试验,包括对网络参数的取值设置,特征提取网络backbone的选取,以及在不同数据量的数据集下对模型进行性能测试,试验过程中确定了模型的一些最佳的参数设置。结果表明...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号