首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 203 毫秒
1.
针对实际稻田环境中水稻与杂草相互遮挡、难以准确区分的问题,提出一种基于改进DeepLabv3+的水稻杂草识别方法。以无人机航拍的复杂背景下稻田杂草图像为研究对象,在DeepLabv3+模型的基础上,选择轻量级网络MobileNetv2作为主干特征提取网络,以减少模型参数量和降低计算复杂度;融合通道和空间双域注意力机制模块,加强模型对重要特征的关注;提出一种基于密集采样的多分支感受野级联融合结构对空洞空间金字塔池化模块(ASPP)进行改进,扩大对全局和局部元素特征的采样范围;对模型解码器部分进行改进。设置消融试验验证改进方法的有效性,并与改进前DeepLabv3+、UNet、PSPNet、HrNet模型进行对比试验。试验结果表明,改进后模型对水稻田间杂草的识别效果最佳,其平均交并比(MIoU)、平均像素准确率(mPA)、F1值分别为90.72%、95.67%、94.29%,较改进前模型分别提高3.22、1.25、2.65个百分点;改进后模型内存占用量为11.15 MB,约为原模型的1/19,网络推算速度为103.91 f/s。结果表明改进后模型能够实现复杂背景下水稻与杂草分割,研究结果可...  相似文献   

2.
针对视觉导航系统应用在火龙果园环境中面临干扰因素多、图像背景复杂、复杂模型难以部署等问题,本文提出了一种基于改进DeepLabv3+网络的火龙果园视觉导航路径识别方法。首先,采用MobileNetV2取代传统DeepLabv3+的主干特征提取网络Xception,并将空间金字塔池化模块(Atrous spatial pyramid pooling, ASPP)中的空洞卷积替换成深度可分离卷积(Depthwise separable convolution,DSC),在提升模型检测速率的同时大幅减少了模型的参数量和内存占用量;其次,在特征提取模块处引入坐标注意力机制(Coordinate attention,CA),增强了模型的特征提取能力;最后,通过设计的导航路径提取算法对网络模型分割出的道路掩码区域拟合出导航路径。实验结果表明:改进后的DeepLabv3+的平均交并比和平均像素准确率分别达到95.80%和97.86%,相较原模型分别提升0.79、0.41个百分点。同时,模型内存占用量只有15.0MB,和原模型相比降低97.00%,与Pspnet和U-net模型相比则分别降低91.57%、 91.02%。另外,导航路径识别精度测试结果表明平均像素误差为22像素、平均距离误差7.58cm。已知所在果园道路宽度为3m,平均距离误差占比为2.53%。因此,本文研究方法可为解决火龙果园视觉导航任务提供有效参考。  相似文献   

3.
研究了羊骨架图像生成技术与基于ICNet的羊骨架图像实时语义分割方法。通过DCGAN、SinGAN、BigGAN 3种生成对抗网络生成图像效果对比,优选BigGAN作为羊骨架图像生成网络,扩充了羊骨架图像数据量。在此基础上,将生成图像与原始图像建立组合数据集,引入迁移学习训练ICNet,并保存最优模型,获取该模型对羊骨架脊椎、肋部、颈部的分割精度、MIoU以及单幅图像平均处理时间,并以此作为羊骨架图像语义分割效果的评判标准。结果表明,最优模型对羊骨架3部位分割精度和MIoU分别为93.68%、96.37%、89.77%和85.85%、90.64%、75.77%,单幅图像平均处理时间为87 ms。通过模拟不同光照条件下羊骨架图像来判断ICNet的泛化能力,通过与常用的U Net、DeepLabV3、PSPNet、Fast SCNN 4种图像语义分割模型进行对比来验证ICNet综合分割能力,通过对比中分辨率下不同分支权重的网络分割精度来寻求最优权值。结果表明,ICNet与前3种模型的分割精度、MIoU相差不大,但处理时间分别缩短了72.98%、40.82%、88.86%;虽然Fast SCNN单幅图像处理时间较ICNet缩短了43.68%,但MIoU降低了4.5个百分点,且当中分辨率分支权重为0.42时,ICNet分割精度达到最高。研究表明本文方法具有较高的分割精度、良好的实时性和一定的泛化能力,综合分割能力较优。  相似文献   

4.
基于全卷积神经网络的云杉图像分割算法   总被引:1,自引:0,他引:1  
以云杉为研究对象提出了应用全卷积神经网络(Fully convolutional networks,FCN)分割图像的算法。利用无人机采集图像,标注470幅云杉图像,其中300幅组成训练集,170幅组成测试集,标注90幅樟子松图像作为附加测试集。以VGG16为基础建立云杉分割FCN模型,利用Tensorflow框架实现和训练网络,通过共享权值和逐渐降低的学习速率,提高FCN模型的训练性能。选择像素精度(PA)、均像素精度(MPA)、均交并比(MIoU)和频权交并比(FWIoU)4个语义分割评价指标评价测试结果。FCN模型分割云杉图像,PA和MPA达到0.86,MIoU达到0.75,FWIoU达到0.76,处理速率达到0.085s/幅,有效地解决了光照变化、云杉个体差异、地面杂草干扰和植株之间粘连的影响。与HSV颜色空间阈值分割以及K均值聚类分割算法比较,FCN模型的MIoU分别提高0.10和0.38。  相似文献   

5.
冀汶莉  刘洲  邢海花 《农业机械学报》2024,55(1):212-222,293
针对已有杂草识别模型对复杂农田环境下多种目标杂草的识别率低、模型内存占用量大、参数多、识别速度慢等问题,提出了基于YOLO v5的轻量化杂草识别方法。利用带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration,MSRCR)增强算法对部分图像数据进行预处理,提高边缘细节模糊的图像清晰度,降低图像中的阴影干扰。使用轻量级网络PP-LCNet重置了识别模型中的特征提取网络,减少模型参数量。采用Ghost卷积模块轻量化特征融合网络,进一步降低计算量。为了弥补轻量化造成的模型性能损耗,在特征融合网络末端添加基于标准化的注意力模块(Normalization-based attention module,NAM),增强模型对杂草和玉米幼苗的特征提取能力。此外,通过优化主干网络注意力机制的激活函数来提高模型的非线性拟合能力。在自建数据集上进行实验,实验结果显示,与当前主流目标检测算法YOLO v5s以及成熟的轻量化目标检测算法MobileNet v3-YOLO v5s、ShuffleNet v2-YOLO v5s比较,轻量化后杂草识别模型内存占用量为6.23MB,分别缩小54.5%、12%和18%;平均精度均值(Mean average precision,mAP)为97.8%,分别提高1.3、5.1、4.4个百分点。单幅图像检测时间为118.1ms,达到了轻量化要求。在保持较高模型识别精度的同时大幅降低了模型复杂度,可为采用资源有限的移动端设备进行农田杂草识别提供技术支持。  相似文献   

6.
基于改进型YOLO的复杂环境下番茄果实快速识别方法   总被引:11,自引:0,他引:11  
为实现温室环境下农业采摘机器人对番茄果实的快速、精确识别,提出了一种改进型多尺度YOLO算法(IMS-YOLO)。对YOLO网络模型进行筛选和改进,设计了一种含有残差模块的darknet-20主干网络,同时融合多尺度检测模块,构建了一种复杂环境下番茄果实快速识别网络模型。该网络模型层数较少,能够提取更多特征信息,且采用多尺度检测结构,同时返回番茄果实的类别和预测框,以此提升番茄果实检测速度和精度。采用自制的番茄数据集对IMS-YOLO模型进行测试,并分别对改进前后网络的检测性能以及主干网络层数对特征提取能力的影响进行了对比试验。试验结果表明,IMS-YOLO模型对番茄图像的检测精度为97. 13%,准确率为96. 36%,召回率为96. 03%,交并比为83. 32%,检测时间为7. 719 ms;对比YOLO v2和YOLO v3等网络模型,IMS-YOLO模型可以同时满足番茄果实检测的精度和速度要求。最后,通过番茄温室大棚采摘试验验证了本文模型的可行性和准确性。  相似文献   

7.
为方便调查宁夏全区荒漠草原植物种类及其分布,需对植物识别方法进行研究。针对YOLO v5s模型参数量大,对复杂背景下的植物不易识别等问题,提出一种复杂背景下植物目标识别轻量化模型YOLO v5s-CBD。改进模型YOLO v5s-CBD在特征提取网络中引入带有Transformer模块的主干网络BoTNet(Bottleneck transformer network),使卷积和自注意力相结合,提高模型的感受野;同时在特征提取网络融入坐标注意力(Coordinate attention, CA),有效捕获通道和位置的关系,提高模型的特征提取能力;引入SIoU函数计算回归损失,解决预测框与真实框不匹配问题;使用深度可分离卷积(Depthwise separable convolution, DSC)减小模型内存占用量。实验结果表明,YOLO v5s-CBD模型在单块Nvidia GTX A5000 GPU单幅图像推理时间仅为8 ms,模型内存占用量为8.9 MB,精确率P为95.1%,召回率R为92.9%,综合评价指标F1值为94.0%,平均精度均值(mAP)为95.7%,在VOC数据集...  相似文献   

8.
对图像中的鱼类目标进行分割是提取鱼类生物学信息的关键步骤。针对现有方法对养殖条件下的鱼类图像分割精度较低的问题,提出了基于目标检测及边缘支持的鱼类图像分割方法。首先,设计了基于目标检测的完整轮廓提取方法,将具有完整轮廓的鱼类目标从图像中提取出来作为分割阶段的输入,使得整幅图像的分割问题转化为局部区域内的分割问题;然后,搭建Canny边缘支持的深度学习分割网络,对区域内的鱼类实现较高精度图像分割。实验结果表明,本文方法在以VGG-16、ResNet-50和ResNet-101作为主干网络的模型上的分割精度为81.75%、83.73%和85.66%。其中,以ResNet-101作为主干网络的模型与Mask R-CNN、U-Net、DeepLabv3相比,分割精度分别高14.24、11.36、9.45个百分点。本文方法可以为鱼类生物学信息的自动提取提供技术参考。  相似文献   

9.
为在自然环境下自动准确地检测樱桃番茄果实的成熟度,实现樱桃番茄果实自动化采摘,根据成熟期樱桃番茄果实表型特征的变化以及国家标准GH/T 1193—2021制定了5级樱桃番茄果实成熟度级别(绿熟期、转色期、初熟期、中熟期和完熟期),并针对樱桃番茄相邻成熟度特征差异不明显以及果实之间相互遮挡问题,提出一种改进的轻量化YOLO v7模型的樱桃番茄果实成熟度检测方法。该方法将MobileNetV3引入YOLO v7模型中作为骨干特征提取网络,以减少网络的参数量,同时在特征融合网络中加入全局注意力机制(Global attention mechanism, GAM)模块以提高网络的特征表达能力。试验结果表明,改进的YOLO v7模型在测试集下的精确率、召回率和平均精度均值分别为98.6%、98.1%和98.2%,单幅图像平均检测时间为82 ms,模型内存占用量为66.5 MB。对比Faster R-CNN、YOLO v3、YOLO v5s和YOLO v7模型,平均精度均值分别提升18.7、0.2、0.3、0.1个百分点,模型内存占用量也最少。研究表明改进的YOLO v7模型能够为樱桃番茄果实的自...  相似文献   

10.
奶牛体况评分是评价奶牛产能与体态健康的重要指标。目前,随着现代化牧场的发展,智能检测技术已被应用于奶牛精准养殖中。针对目前检测算法的参数量多、计算量大等问题,以YOLO v5s为基础,提出了一种改进的轻量级奶牛体况评分模型(YOLO-MCE)。首先,通过2D摄像机在奶牛挤奶通道处采集奶牛尾部图像并构建奶牛BCS数据集。其次,在MobileNetV3网络中融入坐标注意力机制(Coordinate attention, CA)构建M3CA网络。将YOLO v5s的主干网络替换为M3CA网络,在降低模型复杂度的同时,使得网络特征提取时更关注于牛尾区域的位置和空间信息,从而提高了运动模糊场景下的检测精度。YOLO v5s预测层采用EIoU Loss损失函数,优化了目标边界框回归收敛速度,生成定位精准的预测边界框,进而提高了模型检测精度。试验结果表明,改进的YOLO v5s模型的检测精度为93.4%,召回率为85.5%,mAP@0.5为91.4%,计算量为2.0×109,模型内存占用量仅为2.28 MB。相较原始YOLO v5s模型,其计算量降低87.3%,模型内存占用量减...  相似文献   

11.
针对深层神经网络模型部署到番茄串采摘机器人,存在运行速度慢,对目标识别率低,定位不准确等问题,本文提出并验证了一种高效的番茄串检测模型。模型由目标检测与语义分割两部分组成。目标检测负责提取番茄串所在的矩形区域,利用语义分割算法在感兴趣区域内获取番茄茎位置。在番茄检测模块,设计了一种基于深度卷积结构的主干网络,在实现模型参数稀疏性的同时提高目标的识别精度,采用K-means++聚类算法获得先验框,并改进了DIoU距离计算公式,进而获得更为紧凑的轻量级检测模型(DC-YOLO v4)。在番茄茎语义分割模块(ICNet)中以MobileNetv2为主干网络,减少参数计算量,提高模型运算速度。将采摘模型部署在番茄串采摘机器人上进行验证。采用自制番茄数据集进行测试,结果表明,DC-YOLO v4对番茄及番茄串的平均检测精度为99.31%,比YOLO v4提高2.04个百分点。语义分割模块的mIoU为81.63%,mPA为91.87%,比传统ICNet的mIoU提高2.19个百分点,mPA提高1.47个百分点。对番茄串的准确采摘率为84.8%,完成一次采摘作业耗时约6s。  相似文献   

12.
果园环境实时检测是保证果园喷雾机器人精准作业的重要前提。本文提出了一种基于改进DeepLab V3+语义分割模型的果园场景多类别分割方法。为了在果园喷雾机器人上部署,使用轻量化MobileNet V2网络替代原有的Xception网络以减少网络参数,并在空洞空间金字塔池化(Atrous spatial pyramid pooling,ASPP)模块中运用ReLU6激活函数减少部署在移动设备的精度损失,此外结合混合扩张卷积(Hybrid dilated convolution,HDC),以混合扩张卷积替代原有网络中的空洞卷积,将ASPP中的扩张率设为互质以减少空洞卷积的网格效应。使用视觉传感器采集果园场景RGB图像,选取果树、人、天空等8类常见的目标制作了数据集,并在该数据集上基于Pytorch对改进前后的DeepLab V3+进行训练、验证和测试。结果表明,改进后DeepLab V3+模型的平均像素精度、平均交并比分别达到62.81%和56.64%,比改进前分别提升5.52、8.75个百分点。模型参数量较改进前压缩88.67%,单幅图像分割时间为0.08s,与原模型相比减少0.09s。尤其是对树的分割精度达到95.61%,比改进前提高1.31个百分点。该方法可为喷雾机器人精准施药和安全作业提供有效决策,具有实用性。  相似文献   

13.
苹果从采摘到销售过程中易发生机械损伤,需要及时剔除以避免腐烂变质。然而机械损伤早期苹果外观颜色变化不明显,通常表现为隐性损伤,检测比较困难。提出了一种基于结构光反射成像(SIRI)和卷积神经网络(CNN)的苹果隐性损伤检测方法。通过搭建SIRI系统,采集待测苹果调制的结构光图像,再利用三相位解调法提取交流分量,增强苹果隐性损伤对比度;然后利用交流分量图像制作苹果隐性损伤数据集,并使用基于CNN的语义分割网络FCN、UNet、HRNet、PSPNet、DeepLabv3+、LRASPP和SegNet训练损伤检测模型,多组试验结果表明上述模型均能有效地检测出不同情况下的苹果隐性损伤。其中HRNet模型精确率、召回率、F1值和平均交并比较高,分别为97.96%、97.52%、97.74%和97.58%,但检测速度仅为60 f/s; PSPNet模型检测速度较快,可达到217 f/s,但其检测精度略低,精确率、召回率、F1值和平均交并比分别为97.10%、94.57%、95.82%和95.90%。  相似文献   

14.
果实识别是视觉检测技术重要的环节,其识别精度易受复杂的生长环境及果实状态的影响。以大棚环境下单个、一簇、光照、阴影、遮挡、重叠6种复杂生长状态下的番茄果实为对象,提出一种基于改进YOLOv4网络模型与迁移学习相结合的番茄果实识别方法。首先利用ImageNet数据集与VGG网络模型前端16卷积层进行模型参数预训练,将训练的模型参数初始化改进模型的权值以代替原始的初始化操作,然后使用番茄数据集在VGG19的卷积层与YOLOV4的主干网络相结合的新模型中进行训练,获得最优权重实现对复杂环境下的番茄果实进行检测。最后,将改进模型与Faster RCNN、YOLOv4-Tiny、YOLOv4网络模型进行比较。研究结果表明,改进模型在6种复杂环境下番茄果实平均检测精度值mAP达到89.07%、92.82%、92.48%、93.39%、93.20%、93.11%,在成熟、半成熟、未成熟3种不同成熟度下的F1分数值为84%、77%、85%,其识别精度优于比较模型。本文方法实现了在6种复杂环境下有效地番茄果实检测识别,为番茄果实的智能采摘提供理论基础。  相似文献   

15.
番茄采摘机器人系统设计与试验   总被引:3,自引:0,他引:3  
为了提高鲜食番茄采收的自动化水平,减轻人工采摘劳动强度,设计了一种番茄智能采摘机器人。该采摘机器人包括视觉定位单元、采摘手爪、控制系统及承载平台,并基于各部件工作原理制定了采摘机器人的工作流程。基于HIS色彩模型进行图像分割,提高了果实识别的准确度;通过气囊夹持方式确保果实采摘过程中对果实的柔性夹持。试验结果表明:视觉定位、采摘手爪等模块运转良好,采摘单果番茄耗时约24s,成功率可达8 3.9%以上。  相似文献   

16.
为解决遥感图像河流精细化提取问题,提出一种改进LinkNet模型的分割网络(AFR-LinkNet)。AFR-LinkNet在LinkNet基础上引入了残差通道注意力结构、非对称卷积模块以及密集跳跃连接结构,并用视觉激活函数FReLU替换ReLU激活函数。残差通道注意力结构可以强化对分割任务有效的特征,以提高模型的分类能力,得到更多的细节信息。利用非对称卷积模块进行模型压缩和加速。使用FReLU激活函数提升网络提取遥感图像河流的精细空间布局。在寒旱区河流数据集上的实验结果表明,AFR-LinkNet网络相较于FCN、UNet、ResNet50、LinkNet、DeepLabv3+网络交并比分别提高了26.4、22.7、17.6、12.0、9.7个百分点,像素准确率分别提高了25.9、22.5、13.2、10.5、7.3个百分点;引入非对称卷积模块后,交并比提高了5.1个百分点,像素准确率提高了2.9个百分点,在此基础上引入残差通道注意力结构之后,交并比又提高了2.2个百分点,像素准确率提高了2.3个百分点,证明了其对河流细节识别效果更好。  相似文献   

17.
为提高苹果种植区域的提取精度,提出了一种基于Sentinel-2和MODIS融合影像的CBAM-DeepLab V3+模型。影响苹果种植区域提取精度的主要因素包括遥感影像的质量以及语义分割模型的性能。从影像质量角度来看,采用基于时序的时空融合算法ESTARFM,通过融合Sentinel-2和MODIS的遥感影像数据,实现更高空间分辨率和时间分辨率数据的获取。与此同时,将训练样本从原始的800幅扩充至2 400幅,为后续语义分割模型提供更为充足的样本容量。在语义分割模型优化方面,为了进一步提高苹果种植面积的提取精度,以DeepLab V3+网络结构模型为基础,引入基于通道和空间的CBAM注意力机制,进而发展出CBAM-DeepLab V3+模型。与原始DeepLab V3+模型相比,加入CBAM注意力机制的CBAM-DeepLab V3+模型在拟合速度较慢、边缘目标分割不精确、大尺度目标分割内部不一致和存在孔洞等缺陷方面实现了突破,这些改进提高了模型的训练与预测性能。本研究采用原始Sentinel-2影像及时空融合后的影像数据集,结合烟台市牟平区王格庄镇的数据集和观水镇苹果数据集对U-N...  相似文献   

18.
基于迁移学习的温室番茄叶片水分胁迫诊断方法   总被引:3,自引:0,他引:3  
赵奇慧  李莉  张淼  蓝天  SIGRIMIS N A 《农业机械学报》2020,51(S1):340-347,356
为实时诊断番茄叶片水分胁迫程度,提出一种叶片水分胁迫程度的诊断方法,该诊断方法包括2部分:叶片分割和水分胁迫程度分类。采用以ResNet101为特征提取卷积网络的Mask R-CNN网络对背景遮挡的番茄叶片进行实例分割,通过迁移学习将Mask R-CNN在COCO数据集上预训练得到的权重用于番茄叶片的实例分割,保留原卷积网络的训练参数,只调整全连接层。利用卷积网络提取的特征,可将番茄叶片分割视为区分叶片与背景的一个二分类问题,以此来分割受到不同水分胁迫的番茄叶片图像。利用微调后的DenseNet169图像分类模型进行叶片水分胁迫程度分类,通过迁移学习将DenseNet169在ImageNet数据集上预训练得到的权重用于番茄叶片水分胁迫程度的分类,保持DenseNet169卷积层的参数不变,只训练全连接层,并对原DenseNet169全连接层进行了修改,将分类数量从1.000修改为3。试验共采集特征明显的无水分胁迫、中度胁迫和重度胁迫3类温室番茄叶片图像,共2000幅图像,建立数据集,并进行模型训练与测试。试验结果表明,训练后的Mask R-CNN叶片实例分割模型在测试集上对于单叶片和多叶片的马修斯相关系数平均为0.798,分割准确度平均可达到94.37%。经过DenseNet169网络训练的叶片水分胁迫程度分类模型在测试集上的分类准确率为94.68%,与 VGG-19、AlexNet这2种常用的深度学习分类模型进行对比,分类准确率分别提高了5.59、14.68个百分点,表明本文方法对温室番茄叶片水分胁迫程度实时诊断有较好的效果,可为构建智能化的水胁迫分析技术提供参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号