首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 687 毫秒
1.
黄土高原近20年来苹果栽植面积迅猛增加,对区域生态水文和社会经济发展均产生了重要影响。但该区域果园地块小且场景复杂,仅有县/市尺度统计数据,尚无苹果园实际的空间分布信息。为此,本研究建立了无人机低空遥感影像专业数据集。融合迁移学习与深度学习方法,将残差神经网络ResNet34网络迁移到Linknet网络,得到R_34_Linknet网络。将R_34_Linknet网络与5种常用的深度学习语义分割模型SegNet、FCN_8s、DeeplabV3+、UNet和Linknet应用于黄土高原苹果园空间分布提取,表现最好的模型为R_34_Linknet,其在测试集上的调和平均值F1为87.1%,像素准确度PA为92.3%,均交并比MIoU为81.2%,频权交并比FWIoU为85.7%,平均像素准确度MPA为89.6%。将空间金字塔池化结构(Atrous Spatial Pyramid Pooling,ASPP)与R_34_Linknet网络相结合,扩大网络的感受野,得到R_34_Linknet_ASPP网络;然后对ASPP结构进行改进,得到R_34_Linknet_ASPP+网络。对比三种网络性能,表现最优的为R_34_Linknet_ASPP+,在测试集上F1为86.3%,PA为94.7%,MIoU为82.7%,FWIoU为89.0%,MPA为92.3%。使用R_34_Linknet_ASPP+在长武县王东沟和白水县通积村提取苹果园面积精度分别为94.22%和95.66%。本研究提出的R_34_Linknet_ASPP+方法提取到的苹果园更加准确,苹果园地块边缘处效果更好,可作为黄土高原苹果园空间分布制图等研究的技术支撑和理论依据。  相似文献   

2.
番茄图像中多类别目标的准确识别是实现自动化采摘的技术前提,针对现有网络分割精度低、模型参数多的问题,提出一种基于改进DeepLabv3+的番茄图像多类别分割方法。该方法使用幻象网络(GhostNet)和坐标注意力模块(Coordinate attention, CA)构建CA-GhostNet作为DeepLabv3+的主干特征提取网络,减少网络的参数量并提高模型的分割精度,并设计了一种多分支解码结构,用于提高模型对小目标类别的分割能力。在此基础上,基于单、双目小样本数据集使用合成数据集的权值参数进行迁移训练,对果实、主干、侧枝、吊线等8个语义类别进行分割。结果表明,改进的DeepLabv3+模型在单目数据集上的平均交并比(MIoU)和平均像素准确率(MPA)分别为68.64%、78.59%,在双目数据集上的MIoU和MPA分别达到73.00%、80.59%。此外,所提模型内存占用量仅为18.5 MB,单幅图像推理时间为55 ms,与基线模型相比,在单、双目数据集上的MIoU分别提升6.40、6.98个百分点,与HRNet、UNet、PSPNet相比,内存占用量压缩82%、79%、88%...  相似文献   

3.
稻田杂草位置获取是靶向喷施除草剂和机械智能除草的基础,为实现自然光照环境和水田复杂背景下稻田苗期杂草的信息获取。以稻田恶性杂草野慈姑为研究对象,提出一种基于全卷积神经网络的稻田苗期杂草语义分割方法,利用DeepLabV3+对秧苗和杂草进行语义分割进而获取的杂草位置信息。首先人工田间采集稻田苗期杂草野慈姑的RGB图像,通过图像标注工具LabelMe人工标注图像中秧苗、杂草和背景的各个像素点,70%数据集用于DeepLabV3+网络模型参数的训练,30%数据集用于测试DeepLabV3+性能。然后与FCN和U-Net两种语义分割方法进行比较,所提出的DeepLabV3+语义分割方法准确率、均正比、频权交并比和F值等性能指标都最优,试验得出:DeepLabV3+模型像素准确率最高达到92.2%,高于U-Net和FCN方法的准确率92.1%和84.7%。所提出的方法能对稻田苗期杂草、秧苗和背景像素进行准确分割,满足智能除草和除草剂靶向喷施的实际应用需求。  相似文献   

4.
基于全卷积神经网络的林区航拍图像虫害区域识别方法   总被引:4,自引:0,他引:4  
针对航拍林区虫害图像的虫害区域不规则和传统识别方法泛化能力差的问题,提出一种基于全卷积神经网络(Fully convolution networks,FCN)的虫害区域识别方法。采用八旋翼无人机航拍虫害林区、获取林区虫害图像,并对虫害区域进行像素级标注,用于模型训练;将VGG16模型的全连接层替换为卷积层,并通过上采样实现端到端的学习;使用预训练的卷积层参数,提升模型收敛速度;采用跳跃结构融合多种特征信息,有效提升识别精度,并通过该方法构造了5种全卷积神经网络。试验表明,针对林区航拍虫害图像,FCN-2s在5种全卷积神经网络中区域识别精度最高,其像素准确率为97. 86%,平均交并比为79. 49%,单幅分割时间为4. 31 s。该方法与K-means、脉冲耦合神经网络、复合梯度分水岭算法相比,像素准确率分别高出44. 93、20. 73、6. 04个百分点,平均交并比分别高出50. 19、35. 67、18. 86个百分点,单幅分割时间分别缩短47. 54、19. 70、11. 39 s,可以实现林区航拍图像的虫害区域快速准确识别,为林业虫害监测和防治提供参考。  相似文献   

5.
研究了羊骨架图像生成技术与基于ICNet的羊骨架图像实时语义分割方法。通过DCGAN、SinGAN、BigGAN 3种生成对抗网络生成图像效果对比,优选BigGAN作为羊骨架图像生成网络,扩充了羊骨架图像数据量。在此基础上,将生成图像与原始图像建立组合数据集,引入迁移学习训练ICNet,并保存最优模型,获取该模型对羊骨架脊椎、肋部、颈部的分割精度、MIoU以及单幅图像平均处理时间,并以此作为羊骨架图像语义分割效果的评判标准。结果表明,最优模型对羊骨架3部位分割精度和MIoU分别为93.68%、96.37%、89.77%和85.85%、90.64%、75.77%,单幅图像平均处理时间为87 ms。通过模拟不同光照条件下羊骨架图像来判断ICNet的泛化能力,通过与常用的U Net、DeepLabV3、PSPNet、Fast SCNN 4种图像语义分割模型进行对比来验证ICNet综合分割能力,通过对比中分辨率下不同分支权重的网络分割精度来寻求最优权值。结果表明,ICNet与前3种模型的分割精度、MIoU相差不大,但处理时间分别缩短了72.98%、40.82%、88.86%;虽然Fast SCNN单幅图像处理时间较ICNet缩短了43.68%,但MIoU降低了4.5个百分点,且当中分辨率分支权重为0.42时,ICNet分割精度达到最高。研究表明本文方法具有较高的分割精度、良好的实时性和一定的泛化能力,综合分割能力较优。  相似文献   

6.
针对遥感图像河流数据样本人工标注成本高且难以大量获取,以及网络在河流图像边缘细节提取的效果不佳问题,提出一种通过自监督对比学习方式利用大量无标签遥感河流图像数据进行编码器预训练,并使用少量标签数据对预训练后的编码器进行微调,同时在编解码结构中使用一种新的非均匀采样方式的语义分割网络。自监督对比学习可以利用大量无标签数据进行前置任务模型训练,仅需少量标签数据对下游河流提取任务模型微调即可;非均匀采样方式能够通过对高频区域密集采样、对低频区域稀疏采样的方式获得图像中不同类别之间清晰的边界信息和同类别区域中的细节信息,减少模型的冗余度。在河流数据集上的实验表明,利用360幅有标签数据对预训练后的网络进行微调,其像素准确率、交并比、召回率分别达到90.4%、68.6%和83.2%,与使用1 200幅有标签数据训练的有监督AFR-LinkNet网络性能相当;在使用全部数据标签进行微调后,网络的像素准确率、交并比、召回率分别达到93.7%、73.2%和88.5%,相比AFR-LinkNet、DeepLabv3+、LinkNet、ResNet50和UNet网络,像素准确率分别提高3.1、7.6、12...  相似文献   

7.
针对DeepLabV3+语义分割模型计算复杂度高、内存消耗大、难以在计算力有限的移动平台上部署等问题,提出一种改进的轻量化DeepLabV3+深度学习语义分割算法,用于实现无人机荞麦苗期图像的分割与识别。该算法采用RepVGG(Re-parameterization visual geometry group)与MobileViT(Mobile vision transformer)模块融合的方式建立主干网络实现特征提取;同时,在RepVGG网络结构中引入SENet(Squeeze-and-excitation networks)注意力机制,通过利用通道间的相关性,捕获更多的全局语义信息,保证荞麦分割的性能。实验结果表明,与FCN(Fully convolutional networks)、PSPNet(Pyramid scene parsing network)、DenseASPP(Dense atrous spatial pyramid pooling)、DeepLabV3、DeepLabV3+模型相比,本文提出的改进算法在较大程度上降低了模型参数规模,更适合在移动端部署,自建荞麦苗期分割数据集上的语义分割平均像素准确率(Mean pixel accuracy,mPA)和平均交并比(Mean intersection over union,mIoU)分别为97.02%和91.45%,总体参数量、浮点运算次数(Floating-point operations,FLOPs)和推理速度分别为9.01×106、8.215×1010、37.83f/s,综合表现最优。在全尺寸图像分割中,训练模型对不同飞行高度的荞麦苗期分割的mPA和mIoU均能满足要求,也具有较好的分割能力和推理速度,该算法可为后期荞麦补种、施肥养护和长势监测等提供重要技术支持,进而促进小杂粮产业智能化发展。  相似文献   

8.
高效精准地提取遥感影像中的耕地对农业资源监测以及可持续发展具有重要意义,针对目前多数传统全卷积神经网络(FCN)模型在提取耕地时存在重精度而轻效率的缺陷,本文建立基于FCN的轻量级耕地图斑提取模型(LWIBNet模型),并结合数学形态学算法进行后处理,开展耕地图斑信息的自动化提取研究。该LWIBNet模型汲取了轻量级卷积神经网络和U-Net模型的优点,以Inv-Bottleneck模块(由深度可分离卷积、压缩-激励块和反残差块组成)为核心,采用高效的编码-解码结构为骨架,将LWIBNet模型分别与传统模型的耕地提取效果、经典FCN模型的轻量性和精确度进行对比,结果表明,LWIBNet模型比表现最优的传统模型Kappa系数提高12.0%,比U-Net模型的参数量、计算量、训练耗时、分割耗时分别降低96.5%、87.1%、78.2%和75%,且LWIBNet的分割精度与经典FCN模型相似。  相似文献   

9.
基于深度学习的无人机土地覆盖图像分割方法   总被引:2,自引:0,他引:2  
编制土地覆盖图需要包含精准类别划分的土地覆盖数据,传统获取方法成本高、工程量大,且效果不佳。提出一种面向无人机航拍图像的语义分割方法,用于分割不同类型的土地区域并分类,从而获取土地覆盖数据。首先,按照最新国家标准,对包含多种土地利用类型的航拍图像进行像素级标注,建立无人机高分辨率复杂土地覆盖图像数据集。然后,在语义分割模型DeepLab V3+的基础上进行改进,主要包括:将原始主干网络Xception+替换为深度残差网络ResNet+;引入联合上采样模块,增强编码器的信息传递能力;调整扩张卷积空间金字塔池化模块的扩张率,并移除该模块的全局池化连接;改进解码器,使其融合更多浅层特征。最后在本文数据集上训练和测试模型。实验结果表明,本文提出的方法在测试集上像素准确率和平均交并比分别为95. 06%和81. 22%,相比原始模型分别提升了14. 55个百分点和25. 49个百分点,并且优于常用的语义分割模型FCN-8S和PSPNet模型。该方法能够得到精度更高的土地覆盖数据,满足编制精细土地覆盖图的需要。  相似文献   

10.
为快速准确获取灌区渠系分布信息,科学调配区域农业水资源、提高水资源利用率,通过基于全卷积神经网络(Fully convolutional networks,FCN)的语义分割模型进行渠系轮廓提取。利用无人机采集正射影像并进行标注,以VGG-19网络为基础,通过多尺度特征融合的方式实现FCN-8s结构,使用Tensorflow深度学习框架构建FCN渠系提取模型;对数据集进行数据增强,分割后放入FCN模型中训练、测试。实验结果显示,针对不同复杂程度的测试区域,FCN模型的提取准确度、完整度、精度均高于支持向量机方法和改进霍夫变换方法,均值分别为95. 78%、92. 29%、89. 45%。结果表明,该方法能够实现灌区渠系轮廓的高精度提取,具有较好的泛化性和鲁棒性。  相似文献   

11.
苹果从采摘到销售过程中易发生机械损伤,需要及时剔除以避免腐烂变质。然而机械损伤早期苹果外观颜色变化不明显,通常表现为隐性损伤,检测比较困难。提出了一种基于结构光反射成像(SIRI)和卷积神经网络(CNN)的苹果隐性损伤检测方法。通过搭建SIRI系统,采集待测苹果调制的结构光图像,再利用三相位解调法提取交流分量,增强苹果隐性损伤对比度;然后利用交流分量图像制作苹果隐性损伤数据集,并使用基于CNN的语义分割网络FCN、UNet、HRNet、PSPNet、DeepLabv3+、LRASPP和SegNet训练损伤检测模型,多组试验结果表明上述模型均能有效地检测出不同情况下的苹果隐性损伤。其中HRNet模型精确率、召回率、F1值和平均交并比较高,分别为97.96%、97.52%、97.74%和97.58%,但检测速度仅为60 f/s; PSPNet模型检测速度较快,可达到217 f/s,但其检测精度略低,精确率、召回率、F1值和平均交并比分别为97.10%、94.57%、95.82%和95.90%。  相似文献   

12.
为提高苹果种植区域的提取精度,提出了一种基于Sentinel-2和MODIS融合影像的CBAM-DeepLab V3+模型。影响苹果种植区域提取精度的主要因素包括遥感影像的质量以及语义分割模型的性能。从影像质量角度来看,采用基于时序的时空融合算法ESTARFM,通过融合Sentinel-2和MODIS的遥感影像数据,实现更高空间分辨率和时间分辨率数据的获取。与此同时,将训练样本从原始的800幅扩充至2 400幅,为后续语义分割模型提供更为充足的样本容量。在语义分割模型优化方面,为了进一步提高苹果种植面积的提取精度,以DeepLab V3+网络结构模型为基础,引入基于通道和空间的CBAM注意力机制,进而发展出CBAM-DeepLab V3+模型。与原始DeepLab V3+模型相比,加入CBAM注意力机制的CBAM-DeepLab V3+模型在拟合速度较慢、边缘目标分割不精确、大尺度目标分割内部不一致和存在孔洞等缺陷方面实现了突破,这些改进提高了模型的训练与预测性能。本研究采用原始Sentinel-2影像及时空融合后的影像数据集,结合烟台市牟平区王格庄镇的数据集和观水镇苹果数据集对U-N...  相似文献   

13.
基于多视角时间序列图像的植物叶片分割与特征提取   总被引:1,自引:0,他引:1  
娄路  吕惠  宋然 《农业机械学报》2022,53(1):253-260
为了解决多种类植物在生长过程中不同时间点动态变化表型参数提取困难问题,提出了一种基于多视角时间序列图像和深度卷积神经网络Mask-RCNN的植物茎叶实例分割方法,在拟南芥、玉米和酸浆属3种代表性植物上进行了实验.结果 表明,训练得到的基于Mask-RCNN的植物分割模型对在不同生长时期的植物茎叶的识别精度(mAP0.5...  相似文献   

14.
针对实际稻田环境中水稻与杂草相互遮挡、难以准确区分的问题,提出一种基于改进DeepLabv3+的水稻杂草识别方法。以无人机航拍的复杂背景下稻田杂草图像为研究对象,在DeepLabv3+模型的基础上,选择轻量级网络MobileNetv2作为主干特征提取网络,以减少模型参数量和降低计算复杂度;融合通道和空间双域注意力机制模块,加强模型对重要特征的关注;提出一种基于密集采样的多分支感受野级联融合结构对空洞空间金字塔池化模块(ASPP)进行改进,扩大对全局和局部元素特征的采样范围;对模型解码器部分进行改进。设置消融试验验证改进方法的有效性,并与改进前DeepLabv3+、UNet、PSPNet、HrNet模型进行对比试验。试验结果表明,改进后模型对水稻田间杂草的识别效果最佳,其平均交并比(MIoU)、平均像素准确率(mPA)、F1值分别为90.72%、95.67%、94.29%,较改进前模型分别提高3.22、1.25、2.65个百分点;改进后模型内存占用量为11.15 MB,约为原模型的1/19,网络推算速度为103.91 f/s。结果表明改进后模型能够实现复杂背景下水稻与杂草分割,研究结果可...  相似文献   

15.
为提高植物叶片图像中形态参数提取的效率和准确率,以全卷积神经网络为基础,对模型构架和关键函数进行优化,通过有监督的学习方法实现植物叶片图像分割效果。模型在测试集上的平均召回率r为0.95,MIoU为0.94。在分割结果中提取植物叶片的形态学参数与人工提取结果高度相关,r~2>0.96。该研究实现了植物叶片图像高通量地分割,并且在分割结果中提取的植物叶片形态参数可以用于作物长势监测等相关研究。  相似文献   

16.
为解决遥感图像河流精细化提取问题,提出一种改进LinkNet模型的分割网络(AFR-LinkNet)。AFR-LinkNet在LinkNet基础上引入了残差通道注意力结构、非对称卷积模块以及密集跳跃连接结构,并用视觉激活函数FReLU替换ReLU激活函数。残差通道注意力结构可以强化对分割任务有效的特征,以提高模型的分类能力,得到更多的细节信息。利用非对称卷积模块进行模型压缩和加速。使用FReLU激活函数提升网络提取遥感图像河流的精细空间布局。在寒旱区河流数据集上的实验结果表明,AFR-LinkNet网络相较于FCN、UNet、ResNet50、LinkNet、DeepLabv3+网络交并比分别提高了26.4、22.7、17.6、12.0、9.7个百分点,像素准确率分别提高了25.9、22.5、13.2、10.5、7.3个百分点;引入非对称卷积模块后,交并比提高了5.1个百分点,像素准确率提高了2.9个百分点,在此基础上引入残差通道注意力结构之后,交并比又提高了2.2个百分点,像素准确率提高了2.3个百分点,证明了其对河流细节识别效果更好。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号