首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 203 毫秒
1.
利用无人机影像进行森林资源调查具有作业快速便捷、数据分辨率较高、影像细节丰富的特点,可较好地识别单木,获取树木位置、冠幅等信息。但是,厘米级的影像分辨率使基于光谱信息的传统分割算法在提取树冠时出现破碎化现象,产生过分割结果。同时,在非落叶季由于无人机影像难以观测到茂密林冠下层地形,故在地形起伏较大的林区难以实现基于树木冠层高度模型(CHM)的单木分割方法。针对上述问题,结合传统二维图像处理和Sf M三维建模,提出了一种无需高度归一化的无人机影像树冠三维分割提取算法,首先利用Sf M技术从高重叠航片建立三维表面模型,利用高程和图像信息检测初始树木位置,再采取k NN自适应邻域分水岭分割的方式对中心单木进行精确的树冠参数提取。在北京市百花山国家级自然保护区的落叶松林地进行了高分辨率无人机影像实验,采用正射影像目视解译结果和多种基于图像、点云的自动分割算法结果进行验证和评价。结果表明,本文方法对树木总体检出率在91%以上,冠幅提取精度在81%以上,优于传统的全局分水岭方法和其他树冠分割算法。  相似文献   

2.
针对R-cut(Ratio cut)边缘检测分割模型对高分辨率遥感影像分割时存在过分割和模糊边缘敏感性问题,提出了一种多尺度R-cut(Multi-scale ratio cut, MSR-cut)的遥感影像边缘检测分割方法。首先,采用形态重建的分水岭分割算法对影像过分割,形成多个超像素区域;然后计算并提取影像各个区域的纹理特征信息熵值、光谱特征与邻域均值差分归一化值,分别进行同质性和异质性的有效衡量;并构建评价函数获取最优分割尺度,对这些超像素区域进行初步合并,得到影像的粗分割结果;最后结合各地物的边界权重信息,从全局角度用R-cut的方法对粗分割结果进一步合并,完成对影像的精细分割,生成最终的分割结果。实验选取5个不同场景的高分辨率遥感影像,采用定性和定量两种方法对比分析本文方法与传统R-cut边缘检测分割、Spectral-Rcut边缘检测分割和Textured-Rcut边缘检测分割方法。实验结果表明,MSR-cut边缘检测分割方法能够有效提高分割精度,增强噪声鲁棒性,可取得较好的分割视觉效果。  相似文献   

3.
基于Lab空间和K-Means聚类的叶片分割算法研究   总被引:4,自引:0,他引:4  
对植物叶片进行分类,在植物种类鉴别研究中有着重要的意义,而在植物叶片分类中,对叶片的准确分割是进行分类的必要前提。为此,对比分析了传统阈值分割中的最大类间方差法和K-Means聚类两种分割算法,实现对叶片的分割,并将RGB空间转换到Lab空间,再利用两种算法分别进行分割。结果表明:传统的阈值分割和K-Means聚类分割无法将目标图像准确地分割出来;在Lab空间对a分量进行阈值分割可以去除阴影部分,但是分割结果为二值图像;而在Lab空间进行K-Means聚类分割,不仅能够有效地消除在拍摄图像过程中产生的阴影部分,而且分割后的图像为彩色图像,对纹理和颜色特征的提取更加方便,提高了分类识别的准确率。  相似文献   

4.
针对现有的机载数据单木分割方法对林型的普适度不高,尤其在高郁闭度阔叶林地带提取精度偏低的问题,选用海南省海口市热带阔叶林地带的光谱影像和LiDAR数据,先采用基于距离阈值的单木分割方法,利用高分光谱影像分割得到的树冠边缘,对初始探测树顶点进行位置约束。获得单木顶点的精确定位后,采用基于种子点的单木分割方法分割,完成了阔叶林的单木提取。结果显示,与已有的基于单木间相对间距单木分割方法相比,本研究通过选取最佳分割尺度结合光谱影像进行精确定位,改善了原有单一尺度分割方法导致的过分割现象,将单木识别精确率由0.67提升至0.92。该方法在使用遥感对森林单木进行分割工作中,可以更好地识别单木,对不同林型适用度较高,可以为后续的单木信息提取工作提供数据基础。  相似文献   

5.
基于小波纹理和随机森林的猕猴桃果园遥感提取   总被引:4,自引:0,他引:4  
为快速、准确地从高分影像中获取猕猴桃种植分布信息,提出了一种结合小波变换纹理分析和随机森林分类的QuickBird影像猕猴桃果园自动提取方法。首先,采用coif5小波对QuickBird全色影像进行多尺度小波分解,计算各子频带小波系数的能量特征作为纹理特征;然后,将小波纹理与光谱特征组合构建分类特征;最后,利用随机森林分类实现土地利用分类和猕猴桃果园空间分布提取。结果表明,小波纹理识别猕猴桃果园的效果明显优于光谱特征和其他2种纹理特征;光谱+小波纹理特征的分类精度最高,猕猴桃果园提取精度(Fk)和总体分类精度(OA)分别为95.30%和94.46%,比光谱+灰度共生矩阵纹理分类分别提高6.70%和2.88%,比光谱+分形纹理分类显著提高13.43%和6.98%;随机森林分类结果优于相同特征下的支持向量机、最大似然分类。本文提取的猕猴桃果园面积与目视解译结果的相对误差小于7%。此外,利用本文方法对同期QuickBird影像另一研究区的苹果园分布进行提取,结果表明,该方法对苹果园提取有较好的适用性。  相似文献   

6.
苹果目标的准确识别是苹果机械化采摘需要解决的关键问题之一。为此,基于YUV颜色空间模型,提出了一种结合色差分量与高斯自适应拟合算法的苹果目标分割方法。该方法采用首先将苹果目标由RGB颜色空间转换至YUV颜色空间,并利用色差分量V建立果实与背景分割的高斯分布拟合模型,根据拟合结果自动获取分割阈值,以实现自然场景下苹果目标的准确分割。为了验证文中算法的有效性,利用多幅图像进行了试验并与Otsu自适应阈值分割算法进行了比较。试验结果表明,采用文中算法得到的苹果果实的平均检出率达87.08%,识别率领先Otsu算法9.91%。因此,对于着色度较为均匀的苹果目标,采用高斯自适应拟合方法可以有效提高其识别率。  相似文献   

7.
提取农田信息对智慧农业、环境保护等有重要意义。监督学习模型对不同地貌、区域、种植类型等空间异质性农田的特征提取效果不佳。针对该问题,本文提出一种半监督学习模型,该模型使用基于加权损失函数的在线难例样本挖掘策略,在Vaihingen数据集中总体精度高达87.1%,相较于其他半监督学习模型的提取效果最好。在吉林一号农田影像数据集进行空间异质性农田特征提取中的对比试验和精度评估,结果表明:分别使用拟提取地区和训练集地区的无标注影像训练该模型,均可提高对空间异质性农田特征提取精度,若无标注影像与拟提取地区影像中农田特征相似度高,总体精度可提升2.1~6.1个百分点,总体精度最高可达84.0%。该模型使用更少量的标注信息获得媲美监督学习模型的提取效果;而使用相同量的标注信息,可以通过增加无标注影像以取得比监督学习模型更好的提取效果。本文构建河北献县地区的农田数据集,模型使用吉林一号农田影像数据集(部分1)作为有标注训练集,吉林一号农田影像数据集(部分2)和献县地区高分二号影像数据集作为无标注影像训练后的总体精度高达88.7%。验证了改进后的半监督学习模型可准确有效提取空间异质性农田特征。  相似文献   

8.
采用分形网络演变技术(FNEA)和eCognition处理平台,结合RapidEye高分辨率多光谱影像遥感影像,对新疆维吾尔自治区内塔里木河流域湿地提取进行研究。塔里木河流域影像覆盖面积较大,信息量丰富,本研究对影像数据进行主成分分析(PCA)处理,采用多尺度分割方法结合ESP分割尺度评价工具获取不同湿地类型最优分割尺度的参数。在FNEA分割结果上根据各湿地类型的光谱、纹理、空间关系分层分类,建立由易到难的分类规则集。结果证明,PCA可以去除影像冗余信息,其第一分量(PC1)与第二分量(PC2)均值可作为湿地提取的主要特征。基于FNEA的多尺度分类法可快速解决研究区内湿地分割尺度问题,准确完成信息的自动识别和提取,总体分类精度达到了87.7%,Kappa系数达到0.842。  相似文献   

9.
针对目前树冠提取中受背景影响和易出现过度分割的问题,首先,采用可见光差异植被指数和双边滤波对传统的单木树冠分割方法进行了改进;然后,以单木树冠为对象提取多维特征,并利用XGBoost算法进行特征重要性排序和特征选择;最后,使用随机森林、支持向量机、人工神经网络3种非参数分类器,设计了12种分类方案,进行了单木树种分类和精度评价。结果表明,改进的单木分割方法可以有效提高树冠提取精度,得到的树冠分割精度在80%以上;将Li DAR数据和航空正射影像相结合,采用XGBoost算法进行特征选择后,使用ANN分类器的分类方案精度最高,总体精度为86.19%,说明多源数据协同作用和特征选择可以提高树种分类精度,在单木尺度上ANN分类器对现有树种类型的分类能力最强。  相似文献   

10.
连接大米籽粒图像的自动分割算法研究   总被引:2,自引:0,他引:2  
分析了单个大米籽粒和连接大米籽粒的轮廓特征,提出了一种基于曲率的分割算法。该算法能够有效地反映边界点尖锐程度的曲率及其方向,根据曲率大小和曲率方向能准确判别图像中大米籽粒是否接触并快速找到分割点。用最短距离配对法对3种接触的大米籽粒进行分割。算法对判别籽粒是否接触的准确率达99%以上,对接触籽粒的准确分割率达95%以上。  相似文献   

11.
为解决自然光照环境下复杂背景葡萄叶片图像的自动分割问题,使用一种DeepLab v3+语义分割算法,完成对葡萄叶片分割。该算法采用ResNet 101作为主干网络进行特征抽取;采用空洞卷积和编码模块进行多尺度特征融合,将ResNet的中间信息和编码模块的特征组合作为解码输入;采用上采样的方式进行尺度还原,得到语义分割结果。采用Cityscapes的预训练模型,将300张不同环境下、不同类型的葡萄叶片照片作为训练集,以数据增强的方式进行数据扩容,提高模型的鲁棒性和泛化能力。试验结果证明:本方法有较好的分割效果,在数据增强的方式下精确度(ACC)平均值为98.6%,较全卷积神经网络提高7.3%。对不同类型葡萄叶片分割精确度(ACC)值均高于97%,最高可达98.8%,平均交并比(mIOU)值均高于94%,最高可达97.1%。本算法能够较精准地分割自然光照条件下的葡萄叶片图像,可为后续的病害检测和病斑提取提供参考。  相似文献   

12.
稻田杂草位置获取是靶向喷施除草剂和机械智能除草的基础,为实现自然光照环境和水田复杂背景下稻田苗期杂草的信息获取。以稻田恶性杂草野慈姑为研究对象,提出一种基于全卷积神经网络的稻田苗期杂草语义分割方法,利用DeepLabV3+对秧苗和杂草进行语义分割进而获取的杂草位置信息。首先人工田间采集稻田苗期杂草野慈姑的RGB图像,通过图像标注工具LabelMe人工标注图像中秧苗、杂草和背景的各个像素点,70%数据集用于DeepLabV3+网络模型参数的训练,30%数据集用于测试DeepLabV3+性能。然后与FCN和U-Net两种语义分割方法进行比较,所提出的DeepLabV3+语义分割方法准确率、均正比、频权交并比和F值等性能指标都最优,试验得出:DeepLabV3+模型像素准确率最高达到92.2%,高于U-Net和FCN方法的准确率92.1%和84.7%。所提出的方法能对稻田苗期杂草、秧苗和背景像素进行准确分割,满足智能除草和除草剂靶向喷施的实际应用需求。  相似文献   

13.
基于融合显著图与GrabCut算法的水下海参图像分割   总被引:1,自引:0,他引:1  
为实现海参捕捞和海参疾病诊断的自动化,应先解决真实养殖环境下海参的图像目标分割问题。为此提出一种融合显著图模型和GrabCut算法的水下海参图像分割方法。该方法改进了传统的GrabCut算法,通过对单尺度Retinex算法分析,对水下图像进行增强,结合基于区域对比度的显著性区域检测方法和直方图均衡的方法,得到海参区域图像的部分前景和可能的背景,并以此初始化GrabCut算法的掩膜,最后进行GrabCut算法迭代,得到图像目标分割结果。通过与Otsu法、分水岭法、传统GrabCut算法对比分析表明:所提方法能够准确分割出图像中海参目标,并能克服背景噪声,保留目标图像细节,算法正确分割率达到90.13%,满足海参图像目标分割的 需要。  相似文献   

14.
为提高田间复杂环境下传统图像分割法分割葡萄果穗图像准确度低的问题,提出一种基于改进红绿色差和Otsu算法的田间葡萄果穗图像分割方法。选取与人类视觉相近的RGB颜色空间,提取并分析R、G特征图的直方图,经分析对其点乘特征图并进行Otsu运算,再经过形态学处理,实现对田间环境下葡萄果穗图像的分割。与灰度图、(R-G)特征图和(R-G)/(R+G)特征图分别采用最大阈值分割法(Otsu)分割的结果进行对比,试验结果表明,红绿色差点乘Otsu分割法的分割结果最优,准确率为92.37%,F1值90.13%。对50幅图像做了测试,其中图像准确率最高为97%,准确率最低为79%,其平均准确率为88.75%。所提出的方法能够实现葡萄果穗较完整的分割,并可为葡萄果穗的识别、定位提供研究基础。  相似文献   

15.
基于视差图像的重叠果实图像分割算法   总被引:3,自引:0,他引:3  
为解决自动采摘视觉系统中重叠果实的分割问题,提出了基于视差图像的果实分割算法。采用双目立体视觉系统获取图像对,对图像对进行预处理和校正,通过图像对的立体匹配来获取视差图像,最后对视差图像进行分割。该算法将分割的依据和信息从二维图像的颜色、形状、纹理等扩展到三维空间的深度,对空间距离不同的目标具有较好的分割效果。实验表明,对获取的视差图像进行基于区域的分割时,其区域间灰度对比度为0.98,目标计数一致性达到0.90;进行基于边缘的分割时,其边缘检测误差为5.74%,因此,该方法对重叠果实区域的分割是有效的。  相似文献   

16.
基于Lab颜色空间的非监督GMM水稻无人机图像分割   总被引:1,自引:0,他引:1  
为解决传统水稻冠层图像分割算法性能在很大程度上依赖于训练数据集的质量,且分割效果易受田间多变光照强度影响,导致水稻生产参数估计精度不高等问题,提出一种基于Lab颜色空间的非监督贝叶斯方法,用于田间水稻无人机图像分割。模型参数从每个独立、未标记的无人机图像直接学习获得,无需训练。不同图像会有不同的模型参数,该算法能够适应各种不同环境拍摄的图像。将提出的算法应用于分蘖后期田间水稻的无人机图像分割,并与RGB-GMM、HSV-GMM和All-GMM算法进行对比,在高度10 m图像中平均查全率、平均查准率和平均F1值分别为0.8427、0.7570和0.7948,在高度15 m图像中分别为0.8756、0.7133和0.7788,优于RGB-GMM、HSV-GMM和All-GMM算法。研究表明,本文提出的方法可以从复杂大田环境拍摄的无人机影像中准确提取水稻像素。  相似文献   

17.
针对多光谱图像中由于多镜头多光谱相机各通道之间存在的偏差以及传统分割方法的不适用,图像分析处理过程往往会出现无法自动化分割或分割精度较低的问题,提出采用基于相位相关算法和基于UNet的语义分割模型对田间生菜多光谱图像进行各个通道的精确配准并实现前景分割。使用Canny算法对多光谱各通道图像进行边缘提取,进而使用相位相关算法对多光谱各通道图像进行配准,单幅图像平均处理时间0.92s,配准精度达到99%,满足后续图像分割所需精度;以VGG16作为主干特征提取网络,直接采用两倍上采样,使最终输出图像和输入图像高宽相等,构建优化的UNet模型。实验结果表明:本文所提出的图像配准和图像分割网络,分割像素准确率达到99.19%,平均IoU可以达到94.98%,能够很好地对生菜多光谱图像进行前景分割,可以为后续研究作物精准表型的光谱分析提供参考。  相似文献   

18.
奶牛身体部位的精准分割广泛应用于奶牛体况评分、姿态检测、行为分析及体尺测量等领域。受奶牛表面污渍和遮挡等因素的影响,现有奶牛部位精准分割方法实用性较差。本研究在YOLO v8n-seg模型的基础上,加入多尺度融合模块与双向跨尺度加权特征金字塔结构,提出了YOLO v8n-seg-FCA-BiFPN奶牛身体部位分割模型。其中,多尺度融合模块使模型更好地提取小目标几何特征信息,双向跨尺度加权特征金字塔结构实现了更高层次的特征融合。首先在奶牛运动通道处采集奶牛侧面图像作为数据集,为保证数据集质量,采用结构相似性算法剔除相似图像,共得到1452幅图像。然后对目标奶牛的前肢、后肢、乳房、尾部、腹部、头部、颈部和躯干8个部位进行标注并输入模型训练。测试结果表明,模型精确率为96.6%,召回率为94.6%,平均精度均值为97.1%,参数量为3.3×106,检测速度为6.2f/s。各部位精确率在90.3%~98.2%之间,平均精度均值为96.3%。与原始YOLO v8n-seg相比,YOLO v8n-seg-FCA-BiFPN的精确率提高3.2个百分点,召回率提高2.6个百分点,平均精度均值提高3.1个百分点,改进后的模型在参数量基本保持不变的情况下具有更强的鲁棒性。遮挡情况下该模型检测结果表明,精确率为93.8%,召回率为91.67%,平均精度均值为93.15%。结果表明,YOLO v8n-seg-FCA-BiFPN网络可以准确、快速地实现奶牛身体部位精准分割。  相似文献   

19.
针对农业领域文本中专业术语类关键词提取困难的问题,本文提出了一种融合新词发现和改进TextRank算法的农业领域关键词提取方法,该算法通过信息熵对文本中的词进行成词概率计算,以此发现领域专有名词和新词,通过人工审核扩充分词字典;同时,在分词字典基础上,改进TextRank算法在词图构建中节点值的计算方法,添加词语位置和词性权重,利用词语综合权重提取文本关键词。通过实验对比,本研究的算法在F值上比传统的TF-IDF算法平均提高了7.5%,比TextRank算法平均提高了9.8%,具有一定的实用性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号