首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
基于改进均值漂移算法的绿色作物图像分割方法   总被引:7,自引:5,他引:2  
针对绿色农作物图像背景复杂且分割难的问题,提出一种基于改进均值漂移算法的分割方法。采用均值漂移算法对图像进行平滑和分割时,带宽的选择直接影响平滑和分割的结果。传统的均值漂移分割方法需要人为地设定空域带宽和值域带宽这2个参数。该文首先根据绿色作物图像的颜色特点,提取图像的颜色指数;然后采用均值漂移算法,将图像的颜色信息与空间信息结合起来,根据作物图像颜色分布的丰富程度定义自适应空域带宽,采用渐近积分均方差来获得自适应值域带宽,对图像进行平滑滤波;最后采用 Otsu 方法将平滑后的图像分成两部分:绿色部分和背景部分。试验结果表明,该方法能够有效地分割出绿色作物,并在分割性能上明显优于常规的颜色指数方法,作物图像的错分率均小于6.5%。  相似文献   

2.
基于高斯HI颜色算法的大田油菜图像分割   总被引:4,自引:3,他引:1  
针对自然条件下光照条件变化给大田油菜图像分割带来的问题,该文研究了油菜图像的高斯HI颜色分割算法,为作物生长发育周期的自动识别提供前期准备。已有统计结果表明,在仅保留绿色作物的图像中,不同色调值的像素数量服从高斯分布。该文将去掉背景信息的样本数据从RGB颜色模型转换至HSI颜色模型后,统计各个光强的所有像素对应的色调值,并计算其期望值和方差,依次得出所有强度所对应色调值的期望值和方差,建立出油菜作物色调强度查找表(hue intensity-look up table)。在此基础上,计算每个像素的色调值和期望值之间的差值,若差值小于阈值,则像素被分割为作物,否则为背景。为了在高斯HI颜色分割算法中确定合适的阈值,该研究选取了45幅不同天气状况(晴天、阴天和雨天)不同发育阶段(苗期、三叶期和四叶期)的油菜图像作为样本,探讨阈值的选取与分割结果的关系。结果表明阈值在[2.4,2.6]内分割效果最佳,油菜目标的形状特征完整度最好。为了对图像分割结果进行评价,分别利用高斯HI颜色模型、CIVE(color index of vegetation extraction)、EXG-EXR(excess green-excess red)、EXG(excess green)和VEG(vegetation)算法对15幅不同天气状况的图像进行分割。从视觉效果上来看,高斯HI算法仅需少量样本,即可达到满意分割效果。与其他方法相比,高斯HI颜色分割算法的误分割率(misclassification error,ME)仅为1.8%,相对目标面积误差(relative object area error,RAE)仅为3.6%,均优于其他4种算法的试验结果。在分割结果稳定性上,高斯HI颜色算法表现最好,其ME和RAE值的标准差最低,分别为0.7%和4.5%。试验结果表明,高斯HI颜色算法能取得较好的分割效果,而且对光照条件变化并不敏感,同时,能够充分保留油菜形状特征的完整性,为后期油菜生长发育周期的自动识别提供可靠数据。  相似文献   

3.
农田图像绿色植物自适应分割方法   总被引:5,自引:4,他引:1  
为了适应不同农田地块自然图像颜色特征固有的差异性,从土壤背景中准确分割出各种绿色植物目标,设计了一种自适应分割方法。首先利用初始有标签训练样本获得支持向量机分割模型,然后根据K均值聚类算法自动从待分割图像中提取无标签训练样本,与有标签训练样本组成混合训练样本集。而后在混合样本集基础上,使用直推式支持向量机训练方法得到新的有标签训练样本集,挖掘出待分割图像颜色特征的分布信息。最后,利用这些新的有标签样本在线自适应更新分割模型。农田图像试验结果显示,该方法可以提高分割模型的针对性,有效地增强了分割过程适应农田自然图像颜色特征差异性的能力。  相似文献   

4.
对土壤背景进行有效分割是玉米苗期田间杂草识别的前提和基础。本研究利用颜色分量G-R和G-B与灰度直方图来实现玉米苗期图像与背景图像的分割,解决了玉米苗期田间杂草识别中受影响及环境适应性差等问题。通过对不同环境下苗期玉米图像的植被颜色和背景颜色分量的统计分析表明,采用G-R和G-B双阈值颜色特征分割,进行土壤背景分离取得了很好的效果。  相似文献   

5.
复杂背景下甜瓜果实分割算法   总被引:5,自引:3,他引:2  
为解决复杂背景下甜瓜果实与背景图像分割的问题,该文提出了一种融合颜色特征和纹理特征的图像分割算法。首先,把采集到的甜瓜果实图像从RGB色彩空间分别转换到CIELAB和HSV色彩空间,应用a*b*分量建立角度模型,根据甜瓜果实的颜色特点选取阈值并对图像作二值化处理;为降低光照分布不均匀对图像分割的影响,采用HSV空间的HS颜色分量对果实图像进行阈值分割。在以上2种色彩空间分割的基础上,融合角度模型分割和HS阈值分割的结果,得到基于颜色特征的分割结果。然后,再按照图像的纹理特征对图像进行分割处理,融合按照颜色特征和纹理特征的分割结果。最后,为解决分割结果中的分割误差和边缘毛刺问题,以颜色特征分割的果实区域为限定条件,对按照融合特征分割的果实区域进行约束性区域生长,得到最终的图像分割结果。为了对该文提出算法的分割效果进行检验,采用超绿阈值分割算法和归一化差异指数算法(NDI)对试验图像进行分割,3种算法的平均检出率分别为83.24%、43.12%、99.09%。对比3种分割算法的检出率和误检率,可以看出,该文提出的算法试验结果明显优于超绿阈值分割算法和归一化差异指数(NDI)分割算法。  相似文献   

6.
基于高斯分布的改进C-V模型植物病斑彩色图像分割   总被引:1,自引:1,他引:0  
为了使C-V模型能够准确快速分割植物病斑图像,该文引入高斯混合模型来构建C-V模型,针对基于加权颜色信息的C-V模型处理时间长,R、G、B通道能量系数难确定等问题,结合高斯混合模型和C-V模型对病叶图像进行分割。先选中病斑区域中一点,以其3×3邻域像素均值作为C-V模型中曲线的内部能量均值;利用高斯混合模型对病斑图像建模,并采用高斯混合模型先验概率初始化C-V模型的水平集函数;最后分别以图像R、G、B通道中目标和背景像素均值的比例作为3个通道的权值,演化水平集函数的分割曲线。试验结果表明,该方法能够有效地分割出植物病斑,并在分割性能上优于基于加权颜色信息的C-V模型及传统C-V模型。本文的研究结果可为植物病斑分割提供参考。  相似文献   

7.
基于RGB-D的肉牛图像全卷积网络语义分割优化   总被引:2,自引:2,他引:0  
基于卷积神经网络的深度学习模型已越来越多的应用于检测肉牛行为。利用卷积操作实现肉牛图像的像素级分割有助于实现远距离、无接触、自动化的检测肉牛行为,为肉牛异常行为早期发现提供必要手段。为了提高复杂背景下肉牛图像语义分割精度,降低上采样过程中的语义分割误差,该文提出基于RGB-D的肉牛图像全卷积网络(fully convolutionalnetworks,FCN)的语义分割优化方法,用深度密度值来量化深度图像中不同像素点是否属于相同类型的概率,并根据深度图像与彩色图像在内容上的互补关系,优化和提升FCN对肉牛图像的语义分割(像素密集预测)精度。通过试验验证,该方法与全卷积网络的最优分割结果相比,可以将统计像素准确率平均提高2.5%,类别平均准确率平均提升2.3%,平均区域重合度平均提升3.4%,频率加权区域重合度平均提升2.7%。试验证明,该方法可以提升全卷积网络模型在复杂背景下肉牛图像语义分割精度。  相似文献   

8.
韩丁  武佩  张强  韩国栋  通霏 《农业工程学报》2016,32(23):168-175
针对内蒙古乌兰察布市荒漠化草原牧草监测与数字化程度较低的问题,该文实现了2种典型牧草的特征提取与图像识别,为多牧草种类识别与草业管理提供依据。利用智能导航车采集草原原始图像,对羊草和灰绿藜2种牧草图像提取RGB与HSV颜色矩特征并建立相应的规则库,数据表明二者的颜色矩特征具有明显区别。采用2G-B-R色差特征的模糊C-均值聚类算法对图像进行背景分割后,构建了一种3层BP神经网络模型,通过主成分分析法(principal component analysis,PCA)将15维输入特征参数降为10维以提高识别速度,且最终的整体识别率达到89.5%,实现了羊草与灰绿藜图像的有效分类识别,同时得到灰绿藜与羊草在测试图像中的植被覆盖度分别约为9.78%、34.21%。试验结果表明,利用颜色矩特征为基础,模糊C-均值聚类算法与BP(back propagation,BP)神经网络模型为分割、识别手段能够有效地实现典型牧草的图像分类研究。自动识别牧草是草业数字化的重要组成部分,可为监测植被物种多样性、草种退化及病虫草害的控制提供科学依据,是实现现代草原生态环境保护,发展草原经济的重要途径。  相似文献   

9.
麦田蚜虫自动计数研究   总被引:1,自引:4,他引:1  
准确估计害虫种群密度是进行虫害预测预报的基础。为了减轻麦蚜虫抽样调查的难度,提高调查的效率和准确性,设计了一套基于计算机视觉技术的蚜虫数量自动计数的新方法。该方法利用麦田中诱集蚜虫的黄色粘板照片作为图像处理的数据源,通过图像分割与连通区域标记算法完成对黄板上蚜虫的自动计数。田间应用的结果表明黄板能较好的诱集到蚜虫,黄板图像单调的背景适合于计算机进行自动计数分析,自动计数的准确率达93.88%以上。  相似文献   

10.
基于高光谱技术的菌落图像分割与计数   总被引:4,自引:4,他引:0  
在平板菌落计数过程中,菌落与背景区域类似的颜色会干扰菌落的准确计数。为了准确测定细菌数,该研究利用高光谱图像技术捕捉成分差异引起的菌落与背景区域光谱特征,并结合化学计量学方法对平板的菌落进行分割并实现计数。采集枯草芽孢杆菌菌落平板的高光谱图像,提取菌落、背景区域的高光谱信息;利用遗传算法结合最小二乘支持向量机建立菌落区域/背景区域判别模型;随后,将菌落平板高光谱图像中每一个像素点对应的光谱信息代入判别模型以判断属于菌落的区域,模型的识别率为97.22%;最后,利用特征波段下的高光谱图像实现菌落的分割及计数,计数平均相对误差值为4.2 %,用时约为10 min。相比较于计算机视觉计数法,菌落计数法的平均相对误差降低了49.4%,结果表明建立的方法有望成为一类新的准确平板菌落计数方法。  相似文献   

11.
自动监测装置用温室粉虱和蓟马成虫图像分割识别算法   总被引:6,自引:5,他引:1  
为了监测温室黄瓜作物虫害种类、数量变化情况以预测虫害发展趋势,该文以粉虱和蓟马为例,提出了一种基于Prewitt、Canny边缘检测算子分割和SVM(support vector machine)的温室粉虱和蓟马诱虫板的图像识别算法。该方法利用HSI(Hue-Saturation-Intensity)颜色空间的I分量与L*a*b*颜色空间的b分量二值图像中害虫目标与背景的高对比性,再分别相应地利用Prewitt算子和Canny算子进行单头害虫边缘分割,再经过形态学处理,最后融合这两幅二值图像完成单头害虫区域的提取。然后提取害虫的5个形态特征(面积、相对面积、周长、复杂度、占空比)及9个颜色特征(Hue-Saturation-Value颜色空间、HSI颜色空间、L*a*b*颜色空间各分量的一阶矩),并对这14个特征参数进行归一化处理,将特征值作为SVM的输入向量,进行温室粉虱和蓟马的诱虫板图像识别。通过分析比较不同向量组合的BP(back propagation)与SVM的害虫识别率、4种不同SVM核函数的害虫识别率,发现颜色特征向量是粉虱和蓟马识别的主成分,且SVM的识别效果优于BP神经网络、线性核函数的SVM分类性能最好且稳定。结果表明:平均识别准确率达到了93.5%,粉虱和蓟马成虫的识别率分别是96.0%和91.0%,能够实现温室害虫的诱虫板图像识别。该研究可以为虫害的监测与预警提供支持,为及时采取正确的防治措施提供重要的理论依据。  相似文献   

12.
基于多特征融合和深度置信网络的稻田苗期杂草识别   总被引:9,自引:4,他引:5  
杂草的准确识别是田间杂草精准防控管理的前提,机器视觉技术是实现杂草准确识别的有效手段。该文以水稻苗期杂草为研究对象,采集稻田自然背景下和不同光照条件下的6种杂草图像共928幅,包括空心莲子草、丁香蓼、鳢肠、野慈姑、稗草和千金子。采用1.1G-R颜色因子将杂草RGB图像进行灰度化,选择自动阈值自动分割得到杂草前景二值图像,通过腐蚀膨胀形态学操作进行叶片内部孔洞填充,应用面积滤波去除其他干扰目标,最后将杂草二值图像与RGB图像进行掩膜运算得到去除背景的杂草图像;提取杂草图像的颜色特征、形状特征和纹理特征共101维特征,并对其进行归一化处理。在双隐含层和单隐含层的深度置信网络(deep belief networks,DBN)结构基础上,对DBN隐含层节点数选择方法进行研究。针对双隐含层DBN节点数,选择恒值型、升值型和降值型3种节点组合方式进行优化研究,当网络结构为101-210-55-6时杂草识别率为83.55%;通过对单隐含层节点参数优化得到网络结构为101-200-6时杂草识别率达到91.13%。以同一测试样本的运行时间值作为模型的测试时间对3种不同模型进行耗时测试,SVM模型、BP模型和DBN模型测试结果分别为0.029 7、0.030 6和0.034 1 s,试验结果表明基于多特征融合的DBN模型的识别精度最高,且耗时较其他2种模型相差不大,可满足实时检测的速度要求,所以在实际应用中应优先选择基于多特征融合的DBN模型。该研究可为稻田杂草识别与药剂选择性喷施提供参考。  相似文献   

13.
基于OpenCV的动态葡萄干色泽实时识别   总被引:1,自引:1,他引:0  
为了实现新疆吐鲁番地区"无核白"葡萄干的自动化色泽识别,该文利用OpenCV对无核白葡萄干的表面色泽识别进行研究,设计了一套可以实时、动态、多条输送通道同时处理的葡萄干色泽识别设备。为保证葡萄干色泽特征提取的正确率,对实时获取的每一帧图像进行预处理,获得平滑无孔洞的葡萄干二值图像;去除每一帧二值图像两侧边缘处不完整的葡萄干轮廓,从而保证获取葡萄干的完整色泽信息;定义图像上、下2部分掩膜,并分别仅保留图像右侧第一个葡萄干轮廓,利用上、下掩膜对每一帧图像分别处理,实现2条输送带上葡萄干的同时识别,以提高葡萄干色泽识别效率;在HSV空间下对保留的图像右侧第一颗葡萄干提取各通道的均值,以绿色、黄色、褐色葡萄干各40粒进行测试取值,统计数据并分析,确定色调通道H值23、亮度通道V值80为阈值进行葡萄干色泽识别;以3种颜色葡萄干各150粒分3次进行试验,结果表明,绿、黄、褐色葡萄干的识别正确率分别为89.33%,92.00%和96.67%,识别效率为21s/百粒葡萄干,识别方法简单有效。该方法的识别效率高于人工分选方式的110s/百粒葡萄干,但识别正确率低于人工分选方式的100%;相比于现有研究方法对各色葡萄干93%以上的识别正确率,该识别方法对褐色葡萄干的识别正确率较高,但对黄、绿色葡萄干的识别正确率较低;市场上现有的葡萄干分级设备使用的识别方法几乎无法区分黄、绿色葡萄干,与其相比,该文提供了一个可以较好区分黄、绿色葡萄干的方法。该文基于OpenCV设计的葡萄干色泽识别算法具有分选可行性和较好的识别正确率,可为后续分选执行机构和控制系统的搭建提供算法基础,为葡萄干色选的商业化提供算法参考。  相似文献   

14.
重叠蜜柚目标的准确分离和蜜柚果梗的定位是实现采摘自动化必须解决的两个关键问题。现有的苹果、柑橘等重叠果实分离方法不适用于重叠蜜柚,且无果梗定位功能。针对以上问题,本文提出了一种结合渐进式中心定位的重叠蜜柚分离方法和果梗定位方法。首先利用主成分分析方法提取蜜柚区域、滤除背景并对图像中的重叠蜜柚进行初步分离;接着,对重叠蜜柚区域采用渐进式中心定位方法得到各个蜜柚的中心;然后,利用区域边缘点到其相应的不同中心点的距离大小的变化规律实现重叠蜜柚的分离;最后,利用前述的中心点结合蜜柚的形状特征,定位出遮挡程度较小的蜜柚果梗。在50张自然场景下的图像上进行试验,结果表明在有阴影、小目标、遮挡和重叠等复杂环境下,该方法的平均识别率为94.02%。同时,对于果梗未被遮挡且离摄像头较近的蜜柚,也给出了准确的果梗区域。在利用蜜柚模型搭建的识别自动化试验平台上进行试验,结果表明采摘机器人能够有效识别并分离重叠蜜柚、定位果梗。本研究可为蜜柚采摘机器人准确识别重叠果实提供参考。  相似文献   

15.
基于稀疏编码金字塔模型的农田害虫图像识别   总被引:6,自引:4,他引:2  
相较于一般物体的图像,农作物害虫图像因具有复杂的农田环境背景,分类与识别更加困难。为提高害虫图像识别的准确率,该文提出一种基于图像稀疏编码与空间金字塔模型相结合的害虫图像表示与识别方法。该方法利用大量非标注的自然图像块构造过完备学习字典,并运用该学习字典实现对害虫图像的多空间稀疏表示。与此同时,结合多核学习,该文设计了一种害虫图像识别算法。通过对35种害虫的识别,试验结果表明:在相同方法下,该文所提特征提取方法可使平均识别精度提高9.5百分点;此外,进一步通过对221种昆虫及20种蝴蝶的识别,试验结果表明:与传统方法相比较,该文所提方法使得平均识别精度提高14.1百分点。  相似文献   

16.
昆虫数字图像的分割技术研究   总被引:17,自引:4,他引:17  
以棉铃虫为例,利用数字图像技术对昆虫图像的分割技术进行了研究。主要介绍了简单直方图分割算法、最佳熵阈值分割算法、模糊集合熵阈值分割算法以及极小误差法阈值分割算法。结果表明,简单直方图分割算法和模糊集合熵阈值分割算法能够获得较好的分割结果,其中模糊集合熵阈值分割算法获得的分割结果更符合实际需要。而最佳熵阈值分割结果因为包含了太多的背景像素而最不符合实际需要,极小误差阈值分割结果则难以反映出棉铃虫鳞翅上的斑纹特征,不符合进一步特征提取的要求。  相似文献   

17.
基于补偿模糊神经网络的脐橙不同病虫害图像识别   总被引:7,自引:5,他引:2  
为了开发脐橙不同病虫害的通用机器识别技术,对病虫害危害后的脐橙图像进行蓝色分量去背景,改进型分水岭算法提取病虫害为害状边界,据此边界对原彩色图像中的为害状进行标记,以标记区红色、绿色、蓝色分量表征病虫害为害状的颜色特征,为害状边界分形维数表征病虫害为害状的形状特征,将这4个特征值作为补偿模糊神经网络输入,建立补偿模糊神经网络脐橙病虫害识别模型,识别脐橙病虫害。4种病虫害及机械损伤果的平均正确识别率为85.51%,该方法可用于脐橙病虫害识别。  相似文献   

18.
基于K-means聚类的柑橘红蜘蛛图像目标识别   总被引:6,自引:3,他引:3  
为快速检测红蜘蛛虫害,该研究采用基于Lab颜色模型中a(红/绿)、b(黄/蓝)层信息的K-means聚类法识别彩色图像中的红蜘蛛。试验选取8幅具有不同清晰度的柑橘红蜘蛛图像,采用基于Sobel边缘检测算子的评价函数计算图像清晰度评价值以评价图像清晰度,对比采用灰度法和包含2、3、4或5个聚类中心的K-means聚类法的目标识别效果和识别效率。结果表明,灰度法对8幅图像中红蜘蛛目标识别率平均值为29%,误判率平均值为201%,无法应用于复杂背景图像中的红蜘蛛目标识别。包含5个聚类中心的K-means聚类法对清晰度较高的图像识别率为100%,误判率为0,对清晰度较低的图像识别率为88%,误判率为0;当图像尺寸较小时,包含4个聚类中心的K-means聚类法识别效率与灰度法相当;当图像尺寸较大时,重复计算聚类中心导致识别耗时较长;基于Lab颜色空间的识别算法无法有效识别其他颜色的红蜘蛛,继续研究的方向为引入红蜘蛛形态信息以提高识别准确率和优化聚类中心的选取以降低识别耗时。  相似文献   

19.
基于图像频谱特征的稻飞虱识别方法   总被引:2,自引:2,他引:0  
为准确、快速的识别稻飞虱种类,采用自行设计的野外环境昆虫图像采集装置获取稻飞虱背部图像,通过对背景与目标像素的统计,选取140为阈值,对稻飞虱图像的蓝色通道进行二值化,将背景与目标分割开,采用形态学滤波以及开运算,与灰度图像进行与操作,获取单个稻飞虱虫体背部区域的灰度图像。然后对灰度图像进行二维傅里叶变换,获得虫体背部图像的二维傅里叶频谱。最后以ll(l=1,2,…,6)的二维频谱窗口数据作为稻飞虱特征参数,建立Fisher判别函数。训练集和验证集的试验结果表明,选用33二维傅里叶频谱窗口数据建立的判别模型,稻飞虱正确识别率可达到90%以上。该方法可以实现田间稻飞虱的自动识别。  相似文献   

20.
基于朴素贝叶斯分类器的棉花盲椿象危害等级识别   总被引:1,自引:5,他引:1  
针对自然条件下棉花盲椿象危害区域提取和危害等级识别难的问题,提出了棉花盲椿象危害等级自动识别方法。该方法以自然条件下采集的不同盲椿象危害等级棉叶图像为对象,利用最大类间方差阈值分割和多颜色分量组合方法进行作物与土壤分离和病斑分割,并利用分水岭分割方法对粘连棉叶进行分离并提取盲椿象危害棉叶区域,提取图像的颜色、纹理和形状特征,结合朴素贝叶斯分类器,依据划分的棉花盲椿象危害等级标准,对盲椿象危害等级进行识别。不同盲椿象危害等级识别试验结果表明:该模型平均识别正确率达90.0%,通过比较试验表明,该模型在识别精度比BP神经网络高2.5%,运行速度比支持向量机高11.7%,可较好的对棉花盲椿象危害等级进行识别,可为棉花盲椿象的防治提供技术支持。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号