首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 109 毫秒
1.
基于株心颜色的玉米田间杂草识别方法   总被引:5,自引:1,他引:4  
根据3~5叶苗期玉米植株的生长特征及其株心所具有的颜色特征,提出了一种利用玉米植株的株心颜色特征识别玉米田间杂草的方法。玉米植株叶片的颜色是深绿色,而株心区域的颜色是浅绿色,该特征可由反映颜色深浅程度的饱和度指标表达。玉米植株的中心区域具有最大的饱和度值,该特性可用于在利用绿-红指标分割土壤背景后玉米植株的中心区域的提取。对分割后的绿色植株前景而言,与提取的株心区域相连通的区域是玉米植株,反之,非连通区域为杂草。试验结果表明:玉米植株和杂草的正确识别率平均为88%和84%,识别一帧720×576象素的图像的平均时间 120 ms。玉米植株的正确识别率主要受中心区域的完整度影响,而杂草的正确识别率主要受玉米和杂草叶片重叠程度的影响。  相似文献   

2.
基于图像识别技术的夏玉米生育期识别方法初探   总被引:3,自引:0,他引:3  
通过对河南省鹤壁市农业气象试验站夏玉米整个生育期的田间观测,利用"农情1号"田间监测设备定期采集不同生育期玉米的图像资料,分析测点内玉米群体图像特征,结合多种颜色特征参数实现对田间玉米主要生育期的识别。针对玉米不同生育期,分别采用RGB颜色空间提取绿色像素值占整幅图像比例和HSL颜色空间提取黄色像素值占整幅图像比例进行判定;针对田间杂草影响图像颜色的提取,提出基于区域标记的小面积消去算法消除图像中部分杂草的干扰;针对图像中湿润土壤对提取黄色像素值的干扰,提出结合HSL颜色空间S分量消除湿土颜色。经过与人工观测对比,结果表明:利用颜色特征参数对夏玉米主要生育期进行识别是可行的,正确识别率达到94.26%。  相似文献   

3.
基于双注意力语义分割网络的田间苗期玉米识别与分割   总被引:6,自引:6,他引:0  
为实现复杂田间场景中幼苗期玉米和杂草的准确识别与区域划分,该研究提出改进的双注意力语义分割方法,通过获取形态边界实现玉米幼苗的识别与精细分割,在此基础上采用形态学处理方法识别图像中除玉米外的全部杂草区域。首先对6种当前最高性能的语义分割网络进行对比,确定模型原始架构;建立幼苗期玉米语义分割模型,包括改进深层主干网络增强特征,引入双注意力机制构建特征的场景语义依赖关系,以编码器-解码器结构组建模型并增加辅助网络优化底层特征,改进损失函数协调模型整体表现,制定改进的迁移学习策略;提出图像形态学处理方法,基于玉米像素分割结果,生成杂草分割图。测试结果表明,模型的平均交并比、平均像素识别准确率分别为94.16%和95.68%,相比于原网络分别提高1.47%和1.08%,识别分割速度可达15.9帧/s。该研究方法能够对复杂田间场景中的玉米和杂草进行准确识别与精细分割,在仅识别玉米的前提下识别杂草,有效减少图像标注量,避免田间杂草种类的多样性对识别精度的影响,解决玉米与杂草目标交叠在形态边界上难以分割的问题,研究结果可为智能除草装备提供参考。  相似文献   

4.
利用计算机图像处理技术分析了玉米苗期田间杂草的特征量,识别出田间杂草并确定了杂草的位置和生长状况。研究中采用双峰法滤除了土壤背景,根据投影面积、叶长、叶宽识别出了杂草,并且根据杂草投影面积确定出了杂草密度。实验结果表明,此方法可有效地识别出玉米苗期田间细长的单子叶杂草。  相似文献   

5.
基于多光谱图像和数据挖掘的多特征杂草识别方法   总被引:11,自引:10,他引:1  
为满足变量喷洒对杂草识别正确率的要求,提出一种基于多光谱图像和数据挖掘的杂草多特征识别方法。首先对多光谱成像仪获取的玉米与杂草图像从CIR转换到Lab颜色空间,用K-means聚类算法将图像分为土壤和绿色植物,随后用形态学处理提取出植物叶片图像,在此基础上提取叶片形状、纹理及分形维数3类特征,并基于C4.5算法对杂草分别进行单特征和多特征组合的分类识别。试验结果表明,多特征识别率比单特征识别率高,3类特征组合后的识别率最高达到96.3%。为验证该文提出方法的有效性,将C4.5算法与BP算法以及SVM算法进行比较,试验结果表明C4.5算法的平均识别率高于另2种算法,该文提出的田间杂草快速识别方法是有效可行的。该文为玉米苗期精确喷洒除草剂提供技术依据。  相似文献   

6.
玉米苗期杂草的计算机识别技术研究   总被引:14,自引:5,他引:14  
利用计算机视觉技术和人工神经网络技术对识别玉米苗期田间杂草进行了研究。首先利用类间方差最大自动阈值法二值化杂草图像的超绿特征,再进行连续腐蚀与膨胀,然后根据长宽比、圆度、第一不变矩3个形状特征由BP网络识别出玉米幼苗,最后利用种子填充法从阈值分割结果中擦除玉米目标,剩余的就是杂草目标。研究表明,基于BP网络的杂草识别算法对玉米幼苗与杂草的正确识别率分别为87.5%和93.0%,处理一幅640×480像素的杂草图像平均耗时约为58 ms。  相似文献   

7.
基于多特征的田间杂草识别方法   总被引:2,自引:5,他引:2  
该文阐述了通过利用植物的多种特征实现田间杂草的精准自动识别的方法。该方法先利用颜色特征分割土壤背景,然后利用位置和纹理特征识别行间和行内杂草,最后利用形态特征后处理误识别的作物和杂草。在实验室内利用实地采集的3~5叶期、不同作物行数的麦田图像对该方法进行了测试。作物和杂草的正确识别率最低为89%,最高为98%;处理时间最低为157 ms,最高为252 ms。试验结果表明:基于多特征的田间杂草识别方法具有较高的识别率和较快的识别速度。  相似文献   

8.
基于多特征融合和深度置信网络的稻田苗期杂草识别   总被引:9,自引:4,他引:5  
杂草的准确识别是田间杂草精准防控管理的前提,机器视觉技术是实现杂草准确识别的有效手段。该文以水稻苗期杂草为研究对象,采集稻田自然背景下和不同光照条件下的6种杂草图像共928幅,包括空心莲子草、丁香蓼、鳢肠、野慈姑、稗草和千金子。采用1.1G-R颜色因子将杂草RGB图像进行灰度化,选择自动阈值自动分割得到杂草前景二值图像,通过腐蚀膨胀形态学操作进行叶片内部孔洞填充,应用面积滤波去除其他干扰目标,最后将杂草二值图像与RGB图像进行掩膜运算得到去除背景的杂草图像;提取杂草图像的颜色特征、形状特征和纹理特征共101维特征,并对其进行归一化处理。在双隐含层和单隐含层的深度置信网络(deep belief networks,DBN)结构基础上,对DBN隐含层节点数选择方法进行研究。针对双隐含层DBN节点数,选择恒值型、升值型和降值型3种节点组合方式进行优化研究,当网络结构为101-210-55-6时杂草识别率为83.55%;通过对单隐含层节点参数优化得到网络结构为101-200-6时杂草识别率达到91.13%。以同一测试样本的运行时间值作为模型的测试时间对3种不同模型进行耗时测试,SVM模型、BP模型和DBN模型测试结果分别为0.029 7、0.030 6和0.034 1 s,试验结果表明基于多特征融合的DBN模型的识别精度最高,且耗时较其他2种模型相差不大,可满足实时检测的速度要求,所以在实际应用中应优先选择基于多特征融合的DBN模型。该研究可为稻田杂草识别与药剂选择性喷施提供参考。  相似文献   

9.
针对实际复杂田间环境下杂草与作物识别精度低和实时性差的问题,为减少弱光环境对分割识别效果的影响,实现甜菜与杂草的实时精确分割识别,该文首先将可见光图像进行对比度增强,再将近红外与可见光图像融合为4通道图像;将深度可分离卷积以及残差块构成分割识别模型的卷积层,减少模型参数量及计算量,构建编码与解码结构并融合底层特征,细化分割边界。以分割识别精度、参数量以及运行效率为评价指标,通过设置不同宽度系数以及输入图像分辨率选出最优模型。试验结果表明:本文模型的平均交并比达到87.58%,平均像素准确率为99.19%,帧频可达42.064帧/s,参数量仅为525 763,具有较高分割识别精度和较好实时性。该方法有效实现了甜菜与杂草的精确实时识别,可为后续机器人精确除草提供理论参考。  相似文献   

10.
基于颜色特征的棉田绿色杂草图像识别方法   总被引:9,自引:5,他引:4  
为实现棉田精确喷洒除草剂的自动化作业,该文基于颜色特征开展棉田中绿色杂草与棉苗的自动识别研究。利用苗期棉花茎秆呈暗红色的特点,首先使用Otsu法对所获图像的超红特征灰度图像和超绿特征灰度图像进行动态阈值分割,分别获取棉苗茎秆和绿色植物的二值图像。然后从棉苗茎秆二值图像中提取棉苗茎秆坐标,将棉苗茎秆与绿色植物二值图像进行位置信息融合,确定绿色植物二值图像中的棉苗区域,从而识别出各个绿色杂草区域并确定其区域质心和面积。通过15幅棉田绿色杂草图像进行试验表明,在棉苗茎秆不被叶片遮挡以及棉苗和杂草间不出现重叠的情况下,绿色杂草可以完全识别,棉苗的识别率可达到74%以上。  相似文献   

11.
在植物图像实例分割任务中,由于植物种类与形态的多样性,采用全监督学习时人们很难获得足量、有效且低成本的训练样本。为解决这一问题,该研究提出一种基于自生成标签的玉米苗期图像实例分割网络(automatic labelling based instance segmentation network,AutoLNet),在弱监督实例分割模型的基础上加入标签自生成模块,利用颜色空间转换、轮廓跟踪和最小外接矩形在玉米苗期图像(俯视图)中生成目标边界框(弱标签),利用弱标签代替人工标签参与网络训练,在无人工标签条件下实现玉米苗期图像实例分割。试验结果表明,自生成标签与人工标签的距离交并比和余弦相似度分别达到95.23%和94.10%,标签质量可以满足弱监督训练要求;AutoLNet输出预测框和掩膜的平均精度分别达到68.69%和35.07%,与人工标签质量相比,预测框与掩膜的平均精度分别提高了10.83和3.42个百分点,与弱监督模型(DiscoBox和Box2Mask)相比,预测框平均精度分别提高了11.28和8.79个百分点,掩膜平均精度分别提高了12.75和10.72个百分点;与全监督模型(CondInst和Mask R-CNN)相比,AutoLNet的预测框平均精度和掩膜平均精度可以达到CondInst模型的94.32%和83.14%,比Mask R-CNN模型的预测框和掩膜平均精度分别高7.54和3.28个百分点。AutoLNet可以利用标签自生成模块自动获得图像中玉米植株标签,在无人工标签的前提下实现玉米苗期图像的实例分割,可为大田环境下的玉米苗期图像实例分割任务提供解决方案和技术支持。  相似文献   

12.
基于玉米冠层原位监测的全生育期叶色建模及其应用   总被引:2,自引:1,他引:1  
针对田间玉米冠层叶色变化难以定量描述问题,该文利用田问原位冠层监测系统,在摄像机自动曝光模式下连续采集多个玉米品种的冠层图像,揭示了复杂天气条件对图像和玉米冠层颜色的影响.利用概率密度统计分析方法分别计算玉米6个关键生育期的冠层亮度-色度分布,并针对冠层色度具有明确变化趋势且分离度较高的冠层亮度区间,建立了全生育期玉米冠层叶色模型.进而,基于该模型建立了适合不同玉米生育期的冠层图像自动分割方法,将玉米全生育期的冠层图像分割精度提升到82.6%,并揭示了不同品种玉米在叶片发育过程中冠层叶色与叶龄的相关性,利用登海605和农大108的冠层叶色预测出的生育期叶龄均方根误差RMSE (root mean squared error,RMSE)分别为1.14和1.41叶.试验结果表明,该文建立的玉米冠层叶色模型能够较好描述玉米关键生育期的冠层叶色变化规律,对玉米冠层图像分割、生育期估计、玉米品种表型鉴定具有重要意义.  相似文献   

13.
基于深度掩码的玉米植株图像分割模型   总被引:4,自引:4,他引:0  
随着深度学习技术在植物表型检测领域的应用,有监督深度学习逐渐成为植物表型信息的提取与分析的主要方法。但由于植物结构复杂、细节特征多,人工标注的成本和质量问题已成为制约技术发展的瓶颈。该研究针对玉米苗期植株图像分割问题提出一种基于深度掩码的卷积神经网络(Depth Mask Convolutional Neural Network,DM-CNN),将深度图像自动转换深度掩码图像,并替代人工标注样本完成图像分割网络训练。试验结果表明,在相同的网络训练参数下,通过测试DM-CNN得到的平均交并比为59.13%,平均召回率为65.78%,均优于人工标注样本对应的分割结果(平均交并比为58.49%,平均召回率为64.85%);此外,在训练样本中加入10%室外玉米苗期图像后,DM-CNN对室外测试集的平均像素精度可以达到84.54%,证明DM-CNN具有良好的泛化能力。该研究可为高通量、高精度的玉米苗期表型信息获取提供低成本解决方案及技术支持。  相似文献   

14.
基于Swin Transformer模型的玉米生长期分类   总被引:1,自引:1,他引:0  
快速准确识别玉米生长的不同阶段,对于玉米种植周期的高效精准管理具有重要意义。针对大田环境下玉米生长阶段分类辨识易受复杂背景、户外光照等因素影响的问题,该研究采用无人机获取玉米不同生长阶段的图像信息,以苗期、拔节期、小喇叭口期、大喇叭口期4个生长阶段为对象,利用Swin Transformer模型引入迁移学习实现玉米不同生长阶段的快速识别。首先结合玉米垄面走向特性,将训练集旋转8次用以扩充数据集;为探究各模型在非清晰数据集上的表现,采用高斯模糊方法将测试集转换6次;最后以AlexNet,VGG16,GoogLeNet做为对比,评估Swin-T模型性能。试验结果表明,Swin-T模型在原始测试集的总体准确率为98.7%,相比于AlexNet,VGG16,GoogLeNet模型分别高出6.9、2.7和2.0个百分点;在错误分类中,大喇叭口期和小喇叭口期由于冠层特征相似,造成识别错误的概率最大;在非清晰数据集下,AlexNet,VGG16,GoogLeNet模型精度总体退化指数分别为12.4%、10.4%和15.0%,Swin-T模型总体退化指数为8.31%,并且退化均衡度、平均退化指数、最大退化准确率均表现最佳。研究结果表明:在分类精度、模糊图像输入等方面,Swin-T模型能够较好地满足实际生产中,玉米不同生长阶段分类识别的实际需求,可为玉米生长阶段的智能化监测提供技术支撑。  相似文献   

15.
基于图像分块及重构的菠菜重叠叶片与杂草识别   总被引:5,自引:4,他引:1  
针对重叠叶片在识别过程中存在识别率低、形状特征失效等问题,该研究提出一种基于图像分块及重构的方法,实现菠菜重叠叶片杂草识别。采用超绿模型将菠菜RGB图像进行灰度化得到绿色植被前景图像。针对重叠叶片形状特征失效问题,采用图像分块方式得到不同大小的图像块,并提取图像块中作物和杂草的颜色特征、局部二值模式(local binary pattern,LBP)纹理特征、分形盒维数共78维特征,构造支持向量机(support vector machine,SVM)分类器完成图像块的分类识别。该研究提出图像块边缘扩充和投票窗口机制得到重构图实现图像块分类结果可视化。试验结果表明,该研究提出的方法平均识别率达到83.78%,高于K最近邻法(K-Nearest neighbor,KNN)、决策树法等,可以实现重叠叶片的杂草识别,从而为智能除草机的研制提供理论依据。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号