首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 140 毫秒
1.
针对农作物禾苗和杂草辨识和定位不精确,会造成除草机器人除草不净、伤害禾苗、影响产量等问题,提出了一种基于骨架提取算法的作物茎秆中心识别与定位的多级图像识别方法。该方法通过不同图像处理算法的多级式递进融合,实现对农作物茎秆的精确识别与中心定位。首先将采集到的彩色图像转换到HSV颜色空间进行背景分割。然后采用腐蚀算法对图像进行腐蚀操作,腐蚀掉杂草图像信息得到仅含作物的图像信息,最后用Zhang-Suen细化算法对作物图像进行骨架提取操作,并对骨架交叉点进行计算分析,识别与定位作物茎秆中心,实现作物精准辨识和定位。对采集的100幅苗期图像进行实验测试,结果表明农作物禾苗茎秆中心识别和定位精度误差小于12mm。本文方法能实时精准辨识禾苗和杂草,并对禾苗进行精准定位,为实现田间机械化除草提供了一种精准可靠的作物识别和定位方法。  相似文献   

2.
基于轻量卷积结合特征信息融合的玉米幼苗与杂草识别   总被引:5,自引:0,他引:5  
孟庆宽  张漫  杨晓霞  刘易  张振仪 《农业机械学报》2020,51(12):238-245;303
针对自然环境下作物与杂草识别精度低、实时性和鲁棒性差等问题,以幼苗期玉米及其伴生杂草为研究对象,提出一种基于轻量卷积神经网络结合特征层信息融合机制的改进单步多框检测器(Single shot multibox detector,SSD)模型。首先,采用深度可分离卷积结合压缩与激励网络(Squeeze and excitation networks,SENet)模块构建轻量特征提取单元,在此基础上通过密集化连接构成轻量化前置基础网络,替代标准SSD模型中的VGG16网络,以提高图像特征提取速度;然后,基于不同分类特征层融合机制,将扩展网络中深层语义信息与浅层细节信息进行融合,融合后的特征图具有足够的分辨率和更强的语义信息,可以提高对小尺寸作物与杂草的检测准确率。试验结果表明,本文提出的深度学习检测模型对自然环境下玉米及其伴生杂草的平均精度均值为88.27%、检测速度为32.26f/s、参数量为8.82×10.6,与标准SSD模型相比,精度提高了2.66个百分点,检测速度提高了33.86%,参数量降低了66.21%,同时对小尺寸目标以及作物与杂草叶片交叠情况的识别具有良好的鲁棒性与泛化能力。本文方法可为农业自动化精准除草提供技术支持。  相似文献   

3.
使用深度学习精准识别杂草实现使用农药减量、增效、安全的目标受到研究人员的广泛关注。因此综述近年来国内外使用深度学习算法对不同作物的杂草进行识别检测的研究进展,重点从数据获取、算法选择、优化部分、识别效果等方面总结研究现状,指出其在数据集建立费时费力、田间识别精度低、算法设备部署困难、实时性与准确率不能兼得等方面的问题,并提出解决方案,同时展望数据集建立简易和准确,算法模型结构轻量和鲁棒性强,便于部署移动设备的发展趋势以及未来应用的方法,为后续杂草精准化清除研究提供参考。  相似文献   

4.
基于视觉的苗期作物目标识别技术逐渐成熟,对作物进行准确识别和精准定位,是实现株间除草的技术关键和难点。本文以苗期玉米为研究对象,提出了一种苗期作物的识别与定位方法,通过作业车辆的图像采集装置来实时获取田间作物的苗期图像,基于HSV色彩空间对输入图像进行预处理,根据作物与土壤背景颜色差异,选取固定取值范围的三通道阈值,通过二值化处理去除土壤背景,再通过深度开运算来去除杂草噪声,对得到的苗期作物提取轮廓信息,经过骨架提取算法后得到作物骨架,并以此确定作物茎秆位置坐标,从而实现对作物的精准定位。作物图像中幼苗的识别率为98.3%,定位误差距离在10 mm以内的定位精准度为85.9%,基本可以满足智能除草机器人实时除草作业要求。  相似文献   

5.
为监测并改善田间生物环境系统的现状,利用图像处理技术对田间的植被覆盖率进行计算分析。田间植被分为作物和杂草两大类,因此杂草识别是计算面积的前提。采用Canny边缘检测法获取植被的特征参数并建立基础数据库作为模型建立的依据;建立基于遗传算法的植被识别模型,并与传统神经网络识别算法的错误率和迭代次数进行对比,识别结果证实遗传算法具有一定的优越性。  相似文献   

6.
利用叶片形状特征区分杂草和作物是杂草识别的一个重要方法。为了提高杂草识别的精度和效率,通过形态学运算和基于距离变换的阈值分割方法分离交叠叶片,从单个叶片中提取包括几何特征和矩特征的17个形状特征,用蚁群优化(ACO)算法和支持向量机(SVM)分类器进行特征选择和分类识别,选取有利于分类的较优特征并实现特征的优化组合。棉田杂草试验结果表明,该方法能实现分类特征的有效缩减,经优化组合得到的最优特征子集用于杂草识别的准确率达95%以上,识别率高,稳定性好,对识别杂草时如何兼顾准确率和实时性具有参考意义。  相似文献   

7.
基于Faster R-CNN的田间西兰花幼苗图像检测方法   总被引:4,自引:0,他引:4  
为解决自然环境下作物识别率不高、鲁棒性不强等问题,以西兰花幼苗为研究对象,提出了一种基于Faster R-CNN模型的作物检测方法。根据田间环境特点,采集不同光照强度、不同地面含水率和不同杂草密度下的西兰花幼苗图像,以确保样本多样性,并通过数据增强手段扩大样本量,制作PASCAL VOC格式数据集。针对此数据集训练Faster R-CNN模型,通过设计ResNet101、ResNet50与VGG16网络的对比试验,确定ResNet101网络为最优特征提取网络,其平均精度为90. 89%,平均检测时间249 ms。在此基础上优化网络超参数,确定Dropout值为0. 6时,模型识别效果最佳,其平均精度达到91. 73%。结果表明,本文方法能够对自然环境下的西兰花幼苗进行有效检测,可为农业智能除草作业中的作物识别提供借鉴。  相似文献   

8.
传统田间除草方法需要大量人力和时间,而且存在一定安全隐患。而智能除草技术则能够自动识别和定位田间杂草,进行精准喷洒除草剂,不仅能够提高工作效率,还能够降低人员接触除草剂的风险。该文提出一种基于安卓系统的智能除草技术。该技术结合了机器视觉和深度学习算法,能够自动识别和定位田间杂草,并通过控制机器人手臂和喷雾器进行精准喷洒除草剂,实现了高效、精准、自动化的除草效果,同时提高了除草效率和可靠性。田间试验结果表明,该系统能够有效除去田间杂草,并且具有较高的准确性和稳定性,为农田的维护和管理提供了一种新的解决方案。  相似文献   

9.
对行喷雾技术可提高农药的利用率,有利于保护环境和减少农药残留。本文搭建基于机器视觉的大田甘蓝对行喷雾控制系统。通过改进的ExG算法提取颜色信息,采用最大类间方差法和形态学的开闭运算分割作物与背景。提出甘蓝作物行定位与多作物行自适应ROI提取方法,在条带分割的ROI内基于限定阈值垂直投影对特征点集进行采集,通过最小二乘法对特征点集进行线性拟合得到作物行中心线。利用中心线几何关系得到作物行偏移信息,根据对行机构的运动特性建立对行偏移补偿模型,并设计基于PID轨迹追踪算法的对行喷雾控制系统。试验结果表明,实验室作物行识别准确率为95.75%,算法平均耗时为77ms。在田间试验中,识别算法在时间段09:00—11:00、14:00—16:00内测试效果最佳,识别偏差均值保持在2.32cm以下。针对不同范围的杂草测试中,算法平均识别成功率为95.56%,说明算法具有较强的鲁棒性。在与其他识别算法对比测试中,本文算法平均耗时最短,识别成功率最高,能够为实时作业提供视觉引导。在对行喷雾控制系统田间试验中,对行准确率达到93.33%,对行控制算法可将对行偏差控制在1.54cm,满足田间实际应用要求。  相似文献   

10.
对行喷雾技术可提高农药的利用率,有利于保护环境和减少农药残留。本文搭建基于机器视觉的大田甘蓝对行喷雾控制系统。通过改进的ExG算法提取颜色信息,采用最大类间方差法和形态学的开闭运算分割作物与背景。提出甘蓝作物行定位与多作物行自适应ROI提取方法,在条带分割的ROI内基于限定阈值垂直投影对特征点集进行采集,通过最小二乘法对特征点集进行线性拟合得到作物行中心线。利用中心线几何关系得到作物行偏移信息,根据对行机构的运动特性建立对行偏移补偿模型,并设计基于PID轨迹追踪算法的对行喷雾控制系统。试验结果表明,实验室作物行识别准确率为95.75%,算法平均耗时为77 ms。在田间试验中,识别算法在时间段09:00—11:00、14:00—16:00内测试效果最佳,识别偏差均值保持在2.32 cm以下。针对不同范围的杂草测试中,算法平均识别成功率为95.56%,说明算法具有较强的鲁棒性。在与其他识别算法对比测试中,本文算法平均耗时最短,识别成功率最高,能够为实时作业提供视觉引导。在对行喷雾控制系统田间试验中,对行准确率达到93.33%,对行控制算法可将对行偏差控制在1.54 cm,满足田间实际应用要...  相似文献   

11.
基于多特征的杂草逆向定位方法与试验   总被引:1,自引:0,他引:1  
提出了一种基于多特征的杂草逆向定位方法。以田间作物作为研究对象,将多目标杂草定位问题转换为单目标的作物定位问题。采用作物叶片HU不变矩与形状特征的识别准确定位出每一株作物,然后基于颜色特征将作物区域以外的绿色植物均认定为杂草。设计了一款小型杂草定位装置,并应用在宽幅喷药机上。田间试验结果表明,在喷药机工作速度为5 km/h时,该系统对于大豆田间杂草识别的准确率为90%以上,较好地解决了杂草定位与精细喷洒农药问题。  相似文献   

12.
冀汶莉  刘洲  邢海花 《农业机械学报》2024,55(1):212-222,293
针对已有杂草识别模型对复杂农田环境下多种目标杂草的识别率低、模型内存占用量大、参数多、识别速度慢等问题,提出了基于YOLO v5的轻量化杂草识别方法。利用带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration,MSRCR)增强算法对部分图像数据进行预处理,提高边缘细节模糊的图像清晰度,降低图像中的阴影干扰。使用轻量级网络PP-LCNet重置了识别模型中的特征提取网络,减少模型参数量。采用Ghost卷积模块轻量化特征融合网络,进一步降低计算量。为了弥补轻量化造成的模型性能损耗,在特征融合网络末端添加基于标准化的注意力模块(Normalization-based attention module,NAM),增强模型对杂草和玉米幼苗的特征提取能力。此外,通过优化主干网络注意力机制的激活函数来提高模型的非线性拟合能力。在自建数据集上进行实验,实验结果显示,与当前主流目标检测算法YOLO v5s以及成熟的轻量化目标检测算法MobileNet v3-YOLO v5s、ShuffleNet v2-YOLO v5s比较,轻量化后杂草识别模型内存占用量为6.23MB,分别缩小54.5%、12%和18%;平均精度均值(Mean average precision,mAP)为97.8%,分别提高1.3、5.1、4.4个百分点。单幅图像检测时间为118.1ms,达到了轻量化要求。在保持较高模型识别精度的同时大幅降低了模型复杂度,可为采用资源有限的移动端设备进行农田杂草识别提供技术支持。  相似文献   

13.
随着智慧农业技术和大田种植技术的不断发展,自动除草具有广阔的市场前景。关于除草剂自动喷洒的有效性,农田杂草的精准、快速地识别和定位是关键技术之一。基于此提出一种改进的YOLOv5算法实现农田杂草检测,该方法通过改进数据增强方式,提高模型泛化性;通过添加注意力机制,增强主干网络的特征提取能力;通过改进框回归损失函数,提升预测框的准确率。试验表明,在芝麻作物和多种杂草的复杂环境下,本文方法的检测平均精度均值mAP为90.6%,杂草的检测平均精度AP为90.2%,比YOLOv5s模型分别提高4.7%和2%。在本文试验环境下,单张图像检测时间为2.8 ms,可实现实时检测。该研究内容可以为农田智能除草设备提供参考。  相似文献   

14.
基于激光雷达的农业机器人果园树干检测算法   总被引:4,自引:0,他引:4  
针对丘陵山区果园中的斜坡及杂草影响果树检测精度的问题,提出了一种基于激光雷达的树干检测算法。首先,利用单线激光雷达获取环境信息,通过数据预处理滤除噪声点及无法利用的数据点,以树干为目标设定聚类半径,根据数据点到激光雷达的距离自适应设定聚类阈值,完成初步聚类;然后,利用初步聚类结果及地面类内数据点量大、且大致呈一条直线的特征,将数据点超过一定数量的类进行二次曲线拟合,将拟合半径大于一定阈值的类视为地面干扰,并将其剔除;最后,利用杂草枝叶类中数据点之间距离不连续的特征,将存在一定数量的相邻数据点距离较大的类视为杂草枝叶类,并将其剔除,从而完成对果园中果树树干的检测。结果表明:在无干扰情况下,对树干的误检率为0.76%、漏检率为1.90%,平均正确率为97.3%;在只存在地面干扰的情况下,树干检测平均正确率为96.1%;在只存在杂草干扰的情况下,树干检测平均正确率为91.4%;在同时存在地面和杂草干扰的情况下,树干检测平均正确率为91.9%,综合以上各种情况的树干检测平均正确率为95.5%,该方法可用于丘陵山区树干较明显的乔化果园中的树干检测,为精准农业装备在丘陵山区果园中的导航应用提供参考。  相似文献   

15.
基于优化Faster R-CNN的棉花苗期杂草识别与定位   总被引:2,自引:0,他引:2  
为解决棉花苗期杂草种类多、分布状态复杂,且与棉花幼苗伴生的杂草识别率低、鲁棒性差等问题,以自然条件下新疆棉田棉花幼苗期的7种常见杂草为研究对象,提出了一种基于优化Faster R-CNN和数据增强的杂草识别与定位方法。采集不同生长背景和天气条件下的杂草图像4694幅,对目标进行标注后,再对其进行数据增强;针对Faster R-CNN模型设计合适的锚尺度,对比VGG16、VGG19、ResNet50和ResNet101这4种特征提取网络的分类效果,选定VGG16作为最优特征提取网络,训练后得到可识别不同天气条件下的棉花幼苗与多种杂草的Faster R-CNN网络模型。试验表明,该模型可对杂草与棉花幼苗伴生、杂草分布稀疏或分布紧密且目标多等情况下的杂草进行有效识别与定位,优化后的模型对单幅图像平均识别时间为0.261s,平均识别精确率为94.21%。在相同训练样本、特征提取网络以及环境设置条件下,将本文方法与主流目标检测算法——YOLO算法和SSD算法进行对比,优化后的Faster R-CNN模型具有明显优势。将训练好的模型置于田间实际环境进行验证试验,识别过程对采集到的150幅有效图像进行了验证,平均识别精确率为88.67%,平均每幅图像耗时0.385s,说明本文方法具有一定的适用性和可推广性。  相似文献   

16.
基于纹理和位置特征的麦田杂草识别方法   总被引:14,自引:5,他引:14  
以化学防除适期麦田杂草为研究对象,对利用条播作物的位置和纹理特征识别田间杂草的方法进行了研究。根据条播作物小麦作物行的间距相对固定等位置特征,利用植物像素直方图法确定作物行的中心线和行宽,并识别行间杂草。然后,以作物行中心为基准来选取纹理块,计算量化级数为8级的H颜色空间的共生矩阵,提取5个纹理特征参数,利用K均值聚类法判别分析各块的类别来识别行内杂草。研究结果表明,杂草的正确识别率约为93%,作物的错误识别率约为7%。  相似文献   

17.
针对大田作物行特征复杂多样,传统作物行识别方法鲁棒性不足、参数调节困难等问题,该研究提出一种基于特征工程的大田作物行识别方法。以苗期棉花作物行冠层为识别对象,分析作物行冠层特点,以RGB图像和深度图像为数据来源,建立作物行冠层特征表达模型。运用特征降维方法提取作物行冠层的关键特征参数,降低运算量。基于支持向量机技术建立作物行冠层特征分割模型,提取作物行特征点。结合随机抽样一致算法和主成分分析技术建立作物行中心线检测方法。以包含不同光照、杂草、相机位姿的棉花作物行图像为测试数据,运用线性核、径向基核和多项式核的支持向量机分类器开展作物行冠层分割试验;对比分析典型Hough变换、最小二乘法和所建作物行中心线检测方法的性能。结果表明,径向基核分类器的分割精度和鲁棒性最优;所建作物行中心线检测方法的精度和速度最优,航向角偏差平均值为0.80°、标准差为0.73°;横向位置偏差平均值为0.90像素,标准差为0.76像素;中心线拟合时间平均值为55.74ms/f,标准差为4.31ms/f。研究成果可提高作物行识别模型的适应性,减少参数调节工作量,为导航系统提供准确的导航参数。  相似文献   

18.
为精准化管理果园,针对存在裸露土壤、遮蔽物、果树冠层阴影和杂草等复杂环境下难以提取导航线问题,通过无人机搭载多光谱相机获取苹果园影像数据后提取果树像元并进行全局果树行导航线提取。通过处理多光谱影像数据得到正射影像图(DOM)、数字表面模型(DSM)图像,选取并计算易于区分杂草与苹果树的归一化差异绿度指数(NDGI)、比值植被指数(RVI)分布图,构建DSM、NDGI、RVI融合图像后,综合利用过绿植被(EXG)指数和归一化差异冠层阴影指数(NDCSI)以阈值分割法剔除融合图像中土壤、遮蔽物、阴影等像元,降低非植被像元对果树提取的干扰。对比使用支持向量机(SVM)法、随机森林(RF)法和最大似然(MLC)法分别提取最终融合图像和普通正射影像中的苹果树像元,并计算混淆矩阵评价各识别精度。试验表明,MLC法对融合图像中果树的识别效果最优,其用户精度、制图精度、总体分类精度、Kappa系数分别为88.57%、93.93%、93.00%、0.8824;相对于普通正射影像,本文构建的最终融合图像使3种方法的识别精度均得到有效提升。其中,融合图像对RF法的用户精度提升幅度最大,为27.12个百分点;对SVM法的制图精度提升幅度最大,为9.03个百分点;对3种方法的总体分类精度提升幅度最低为13个百分点;对SVM法的Kappa系数提升幅度最大,为22.55%,且对其余两种方法的提升也均在20%以上。将本文得到的苹果树像元提取结果图像做降噪、二值化、形态学转换等处理后,以感兴趣区域划分法提取各果树行特征点,并以最小二乘法拟合各行特征点得到导航线,其平均角度偏差为0.5975°,10次测试整体平均用时为0.4023s。所提方法为复杂环境中果树像元和果树行导航线提取提供了重要依据。  相似文献   

19.
基于深度学习的无人机遥感生态灌区杂草分类   总被引:1,自引:0,他引:1  
为了更好地推进生态灌区建设,对灌区内杂草进行检测、控制,提出一种基于卷积神经网络的杂草分类和密度测算方法.通过无人机低空拍摄采集3种杂草(藜草、葎草、苍耳)和3种作物(小麦、花生、玉米)作为数据集,经过裁剪、灰度化等前期处理,并通过旋转方式扩充数据集,最后收集17 115张训练样本和750张测试样本,然后将训练集输送给卷积神经网络,采用softmax回归,实现6类植物的分类.为降低网络参数,文中试验了100×100和300×300不同分辨率图像对识别精度的影响,分类结果表明300×300分辨率时识别率最高可达到95.6%.另外为实现针对特定杂草的防控,提出了一种检测单一杂草密度的方法,可实现对灌区内各种杂草的精确监控,为后期杂草防控的精准施药提供依据,对实现高效、绿色、安全的现代农业具有重要理论意义和实用价值.  相似文献   

20.
稻田杂草位置获取是靶向喷施除草剂和机械智能除草的基础,为实现自然光照环境和水田复杂背景下稻田苗期杂草的信息获取。以稻田恶性杂草野慈姑为研究对象,提出一种基于全卷积神经网络的稻田苗期杂草语义分割方法,利用DeepLabV3+对秧苗和杂草进行语义分割进而获取的杂草位置信息。首先人工田间采集稻田苗期杂草野慈姑的RGB图像,通过图像标注工具LabelMe人工标注图像中秧苗、杂草和背景的各个像素点,70%数据集用于DeepLabV3+网络模型参数的训练,30%数据集用于测试DeepLabV3+性能。然后与FCN和U-Net两种语义分割方法进行比较,所提出的DeepLabV3+语义分割方法准确率、均正比、频权交并比和F值等性能指标都最优,试验得出:DeepLabV3+模型像素准确率最高达到92.2%,高于U-Net和FCN方法的准确率92.1%和84.7%。所提出的方法能对稻田苗期杂草、秧苗和背景像素进行准确分割,满足智能除草和除草剂靶向喷施的实际应用需求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号