首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 171 毫秒
1.
为了满足现代农业精准施药技术中导航路径识别的需要,该文提出一种基于最大正方形的玉米作物行骨架提取算法。首先对采集到的田间玉米作物行图像进行灰度变换,采用改进的过绿灰度化算法使作物行与背景明显分割开来;然后通过滤波、阈值分割得到二值图像;而后对经过预处理后的二值图像进行形态学中的闭运算操作,得到玉米作物行的轮廓;最后利用最大正方形准则提取玉米作物行骨架。为了验证该算法的准确度,对提取的玉米作物行骨架进行直线拟合操作,利用拟合出的中央作物行线与实际导航线偏差的大小来判断骨架提取的精准度。试验结果表明,该算法能保持骨架像素的单一性,对边缘噪声具有很强的抗干扰能力,提取骨架的误差小于5 mm,能够满足玉米对行精准施药的需求。  相似文献   

2.
针对传统作物行识别方法在相邻图像间的识别结果偏差较大,作物行的定位精度和稳定性低等问题,该研究提出一种基于双目视觉和自适应Kalman滤波技术的作物行识别与跟踪方法。对于作物行识别,首先建立图像预处理算法,基于改进的超绿-超红模型和最大类间方差法分割植被灰度特征;建立作物行特征提取算法,基于特征点检测技术和双目视差测距方法计算植被角点特征的三维坐标,根据三维阈值提取作物行特征点,进而建立作物行中心线检测算法,建立基于主成分分析的直线拟合模型,根据作物行特征点的频数统计规律检测作物行冠层中心线。对于作物行跟踪,建立跟踪目标规划模型,提取位于图像中央区域的作物行作为跟踪目标;建立目标状态方程,基于自适应Kalman滤波技术构建作物行中心线跟踪模型。以棉花图像开展试验研究,图像数据包括阴影、杂草、地头等田间场景。试验结果表明,该研究方法的作物行识别准确度、精度和速度均较高,识别正确率约为92.36%,平均航向偏差为0.31°、标准差为2.55°,平均识别速度约80.25 ms/帧;经目标跟踪后,航向角和横向位置估计的标准差分别为2.62°和0.043 m、较无跟踪状态分别减小22.94%和10.42%,作物行中心线的方位估计精度进一步提高。研究成果可为导航系统提供连续、稳定的作物行导引参数。  相似文献   

3.
缺株玉米行中心线提取算法研究   总被引:1,自引:1,他引:0  
无人驾驶农机自主进行行驶路径检测和识别系统需要具备环境感知能力。作物行的中心线识别是环境感知的一个重要方面,已有的作物行中心线识别算法在缺株作物行中心线提取中存在检测精度低的问题。该研究提出了一种能够在缺株情况下提取玉米作物行中心线的算法。首先采用限定HSV颜色空间中颜色分量范围的方法将作物与背景分割,通过形态学处理对图像进行去噪并填补作物行空洞;然后分别在图像底部和中部的横向位置设置条状感兴趣区(Region of Interest,ROI),提取ROI内的作物行轮廓重心作为定位点。在图像顶端间隔固定步长设置上端点,利用定位点和上端点组成的扫描线扫描图像,通过作物行区域最多的扫描线即为对应目标作物行的最优线;将获取的最优线与作物行区域进行融合填充作物行中的缺株部位;最后设置动态ROI,作物行区域内面积最大轮廓拟合的直线即为目标作物行中心线。试验结果表明,对于不同缺株情况下的玉米图像,该算法的平均准确率达到84.2%,每帧图像的平均检测时间为0.092 s。该研究算法可提高缺株情况下的作物行中心线识别率,具有鲁棒性强、准确度高的特点,可为无人驾驶农机在作物行缺株的农田环境下进行作业提供理论依据。  相似文献   

4.
基于Census变换的双目视觉作物行识别方法   总被引:5,自引:5,他引:0  
针对基于双目视觉技术的作物行识别算法在复杂农田环境下,立体匹配精度低、图像处理速度慢等问题,该文提出了一种基于Census变换的作物行识别算法。该方法运用改进的超绿-超红方法灰度化图像,以提取绿色作物行特征;采用最小核值相似算子检测作物行特征角点,以准确描述作物行轮廓信息;运用基于Census变换的立体匹配方法计算角点对应的最优视差,并根据平行双目视觉定位原理计算角点的空间坐标;根据作物行生长高度及种植规律,通过高程及宽度阈值提取有效的作物行特征点并检测作物行数量;运用主成分分析法拟合作物行中心线。采用无干扰、阴影、杂草及地头环境下的棉田视频对算法进行对比试验。试验结果表明,对于该文算法,在非地头环境下,作物行中心线的正确识别率不小于92.58%,平均偏差角度的绝对值不大于1.166°、偏差角度的标准差不大于2.628°;图像处理时间的平均值不大于0.293 s、标准差不大于0.025 s,能够满足田间导航作业的定位精度及实时性要求。  相似文献   

5.
基于图像特征点粒子群聚类算法的麦田作物行检测   总被引:8,自引:8,他引:0  
为了快速准确地提取麦田作物行中心线,提出了基于图像特征点粒子群聚类算法的麦田作物行检测。首先,对自然光照下获取的彩色图像运用"过绿颜色因子图像灰度化"、"Otsu图像二值化"、"左右边缘中间线检测提取作物行特征点算法"3步对图像进行预处理。然后,根据农田作物行中心线周围区域的特征点到该直线的距离均小于某一距离阈值的特征,运用粒子群优化算法对每一作物行的特征点分别进行聚类。最后,对每一类的特征点用最小二乘法进行直线拟合获取麦田作物行中心线。试验结果表明,该算法可以对作物断行、杂草、土块等复杂农田环境下的图像进行有效地作物行检测,识别率达95%,识别误差小于3°。与标准Hough算法相比,运行速率提升了一倍。该文可为实现农业机器人田间作业提供参考。  相似文献   

6.
基于自动Hough变换累加阈值的蔬菜作物行提取方法研究   总被引:10,自引:8,他引:2  
为解决机器视觉对生菜和绿甘蓝两种作物在整个生长时期内多环境变量对作物行识别影响的问题,同时提高机器视觉作物行识别算法的有效性,该文提出了一种基于自动Hough变换累加阈值的多作物行提取算法。首先,选用Lab颜色空间中与光照无关a分量对绿色作物进行提取,通过最优自适应阈值进行图像分割,并采用先闭后开形态学运算对杂草和作物边缘进行滤波。其次,采用双阈值分段垂直投影法对作物行特征点进行提取,通过对亮度投影视图中的目标像素占比阈值和噪声判断阈值设置,实现特征点位置判断和杂草噪声过滤,并对相邻特征点进行优化,剔除部分干扰特征。最后,采用Hough变化对特征点进行直线拟合,将不同Hough变换累加阈值获得的拟合直线映射到累加平面上,通过K-means聚类将累加平面数据聚类为与作物行数相同的类数,根据相机成像的透视原理提出基于聚类质心距离差和组内方差的最优累加阈值获取方法,将最优累加阈值下累加平面中的聚类质心作为识别出的真实作物行线。温室和田间试验表明,针对不同生长时期的生菜和绿甘蓝作物,该文算法均可有效识别出作物行线,最优阈值算法耗时小于1.5 s,作物行提取平均耗时为0.2 s,在田间和温室中作物行的平均识别准确率分别为94.6%、97.1%,识别准确率为100%的占比分别为86.7%和93.3%。研究结果为解决多环境变量影响因素下的算法鲁棒性和适用性问题提供依据。  相似文献   

7.
基于LiDAR扫描的高地隙宽幅喷雾机变量施药系统研制   总被引:5,自引:3,他引:2  
为提高甘蔗等高茎秆作物的机械化病虫害防治水平,解决普通喷雾机进地困难、农药用量大且利用率低等问题,该研究研制了一套基于三维Li DAR实时扫描的高地隙宽幅喷雾机变量施药系统。该系统搭载的喷雾机作业幅宽24m、地隙1.35 m,喷杆喷雾高度在0.5~2.5 m可调。变量施药系统采用16线激光雷达传感器,对作物的三维信息实时探测,安装于机具后端的脉宽调制(PWM,Pulse-WidthModulation)控制器从CAN总线上获取喷雾机的速度信息并传递给计算机,采用Python控制程序,融合激光雷达数据与实时速度信息绘制喷雾量处方图并发送给PWM控制器。建立了作物冠层高度与施药量之间的数学模型,根据作物冠层所需要的喷雾量,由控制器控制电磁阀的开闭实现精准变量施药。系统组装完成后,在甘蔗地进行田间试验测试。结果显示:激光雷达能够准确识别甘蔗株高,最大识别误差为8.42%,最小识别误差为0.17%,平均误差为4.59%,激光雷达将识别到的株高信息准确传递给变量施药系统。变量系统开启后,喷雾机会根据株高变化实时改变喷雾量,雾滴沉积密度满足相关标准要求。在变量施药条件下,植株上中下3层的雾滴沉积密度变异系数均小于15%,满足喷雾机(器)作业质量标准要求,机具整体作业性能良好。变量施药时布样区施药总量为56.43 L,相比常量施药的施药总量78.96 L,减少农药用量22.53 L,减幅28.5%。该研究可为高茎秆作物病虫害高效精准防治提供新的思路和方法,为新型精准变量施药机械的结构设计和高效施药技术性能优化提供参考。  相似文献   

8.
基于吊蔓绳的温室番茄主茎秆视觉识别   总被引:7,自引:7,他引:0  
为了精确识别番茄植株以供精确对靶喷施,该文提出一种基于温室吊蔓绳对番茄主茎进行检测识别的算法。通过分析番茄作物图像在HSI颜色空间的分布特性,基于H分量应用Otsu分割算法对番茄作物图像进行二值化处理,以突出图像中吊蔓绳区域。利用细化算法提取出吊蔓绳区域离散特征点簇,并采用最小二乘法直线拟合特征点簇获取吊蔓绳位置。试验结果表明,处理分辨率640×480像素的图像平均用时0.16s,对100张图像进行识别试验,正确率达93%,该算法提取吊蔓绳和番茄主茎间的最大距离偏差为48像素单位,能够准确识别番茄主茎秆,具备较强的鲁棒性。  相似文献   

9.
基于改进均值漂移算法的绿色作物图像分割方法   总被引:7,自引:5,他引:2  
针对绿色农作物图像背景复杂且分割难的问题,提出一种基于改进均值漂移算法的分割方法。采用均值漂移算法对图像进行平滑和分割时,带宽的选择直接影响平滑和分割的结果。传统的均值漂移分割方法需要人为地设定空域带宽和值域带宽这2个参数。该文首先根据绿色作物图像的颜色特点,提取图像的颜色指数;然后采用均值漂移算法,将图像的颜色信息与空间信息结合起来,根据作物图像颜色分布的丰富程度定义自适应空域带宽,采用渐近积分均方差来获得自适应值域带宽,对图像进行平滑滤波;最后采用 Otsu 方法将平滑后的图像分成两部分:绿色部分和背景部分。试验结果表明,该方法能够有效地分割出绿色作物,并在分割性能上明显优于常规的颜色指数方法,作物图像的错分率均小于6.5%。  相似文献   

10.
为解决果园机器视觉导航中果树行识别易受果园复杂环境干扰的问题,该研究提出一种采用动态选取融合因子对彩色图像与深度图像进行图层融合并采用纹理-灰度梯度能量模型进行图像分割的果树行视觉识别算法。首先,通过搭建立体视觉系统获取果园彩色图像与对应的深度图像,并基于饱和度(S)通道图像的灰度值选取动态融合因子,实现对果园彩色图像与深度图像的图层融合;然后,分别计算融合图像的纹理特征图像与灰度梯度特征图像,并建立纹理-灰度梯度结合的能量模型,基于模型能量最小原则进行树干与背景的分割;最后,以树干与地面交点为果树行特征点进果树行直线拟合,完成果树行角度的识别。并对上述算法分别进行果树行识别试验与移动作业平台视觉对行导航试验。果树行识别试验结果表明,该研究算法果树行角度识别平均偏差为2.81°,与基于纹理、灰度梯度特征的果树行识别算法相比识别平均偏差分别降低2.37°和1.25°。移动作业平台视觉导航试验结果表明,在作业平台速度为0.6 m/s时,对行行驶最大偏差为12.2 cm,平均偏差为5.94 cm。该研究提出的视觉导航算法可以满足果园移动作业平台视觉对行导航需求,研究成果将为基于机器视觉的果园自动导航系统的研究与优化奠定基础。  相似文献   

11.
玉米行间导航线实时提取   总被引:10,自引:7,他引:3  
针对高地隙植保机底盘玉米田间植保作业压苗严重的现象,该研究提出了基于车轮正前方可行走动态感兴趣区域(Region of Interest,ROI)的玉米行导航线实时提取算法。首先将获取的玉米苗带图像进行像素归一化,采用过绿算法和最大类间方差法分割玉米与背景,并通过形态学处理对图像进行增强和去噪;然后对视频第1帧图像应用垂直投影法确定静态ROI区域,并在静态ROI区域内利用特征点聚类算法拟合作物行识别线,基于已识别的玉米行识别线更新和优化动态ROI区域,实现动态ROI区域的动态迁移;最后在动态ROI区域内采用最小二乘法获取高地隙植保机底盘玉米行间导航线。试验表明,该算法具有较好的抗干扰性能,能够很好地适应较为复杂的田间环境,导航线提取准确率为96%,处理一帧分辨率为1 920像素×1 080像素图像平均耗时97.56 ms,该研究提出的算法能够为高地隙植保机车轮沿玉米垄间行走提供可靠、实时的导航路径。  相似文献   

12.
基于中值点Hough变换玉米行检测的导航线提取方法   总被引:2,自引:2,他引:0  
为解决机器视觉对早期玉米苗带在多环境变量下导航线提取耗时长、准确率低的问题,该研究提出了一种基于中值点Hough变换作物行检测的导航线提取算法。首先,改进了传统的2G-R-B算法,再结合中值滤波、最大类间方差法和形态学操作实现土壤背景与玉米苗带的分割。其次,通过均值法提取玉米苗带特征点,然后采用中值点Hough变换拟合垄间两侧玉米苗列线,最后将检测出的双侧玉米苗列线为导航基准线,利用夹角正切公式提取导航线。试验结果表明:改进的灰度化算法能够正确分割玉米苗带与土壤,处理一幅640×480像素彩色图像平均耗时小于160 ms,基于中值点Hough变换检测玉米苗列再提取导航线的最大误差为0.53°,相比于传统Hough变换时间上平均快62.9 ms,比最小二乘法平均精确度提高了7.12°,在农田早期玉米苗带多环境变量影响因素下导航线提取准确率均达92%以上,具有较强的可靠性和准确性。  相似文献   

13.
基于垄线平行特征的视觉导航多垄线识别   总被引:11,自引:10,他引:1  
为有效快速地识别农田多条垄线以实现农业机器人视觉导航与定位,提出一种基于机器视觉的田间多垄线识别与定位方法。使用VC++ 6.0开发了农业机器人视觉导航定位图像处理软件。该方法通过图像预处理获得各垄行所在区域,使用垂直投影法提取出导航定位点。根据摄像机标定原理与透视变换原理,计算出各导航定位点世界坐标。然后结合垄线基本平行的特征,使用改进的基于Hough变换的农田多垄线识别算法,实现多垄线的识别与定位。使用多幅农田图像进行试验并在室内进行了模拟试验。处理一幅320×240的农田图像约耗时219.4 ms,室内试验各垄线导航距与导航角的平均误差分别为2.33 mm与0.3°。结果表明,该方法能有效识别与定位农田的多条垄线,同时算法的实时性也能满足 要求。  相似文献   

14.
基于光照无关图的农业机器人视觉导航算法   总被引:8,自引:6,他引:2  
完成沿作物行的行走作业是农业机器人视觉导航系统的一个基础功能,但是由于田间环境的复杂性,比如阴影的存在和天气的恶劣变化等外界因素的影响使导航参数的提取变得困难。该研究针对农业机器人视觉导航中存在的阴影干扰问题,采用基于光照无关图的方法去除导航图像中的阴影,然后采用增强的最大类间方差法进行图像分割和优化的Hough变换提取作物行中心线,最终通过坐标转换获得导航参数。最后,通过作物行跟踪试验表明,基于光照无关图的阴影去除方法不仅满足了导航实时性的要求,而且使农业机器人在光照变化的情况下导航参数提取的鲁棒性有了更大的提高。  相似文献   

15.
基于区域生长均值漂移聚类的苗期作物行提取方法   总被引:4,自引:4,他引:0  
为解决传统机器视觉方法检测苗期作物行时不同作物种类、不同生长背景和不同作物行数导致的作物行提取精度低的问题,该研究提出一种基于区域生长和均值漂移聚类的苗期作物行提取方法。首先,通过Lab颜色空间中a、b双颜色分量最大熵法选取最优阈值进行图像分割;其次,通过垂直投影获取均值漂移的聚类窗口带宽,均值漂移时以聚类窗口边缘为种子点进行区域生长来归类和标记每一行作物,之后遍历所有作物行获取聚类中心点;最后,通过最小二乘法拟合聚类中心点得到作物行直线。试验结果表明,该方法对大蒜、玉米、油菜、水稻和小麦5种作物的苗期作物行提取精度较高,5种作物的平均行识别率为98.18%,平均误差角度为1.21°,每张图片的平均处理时间为0.48 s。该方法的作物行提取性能明显优于Hough变换方法,为田间环境多因素影响下的苗期作物行提取提供了一种更具鲁棒性的方法。  相似文献   

16.
基于K-means算法的温室移动机器人导航路径识别   总被引:9,自引:9,他引:0  
针对温室移动机器人机器视觉导航路径识别实时性差、受光照干扰影响严重等问题,首先,将HSI颜色空间3个分量进行分离,选取与光照信息无关且可以有效抑制噪声影响的色调分量H进行后续图像处理,以削弱光照对机器人视觉导航的不良影响;针对温室环境图像特有的颜色特征信息,引入K-means算法对图像进行聚类分割,将垄间道路信息与绿色作物信息各自聚类,再通过形态学腐蚀方法去除聚类后图像中存在的冗余、干扰信息,以获得完整的道路信息,与常用阈值分割方法相比,可降低因分割信息不明确而导致后续Hough变换进行直线拟合时需占据大量内存且计算量较大的问题,进而提高移动机器人路径识别的快速性,并适应温室作业机器人自主导航的高实时性要求。试验结果表明,该文方法在复杂背景与变光照条件下的温室作业环境中可大幅降低光照对机器人导航的影响,对于光照不均具有良好的鲁棒性,道路信息提取率可达95%。同时,其平均单幅图像处理时耗降低53.26%,可显著提高路径识别速度。该研究可为解决温室移动机器人机器视觉导航路径识别的鲁棒性及实时性问题提供参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号