首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 203 毫秒
1.
基于Census变换的双目视觉作物行识别方法   总被引:5,自引:5,他引:0  
针对基于双目视觉技术的作物行识别算法在复杂农田环境下,立体匹配精度低、图像处理速度慢等问题,该文提出了一种基于Census变换的作物行识别算法。该方法运用改进的超绿-超红方法灰度化图像,以提取绿色作物行特征;采用最小核值相似算子检测作物行特征角点,以准确描述作物行轮廓信息;运用基于Census变换的立体匹配方法计算角点对应的最优视差,并根据平行双目视觉定位原理计算角点的空间坐标;根据作物行生长高度及种植规律,通过高程及宽度阈值提取有效的作物行特征点并检测作物行数量;运用主成分分析法拟合作物行中心线。采用无干扰、阴影、杂草及地头环境下的棉田视频对算法进行对比试验。试验结果表明,对于该文算法,在非地头环境下,作物行中心线的正确识别率不小于92.58%,平均偏差角度的绝对值不大于1.166°、偏差角度的标准差不大于2.628°;图像处理时间的平均值不大于0.293 s、标准差不大于0.025 s,能够满足田间导航作业的定位精度及实时性要求。  相似文献   

2.
识别作物行中心线并实现喷药喷头的自动对准是精准施药系统实现的关键技术。为克服作物行识别算法的单一性和适应性不强的缺点,该文以生长早中期的玉米图像为研究对象,利用改进的过绿特征法和改进的中值滤波算法分割出作物行,减少处理时间和去除噪声;然后在行提取时只保留包含作物行信息的中间作物行,通过随机Hough变换检测出作物行中心线,并根据世界坐标与图像坐标的转换和相对距离得到偏差信息:最后实现了系统的硬件搭建并给出了实际运行效果。不同图像的试验和处理结果表明,该算法在背景分割、作物行提取和偏差信息获取方面具有一定的优势,可适用于不同作物及不同视野图像的作物行算法识别,对精准施药的研究具有一定的参考价值。  相似文献   

3.
基于图像特征点粒子群聚类算法的麦田作物行检测   总被引:8,自引:8,他引:0  
为了快速准确地提取麦田作物行中心线,提出了基于图像特征点粒子群聚类算法的麦田作物行检测。首先,对自然光照下获取的彩色图像运用"过绿颜色因子图像灰度化"、"Otsu图像二值化"、"左右边缘中间线检测提取作物行特征点算法"3步对图像进行预处理。然后,根据农田作物行中心线周围区域的特征点到该直线的距离均小于某一距离阈值的特征,运用粒子群优化算法对每一作物行的特征点分别进行聚类。最后,对每一类的特征点用最小二乘法进行直线拟合获取麦田作物行中心线。试验结果表明,该算法可以对作物断行、杂草、土块等复杂农田环境下的图像进行有效地作物行检测,识别率达95%,识别误差小于3°。与标准Hough算法相比,运行速率提升了一倍。该文可为实现农业机器人田间作业提供参考。  相似文献   

4.
为解决果园机器视觉导航中果树行识别易受果园复杂环境干扰的问题,该研究提出一种采用动态选取融合因子对彩色图像与深度图像进行图层融合并采用纹理-灰度梯度能量模型进行图像分割的果树行视觉识别算法。首先,通过搭建立体视觉系统获取果园彩色图像与对应的深度图像,并基于饱和度(S)通道图像的灰度值选取动态融合因子,实现对果园彩色图像与深度图像的图层融合;然后,分别计算融合图像的纹理特征图像与灰度梯度特征图像,并建立纹理-灰度梯度结合的能量模型,基于模型能量最小原则进行树干与背景的分割;最后,以树干与地面交点为果树行特征点进果树行直线拟合,完成果树行角度的识别。并对上述算法分别进行果树行识别试验与移动作业平台视觉对行导航试验。果树行识别试验结果表明,该研究算法果树行角度识别平均偏差为2.81°,与基于纹理、灰度梯度特征的果树行识别算法相比识别平均偏差分别降低2.37°和1.25°。移动作业平台视觉导航试验结果表明,在作业平台速度为0.6 m/s时,对行行驶最大偏差为12.2 cm,平均偏差为5.94 cm。该研究提出的视觉导航算法可以满足果园移动作业平台视觉对行导航需求,研究成果将为基于机器视觉的果园自动导航系统的研究与优化奠定基础。  相似文献   

5.
基于虚拟现实的拖拉机双目视觉导航试验   总被引:2,自引:2,他引:0  
针对农机导航系统的传统田间试验方式受作物生长状态的约束性较强,错过适当的作物生长时期将直接导致开发周期延长、成本增加等问题,该文提出了一种基于虚拟现实技术的拖拉机双目视觉导航试验方法。该方法以拖拉机为作业机械,苗期棉花为目标作物,在虚拟现实环境下建立田间作物行场景的三维几何模型,用于模拟田间试验场景;建立虚拟现实环境下的拖拉机物理引擎,根据实车参数及试验场景信息快速、准确地解算拖拉机的动力学参数,并且根据解算所得的状态参数在虚拟试验场景中实时渲染拖拉机的位姿状态;设计路径跟踪控制器,以经过双目视觉方法识别的田间路径为目标路径,根据拖拉机当前行驶路径与目标路径的相对位置关系解算并控制拖拉机前轮转向角度。以某型拖拉机参数为实车参数,采用大小行距方式布置5行曲线形态的苗期棉花作物行场景开展虚拟导航试验。拖拉机以不大于2 m/s的车速跟踪作物行时,平均位置偏差的绝对值不大于0.072 m、位置偏差的标准差不大于0.141 m;平均航向偏差的绝对值不大于2.622°、航向偏差的标准差不大于4.462°。结果表明:该文设计的拖拉机虚拟试验系统能够在虚拟现实环境下,模拟田间作物行环境开展基于双目视觉的导航试验,可为导航控制系统的测试及改进提供理论依据和试验数据。  相似文献   

6.
基于自动Hough变换累加阈值的蔬菜作物行提取方法研究   总被引:10,自引:8,他引:2  
为解决机器视觉对生菜和绿甘蓝两种作物在整个生长时期内多环境变量对作物行识别影响的问题,同时提高机器视觉作物行识别算法的有效性,该文提出了一种基于自动Hough变换累加阈值的多作物行提取算法。首先,选用Lab颜色空间中与光照无关a分量对绿色作物进行提取,通过最优自适应阈值进行图像分割,并采用先闭后开形态学运算对杂草和作物边缘进行滤波。其次,采用双阈值分段垂直投影法对作物行特征点进行提取,通过对亮度投影视图中的目标像素占比阈值和噪声判断阈值设置,实现特征点位置判断和杂草噪声过滤,并对相邻特征点进行优化,剔除部分干扰特征。最后,采用Hough变化对特征点进行直线拟合,将不同Hough变换累加阈值获得的拟合直线映射到累加平面上,通过K-means聚类将累加平面数据聚类为与作物行数相同的类数,根据相机成像的透视原理提出基于聚类质心距离差和组内方差的最优累加阈值获取方法,将最优累加阈值下累加平面中的聚类质心作为识别出的真实作物行线。温室和田间试验表明,针对不同生长时期的生菜和绿甘蓝作物,该文算法均可有效识别出作物行线,最优阈值算法耗时小于1.5 s,作物行提取平均耗时为0.2 s,在田间和温室中作物行的平均识别准确率分别为94.6%、97.1%,识别准确率为100%的占比分别为86.7%和93.3%。研究结果为解决多环境变量影响因素下的算法鲁棒性和适用性问题提供依据。  相似文献   

7.
为了满足现代农业精准施药技术中导航路径识别的需要,该文提出一种基于最大正方形的玉米作物行骨架提取算法。首先对采集到的田间玉米作物行图像进行灰度变换,采用改进的过绿灰度化算法使作物行与背景明显分割开来;然后通过滤波、阈值分割得到二值图像;而后对经过预处理后的二值图像进行形态学中的闭运算操作,得到玉米作物行的轮廓;最后利用最大正方形准则提取玉米作物行骨架。为了验证该算法的准确度,对提取的玉米作物行骨架进行直线拟合操作,利用拟合出的中央作物行线与实际导航线偏差的大小来判断骨架提取的精准度。试验结果表明,该算法能保持骨架像素的单一性,对边缘噪声具有很强的抗干扰能力,提取骨架的误差小于5 mm,能够满足玉米对行精准施药的需求。  相似文献   

8.
农田环境中农作物大多呈近似直线的行垄分布特点,农用车辆自主视觉导航时通常利用这些景物特征作为跟踪目标。提出了一种计算车辆相对于跟踪目标位姿的新型方法,首先分析了传统算法中存在的计算量大、忽视图像平面中各像素权重不同等缺陷,而后依据跟踪路径局部线性模型假设,详细地推导了算法过程。基于视觉导航原型车辆的试验结果表明,与人工测量值相比,横向距离和航向角的误差均值都等于零,标准差分别为3cm 和0.62deg。  相似文献   

9.
基于SURF算法的绿色作物特征提取与图像匹配方法   总被引:2,自引:4,他引:2  
由于田间环境的复杂性,绿色作物特征提取与匹配仍然是基于双目视觉技术农田作物三维信息获取急需解决的关键技术之一。该文首先在RGB空间进行图像分割滤波处理。然后,采用SURF算法旋转不变性分两步获取绿色作物特征点对:第一步采用Hessian矩阵检测作物特征点,运用非极大值抑制法和插值运算寻找、定位极值点;第二步确定特征点主方向,采用描述算子进行特征点提取。最后,运用最近距离比次近距离法进行特征点匹配,并采用全约束条件滤除错误的匹配点对。同时将SURF和SIFT法进行对比分析,通过对不同光照、土壤的田间条件下芥蓝、芹菜、白菜13组图像进行试验,结果表明采用SUFR和SIFT法绿色作物特征提取率均值分别为1.2%、3.3%,双目视觉系统左、右作物图像特征正确匹配率的均值分别为94.8%、92.4%,时间消耗均值分别为4.6s、4.8s。采用SURF优越于采用SIFT法,这为进一步进行农业机械3D视觉导航或基于无线传感器网络的田间作物在线三维信息准确获取提供可借鉴思路和方法。  相似文献   

10.
基于良序集和垄行结构的农机视觉导航参数提取算法   总被引:2,自引:3,他引:2  
根据田间作物垄行间杂草离散的特点,基于图像矩阵,运用像素子集的良序性,结合垄宽先验知识得到垄行轨迹中心。同时,系统选择图像的绿色成分为目标特征空间,滤掉了非绿色的背景噪声,为寻找垄行子集奠定了基础。在摄像头参数结构的可线性化映射区(图像中间约1/3区域),考虑移动平台的速度和系统图像采样间隔,在系统处理速度大于平台移动速率条件下,建立了单目视觉导航系统的动态方程。试验结果表明:航向角和位置参数平均误差分别约为1°和1 mm。该算法设计简洁,实现容易,可有效避免杂草等噪声的影响,对光照也有一定的适应性。  相似文献   

11.
株间除草装置横向偏移量识别与作物行跟踪控制   总被引:2,自引:2,他引:0  
株间机械除草技术与装置能有效摆脱田间除草的繁重体力劳动并消除化学除草方法所带来的危害,株间机械除草装置的牵引拖拉机在跟踪作物行时总会产生航向偏差,导致除草装置出现横向偏移,甚至无法进入除草的株间区域,同时还会增加伤苗率。为增大株间机械除草的作用区域和降低伤苗率,该文提出了通过作物行信息识别出株间机械除草装置与作物行横向偏移量的方法,并设计了株间机械除草作物行跟踪机构和控制器,实现了株间机械除草跟随作物行。采用正弦波和三角波2种标准信号作为横向偏移补偿量信号,对作物行跟踪控制器的性能进行了测试,试验结果表明:作物行跟踪控制器能较好地控制除草装置跟随横向偏移补偿信号,前进速度为0.5 m/s时正弦波信号跟踪最大误差10 mm,平均误差0.8 mm,三角波信号跟踪最大误差11 mm,平均误差1.2 mm。除草试验表明,作物行跟踪控制系统能较好地控制株间除草装置跟踪作物行,在0.5 m/s前进速度下跟踪最大误差为20.8 mm,平均误差2.5 mm;作物行跟踪控制明显减少了除草爪齿未进入株间区域的比例,在300 mm株距下,可保证93.3%的株间区域有除草爪齿进行除草作业,在200 mm株距下为85.9%;作物行跟踪控制降低了除草爪齿对作物的损伤,伤苗率从20%以上降到了12%以内,提高了株间机械除草的作业效果。  相似文献   

12.
基于中值点Hough变换玉米行检测的导航线提取方法   总被引:2,自引:2,他引:0  
为解决机器视觉对早期玉米苗带在多环境变量下导航线提取耗时长、准确率低的问题,该研究提出了一种基于中值点Hough变换作物行检测的导航线提取算法。首先,改进了传统的2G-R-B算法,再结合中值滤波、最大类间方差法和形态学操作实现土壤背景与玉米苗带的分割。其次,通过均值法提取玉米苗带特征点,然后采用中值点Hough变换拟合垄间两侧玉米苗列线,最后将检测出的双侧玉米苗列线为导航基准线,利用夹角正切公式提取导航线。试验结果表明:改进的灰度化算法能够正确分割玉米苗带与土壤,处理一幅640×480像素彩色图像平均耗时小于160 ms,基于中值点Hough变换检测玉米苗列再提取导航线的最大误差为0.53°,相比于传统Hough变换时间上平均快62.9 ms,比最小二乘法平均精确度提高了7.12°,在农田早期玉米苗带多环境变量影响因素下导航线提取准确率均达92%以上,具有较强的可靠性和准确性。  相似文献   

13.
基于区域生长均值漂移聚类的苗期作物行提取方法   总被引:4,自引:4,他引:0  
为解决传统机器视觉方法检测苗期作物行时不同作物种类、不同生长背景和不同作物行数导致的作物行提取精度低的问题,该研究提出一种基于区域生长和均值漂移聚类的苗期作物行提取方法。首先,通过Lab颜色空间中a、b双颜色分量最大熵法选取最优阈值进行图像分割;其次,通过垂直投影获取均值漂移的聚类窗口带宽,均值漂移时以聚类窗口边缘为种子点进行区域生长来归类和标记每一行作物,之后遍历所有作物行获取聚类中心点;最后,通过最小二乘法拟合聚类中心点得到作物行直线。试验结果表明,该方法对大蒜、玉米、油菜、水稻和小麦5种作物的苗期作物行提取精度较高,5种作物的平均行识别率为98.18%,平均误差角度为1.21°,每张图片的平均处理时间为0.48 s。该方法的作物行提取性能明显优于Hough变换方法,为田间环境多因素影响下的苗期作物行提取提供了一种更具鲁棒性的方法。  相似文献   

14.
雷沃ZP9500高地隙喷雾机的GNSS自动导航作业系统设计   总被引:16,自引:14,他引:2  
为减少农药喷雾作业对人体造成的化学损害,该研究以雷沃高地隙喷杆喷雾机为平台,基于GNSS开发了自动导航作业系统,实现喷雾机在极少人工干预情况下的自动导航作业。通过对平台的机-电-液改造,实现了喷雾机作业系统的电气化控制。基于简化的二自由度车辆转向模型设计了以位置偏差和航向偏差为状态变量的直线路径跟踪控制算法,基于纯追踪模型设计了曲线路径跟踪控制算法。根据喷雾机田间作业需要设计了喷雾机一体化自动导航作业控制方法,使系统能够自动控制喷雾机完成直线、地头转弯行驶和喷雾作业,油门调节以及车辆启停控制。在1.3 m/s左右的前进速度条件下,分别在水泥路面、旱田、水田环境中进行了试验,测试结果表明:水泥路面车身横滚在–1.6?~1.5?范围,直线路径跟踪误差最大值为3.9 cm,平均值为-0.15 cm,标准差为1.0 cm;旱田地块车身横滚在–1.4?~3.3?范围,跟踪误差最大值为9.8 cm,平均值为1.3 cm,标准差为3.3 cm;水田环境车身横滚在–2.4?~5.2?范围,跟踪误差最大值为17.5 cm,平均值为2.2 cm,标准差为4.4 cm。试验数据表明,所设计的自动导航作业系统初始上线快速、地头转弯对行平顺、各设计功能执行可靠;导航系统具有良好的稳定性和控制精度,能够满足水田、旱田环境下的喷雾作业要求。  相似文献   

15.
为提高水稻苗带中心线检测的适应性和实时性,满足巡田机器人导航的低成本、轻量级计算、高实时性需求,针对水稻苗带中心线检测结果容易受到光照变化和机器震动等原因产生图像噪声影响的问题,该研究以返青期和分蘖初期水稻秧苗为研究对象,提出基于区域生长顺序聚类-随机抽样一致性算法(random sample consensus,RANSAC)的水稻苗带中心线检测方法。首先,对采集的水稻秧苗图像运用归一化超绿特征法(excess green,ExG)和最大类间方差法(Otsu)分割水田背景和秧苗区域,应用先腐蚀后开运算的形态学方法去除秧苗图像噪声点;然后,采用基于水平带的秧苗轮廓质心检测方法提取秧苗特征点,利用区域生长顺序聚类方法将同一秧苗行的特征点聚成一类;最后,通过RANSAC算法拟合苗带中心线,从而得到巡田机器人视觉导航基准线。试验结果表明:该方法对返青期和分蘖初期水稻苗带中心线检测率均在97%以上,比已有YOLOv3算法提高6.12个百分点,比基于区域生长均值漂移聚类算法降低2.41个百分点;平均误差角度为2.34°,比已有YOLOv3算法高1.37°,比基于区域生长均值漂移聚类算法低0.12...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号