共查询到20条相似文献,搜索用时 31 毫秒
1.
2.
3.
4.
基于机器视觉的谷物联合收获机行走目标直线检测 总被引:1,自引:0,他引:1
针对谷物联合收获机视觉导航,提出基于改进Hough变换(HT)的谷物联合收获机行走目标直线检测算法.通过改进一维最大熵阈值分割方法,提高了阈值分割的速度;对二值图像通过行扫描和列扫描,确定了行走目标直线的终点位置以及直线方向上的候选点;以候选点为点集,利用最小二乘直线拟合和直线终点位置确定了待检测直线上已知一点;利用改进HT完成直线检测,与传统的HT相比,将二元映射转换为一元映射,加快了算法速度、减少了空间占用和提高了抗干扰能力.经过对多幅图片的处理,证明算法能够有效地检测出直线参数,且处理时间在100 ms左右. 相似文献
5.
6.
为提高田间复杂环境下传统图像分割法分割葡萄果穗图像准确度低的问题,提出一种基于改进红绿色差和Otsu算法的田间葡萄果穗图像分割方法。选取与人类视觉相近的RGB颜色空间,提取并分析R、G特征图的直方图,经分析对其点乘特征图并进行Otsu运算,再经过形态学处理,实现对田间环境下葡萄果穗图像的分割。与灰度图、(R-G)特征图和(R-G)/(R+G)特征图分别采用最大阈值分割法(Otsu)分割的结果进行对比,试验结果表明,红绿色差点乘Otsu分割法的分割结果最优,准确率为92.37%,F1值90.13%。对50幅图像做了测试,其中图像准确率最高为97%,准确率最低为79%,其平均准确率为88.75%。所提出的方法能够实现葡萄果穗较完整的分割,并可为葡萄果穗的识别、定位提供研究基础。 相似文献
7.
基于机器视觉的自主插秧机导航信息的提取研究 总被引:3,自引:0,他引:3
针对基于机器视觉的插秧机的自主导航,提出了一种利用秧苗行分割线作为基准线提取导航参数的算法.根据秧苗在田间环境的特征,用EXG因子分割图像,将按列累加的灰度值所形成的曲线图,设定水平分割线找到秧苗区域,确定各苗区的起始列点和终止列点,找到定位点,拟合分割线.根据秧苗行分布呈平行线状的特点,利用分割线在图像平面上形成的灭点和成像的斜率来计算插秧机的位移偏差和角度偏差,为视觉导航提供必要的参数.实验结果表明该方法具有一定的可行性,能够用于插秧机器人的导航研究. 相似文献
8.
针对温室颠簸不平、枝叶遮挡道路的复杂环境,开展基于相机与激光雷达数据融合的机器人行间导航方法研究。首先,利用改进的U-Net模型实现图像道路区域的准确快速分割;其次,通过融合图像分割结果进行地面点云预分割,减少地面起伏造成的点云倾斜;然后,采用改进的KMeans算法实现作物行点云快速聚类,并将聚类中心作为作物行主干区域点,降低枝叶遮挡对作物行中线提取的影响;最后,采用RANSAC算法拟合两侧作物行方程并计算出导航线。通过实验评估导航线精度,在测试集中94%以上数据帧可以准确实现提取导航线,平均角度误差不高于1.45°,满足温室机器人沿作物行自主导航行驶要求。 相似文献
9.
针对果园自主导航过程中车辆偏航、植株缺失等问题,设计了一款基于激光雷达的果园行间履带式车辆自动导航控制系统,并模拟标准化果园环境进行试验以验证系统性能。首先,采用二维激光雷达(Light Detection and Ranging, LiDAR)获取树干点云数据,对点云数据进行坐标变换;其次,通过识别树干边界起始点进行树干定位;再次,提出两步树行分割法将树行分割为左右两行,利用最小二乘法分别对两侧定位点进行直线拟合,将树行中心线作为导航路径;最后,将电机期望转速作为比例微分(Proportion Differentiation, PD)控制器的输入,使车辆沿树行中心线自动行驶。树行分割试验表明:当感兴趣区域内植株无缺失、单株缺失、双株缺失且无航向偏差、无横向偏移时,树行分割正确率均为100%;双株缺失存在横向偏差和航向偏差、三株缺失不存在横向偏差和航向偏差时,树行分割准确率为96.4%;三株缺失存在横向偏差或航向偏差时,树行分割准确率92.9%。电机控制试验表明:电机调速系统具有快速响应的优点,且稳定性良好。导航控制试验表明:当车辆以0.8m/s速度行驶且存在0.5m的初始横向偏移时,... 相似文献
10.
11.
文中介绍了北斗导航自动驾驶系统的主要组件。同时对国内外几种比较典型的导航系统在田间播种作业时的接行端直、接行准确度进行了抽样检测。针对北斗导航自动导航驾驶系统使用中存在的问题提出了几点改进建议。 相似文献
12.
13.
14.
果园机器人视觉导航行间位姿估计与果树目标定位方法 总被引:3,自引:0,他引:3
针对单目视觉导航中位姿信息不完整和果树定位精度低的问题,提出基于实例分割神经网络的偏航角、横向偏移、果树位置计算方法。首先,基于Mask R-CNN模型识别并分割道路与树干;其次,寻找道路掩码凸包并进行霍夫变换,由凸包中的边界方程计算消失点坐标;最后,根据建立的位姿-道路成像几何模型,计算偏航角、横向偏移与果树相对位置。实验结果表明:改进Mask R-CNN模型的边框回归平均精确度为0.564,分割平均精确度为0.559,平均推理时间为110 ms。基于本文方法的偏航角估计误差为2.91%、横向偏移误差为4.82%,果树横向定位误差为3.80%,纵向误差为2.65%。该方法能在不同位姿稳定地提取道路与果树掩码、计算消失点坐标与边界方程,较准确地估计偏航角、横向位移和果树相对位置,为果园环境下的视觉自主导航提供有效参考。 相似文献
15.
16.
17.
18.
基于达芬奇平台的联合收获机视觉导航系统路径识别 总被引:2,自引:0,他引:2
针对联合收获机视觉导航对实时性及鲁棒性要求,采用了基于达芬奇平台的路径识别算法实现方案.在分析小麦收获视频图像纹理度量的基础上,提出了基于改进平滑度纹理特征的视觉导航路径识别算法.该算法利用水平方向上图像平滑度纹理特征,把原亮度图像转换成水平方向平滑度图像,然后采用自适应阈值分割图像的边界点,最后通过Hough变换确定视觉导航的路径.为验证该算法在达芬奇平台的运行效果,对联合收获机田间收获小麦进行导航实验.结果表明:算法运行实时性高,识别路径平均速度可达28.6帧/s;算法鲁棒性好,对多种环境下的路径识别有较好的适应性;算法运行稳定可靠,持续运行时间无限制. 相似文献
19.
传统双目视差测距法的测量值为参照点P到双目摄像机基线中心的距离,而农业机器人上的摄像头装置通常被安装在距离地面一定高度,与水平方向呈一定倾角的位置,利用传统双目视差测距法将无法得到导航参照点到机器人机身的水平距离。为此,提出了一种解决农业机器人田间导航参照点测距的新方法。通过改进的BP神经网络标定下的双目系统、改进的SIFT特征匹配,输出导航参照点在世界坐标系下的坐标X,Y),则导航参照点距机器人机身的水平距离可表达为S=(X2+Y2)(1/2)。实验表明:该方法在实际田间测试中的结果最大偏差0.479cm,最小偏差0.032cm,精度高达99%,测距过程耗时共计55ms,计算量较传统双目视差测距显著减小,具有一定的工程实用性与可行性。 相似文献