首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 140 毫秒
1.
对行喷雾技术可提高农药的利用率,有利于保护环境和减少农药残留。本文搭建基于机器视觉的大田甘蓝对行喷雾控制系统。通过改进的ExG算法提取颜色信息,采用最大类间方差法和形态学的开闭运算分割作物与背景。提出甘蓝作物行定位与多作物行自适应ROI提取方法,在条带分割的ROI内基于限定阈值垂直投影对特征点集进行采集,通过最小二乘法对特征点集进行线性拟合得到作物行中心线。利用中心线几何关系得到作物行偏移信息,根据对行机构的运动特性建立对行偏移补偿模型,并设计基于PID轨迹追踪算法的对行喷雾控制系统。试验结果表明,实验室作物行识别准确率为95.75%,算法平均耗时为77ms。在田间试验中,识别算法在时间段09:00—11:00、14:00—16:00内测试效果最佳,识别偏差均值保持在2.32cm以下。针对不同范围的杂草测试中,算法平均识别成功率为95.56%,说明算法具有较强的鲁棒性。在与其他识别算法对比测试中,本文算法平均耗时最短,识别成功率最高,能够为实时作业提供视觉引导。在对行喷雾控制系统田间试验中,对行准确率达到93.33%,对行控制算法可将对行偏差控制在1.54cm,满足田间实际应用要求。  相似文献   

2.
对行喷雾技术可提高农药的利用率,有利于保护环境和减少农药残留。本文搭建基于机器视觉的大田甘蓝对行喷雾控制系统。通过改进的ExG算法提取颜色信息,采用最大类间方差法和形态学的开闭运算分割作物与背景。提出甘蓝作物行定位与多作物行自适应ROI提取方法,在条带分割的ROI内基于限定阈值垂直投影对特征点集进行采集,通过最小二乘法对特征点集进行线性拟合得到作物行中心线。利用中心线几何关系得到作物行偏移信息,根据对行机构的运动特性建立对行偏移补偿模型,并设计基于PID轨迹追踪算法的对行喷雾控制系统。试验结果表明,实验室作物行识别准确率为95.75%,算法平均耗时为77 ms。在田间试验中,识别算法在时间段09:00—11:00、14:00—16:00内测试效果最佳,识别偏差均值保持在2.32 cm以下。针对不同范围的杂草测试中,算法平均识别成功率为95.56%,说明算法具有较强的鲁棒性。在与其他识别算法对比测试中,本文算法平均耗时最短,识别成功率最高,能够为实时作业提供视觉引导。在对行喷雾控制系统田间试验中,对行准确率达到93.33%,对行控制算法可将对行偏差控制在1.54 cm,满足田间实际应用要...  相似文献   

3.
农业机械虚拟试验交互控制系统   总被引:1,自引:0,他引:1  
设计了农业机械虚拟试验系统,建立了田间工况模拟与虚拟交互控制试验平台.根据耕作区域的数字地图及农田作物图像信息,设计农业机械虚拟试验场,实现人和农业机械在虚拟环境内的漫游.建立四自由度模拟试验台,实现对拖拉机在田间行走时姿态的模拟仿真.从虚拟场景中提取作物行的位置信息,根据这些信息给出控制信号,进行拖拉机行驶速度、方向和平衡控制,使拖拉机沿作物行行驶.试验表明,横滚角最大偏差为0.34°,偏航角最大偏差为0.51°,高程最大偏差为2.5 mm,行走速度最大偏差为0.12 km/h.实体样机和虚拟样机有较好的一致性.  相似文献   

4.
介绍了使用三维建模软件Multigen Creator创建拖拉机试验场的建模过程和方法;探讨了场景模型数据库的结构设置、地形构造、地物模型建立、纹理映射以及其他关键建模技术和难点,详细阐述了试验场典型试验路面的建立过程,建立了一个适用于虚拟现实系统的拖拉机虚拟试验测试场景。通过测试,场景模型在Multigen Vega Prime仿真过程中内存占用较小,实时运行效率高,为进行拖拉机虚拟试验检测提供了新方法和场景平台。  相似文献   

5.
针对目前秸秆覆盖率自动识别准确率低的问题,提出了一种秸秆图像畸变校正与Otsu算法阈值分割相结合的图像处理算法,并采用该方法计算田间秸秆覆盖率。首先,通过单目摄像头采集免耕播种机的作业环境信息,采用改进的AdaBoost算法对目前工作环境是否为免耕地进行自动判断;其次,对现场采集的秸秆覆盖图像进行预处理,通过彩色空间距离化、图像增强等方式提高图像中秸秆的可识别特征;然后,建立逆向映射模型并结合最邻近插值的方法解决图像畸变问题;最后,裁剪出用于秸秆识别的图像部分,通过Otsu算法进行阈值分割、计算秸秆覆盖率。通过实验对AdaBoost算法分类与秸秆覆盖率的检测效果进行验证,结果表明,运用AdaBoost算法能有效识别免耕播种机的工作环境,采用本文图像处理算法计算田间秸秆覆盖率,与实际测量误差在5%以内。  相似文献   

6.
针对大田作物行特征复杂多样,传统作物行识别方法鲁棒性不足、参数调节困难等问题,该研究提出一种基于特征工程的大田作物行识别方法。以苗期棉花作物行冠层为识别对象,分析作物行冠层特点,以RGB图像和深度图像为数据来源,建立作物行冠层特征表达模型。运用特征降维方法提取作物行冠层的关键特征参数,降低运算量。基于支持向量机技术建立作物行冠层特征分割模型,提取作物行特征点。结合随机抽样一致算法和主成分分析技术建立作物行中心线检测方法。以包含不同光照、杂草、相机位姿的棉花作物行图像为测试数据,运用线性核、径向基核和多项式核的支持向量机分类器开展作物行冠层分割试验;对比分析典型Hough变换、最小二乘法和所建作物行中心线检测方法的性能。结果表明,径向基核分类器的分割精度和鲁棒性最优;所建作物行中心线检测方法的精度和速度最优,航向角偏差平均值为0.80°、标准差为0.73°;横向位置偏差平均值为0.90像素,标准差为0.76像素;中心线拟合时间平均值为55.74ms/f,标准差为4.31ms/f。研究成果可提高作物行识别模型的适应性,减少参数调节工作量,为导航系统提供准确的导航参数。  相似文献   

7.
为了保证田间作业的农业移动机器人能够对作物行进行自动识别,并且对干扰环境具有一定的鲁棒性,采用基于遗传算法的面一带模型匹配视觉辨识方法直接对未经任何预处理的田间作物图像进行识别.通过人工图像和实际图像扫描,论证了该方法对作物行间识别的准确性和稳定性,以及对于包括干扰物等环境噪声的鲁棒性.经实际田间作物图像辨识,验证了该方法在实时控制中的有效性.  相似文献   

8.
近年来,基于叶片图像的番茄病害识别研究受到广泛关注。本研究利用番茄叶部病害图像中病斑的颜色和纹理的差异,通过提取番茄病害叶片图像的颜色矩(CM)、颜色聚合向量(CCV)和方向梯度直方图(HOG)等颜色纹理特征,引入核相互子空间法(KMSM),建立了番茄叶部病害快速识别模型(CCHKMSM)。该模型首先通过高斯核函数,将从不同类别叶部病害图像数据中抽取的颜色及纹理特征映射到高维空间;然后对映射的高维空间进行主成分分析,建立非线性病害特征空间;最后基于非线性特征空间最小正则角对病害进行识别。本研究分别以公共农业病虫害数据集PlantVillage中的9种番茄病害类和1类健康番茄叶片图像,以及实际场景下采集的3种叶部病虫害图像数据集开展算法验证试验。基于PlantVillage的试验结果表明,当每类样本集数量为350张时,本研究所提出的CCHKMSM模型识别率达到100%,模型训练时间为0.1540 s,平均识别时间为0.013 s;同时,在样本数量150张到1000张的测试区间内,模型平均识别率为99.14%。该识别率高于其他典型的机器学习模型,与基于深度学习的识别方法相当。基于实际复杂场景下采集病害图像集的实验中,通过对原始图像切割分块后,对各病害的平均识别率为96.21%。试验结果表明,本研究提出的CCHKMSM模型识别准确率高且计算量小,其训练时间和测试时间都远低于深度学习等方法。该方法对系统要求低,具有在手持设备、边缘计算终端等低配置感知系统中的应用潜力。  相似文献   

9.
为更科学、高效地搭建虚拟场景渲染平台,解决大量虚拟场景模型的存储与检索的难度问题,运用虚拟仿真技术对使用先进的农业装备和合理规划的果园进行评估、对大量的虚拟场景模型特征信息进行提取及参数化建模,存储到数据库中,建立哈希索引列加速检索。以Unity3D为场景的开发平台,结合典型开源关系型数据库MySQL为虚拟场景模型特征信息参数存储载体,并建立哈希索引列。在数据驱动下,快速构建出符合需求的三维模型,实现了大量三维模型的快速检索调用。以果园场景为例,将天气系统仿真场景数据、多种类果树模型数据、实景扫描地形数据导入数据库中,构建果园场景数据库,快速创建虚拟果园场景仿真平台。仿真结果表明,该方法构建的数据库可以较好地支持场景平台的虚拟设计与仿真,且提升三维模型的检索效率,缩短了农业虚拟场景渲染平台的开发周期,为虚拟场景渲染平台的设计及搭建提供技术借鉴。  相似文献   

10.
基于位置特征的穴间杂草快速识别算法   总被引:2,自引:0,他引:2  
研究了利用穴播作物的位置特征进行穴间区块杂草识别的算法.针对穴播作物按规律分布生长的特点和田间场景中植物叶片交叠等问题,以穴播玉米为研究对象提出了一种基于作物位置特征的过分割区块投影定位作物株心的方法,据此确定出穴间喷雾操作区块并进行各区块像素统计、判别,实现穴间杂草的识别.试验表明:穴间区块杂草实时识别的正确率在87.7%以上, 在MATLAB6.5环境下处理一幅640×512图像,从读入图像至给出杂草控制指令耗时在500ms以内,具有较好的实时性,且可适用于作物苗期各阶段的杂草识别.  相似文献   

11.
基于DSP和MCU的农机具视觉导航终端设计   总被引:1,自引:0,他引:1  
农机具导航可以提高作业的精度和适应性。针对当前导航终端多基于工控机开发,成本相对较高,不利于在农业生产中大规模推广等问题,设计了一种基于DSP和MCU的农机具视觉导航终端,用于玉米中耕锄草自动导航作业。其中,DSP作为核心处理器,负责农作物的图像采集、作物行检测和导航线提取;MCU负责作业流程的管理、GNSS位置信息的接收、存储和转发以及向执行单元发送控制指令等。针对导航终端中所涉及的串口、网络以及CAN总线之间的通信问题,制定了相应的协议规范;按照系统集成优化设计方法,构建了农机具视觉导航终端系统,保证了系统运行稳定性;对图像进行预处理后,采用基于边缘检测和扫描滤波的导航线检测算法提高了农机具导航线检测的精度和处理效率;针对农田玉米中耕锄草试验,设计了导航线算法适应性试验、偏移量测试试验和系统对比试验。结果表明:系统能够较好地适应有杂草和株数稀疏等农田环境下的测试工作;对偏移量检测的平均误差为1.29 cm,最大误差为4.1 cm;对比PC端和ARM端的导航算法运行速度,系统具有较好的实用性和经济可行性。  相似文献   

12.
基于位置特征的行间杂草识别方法   总被引:2,自引:0,他引:2  
研究了利用条播作物的位置特征识别行间杂草的方法。根据条播作物成行排列的位置特征,利用像素位置直方图法识别作物中心行。根据多数杂草位于作物行之间裸土中的位置特征,以每条作物行左右边界线段的起始点作为种子,运用种子填充算法填充与其相连通的作物行区域,从而识别行间杂草。试验表明:行间杂草的准确识别率平均为80%,错误识别率平均为4.2%,适用于早期作物田间杂草识别。  相似文献   

13.
基于边缘检测与扫描滤波的农机导航基准线提取方法   总被引:2,自引:0,他引:2  
为了实时、准确地提取作物行基准线,提出了一种将边缘检测和扫描滤波(Boundary detection and scan filter, BDSF)相结合的基准线提取方法。首先对RGB颜色空间采用G-R颜色特征因子进行图像灰度化,再采用最大类间方差法(OSTU)对灰度图像进行分割,得到二值化图像,获取较好的作物信息。然后分别对图像的底端和顶端部分进行垂直投影,获取作物行的位置,形成一个包含作物行直线的条形框;在这个条形框内,再用等面积的小条形框对图像进行扫描并统计有效点的个数。最后根据扫描的结果来提取导航线。试验结果表明,对比Hough算法和最小二乘法(Least square method, LSM),BDSF算法处理一幅分辨率为640像素×480像素的图像,平均耗时为67ms,与LSM算法耗时相当,精度接近Hough算法;并且在杂草和株数稀缺情况下具有良好的适应性,能够快速准确地提取作物行基准线。  相似文献   

14.
基于优化Faster R-CNN的棉花苗期杂草识别与定位   总被引:2,自引:0,他引:2  
为解决棉花苗期杂草种类多、分布状态复杂,且与棉花幼苗伴生的杂草识别率低、鲁棒性差等问题,以自然条件下新疆棉田棉花幼苗期的7种常见杂草为研究对象,提出了一种基于优化Faster R-CNN和数据增强的杂草识别与定位方法。采集不同生长背景和天气条件下的杂草图像4694幅,对目标进行标注后,再对其进行数据增强;针对Faster R-CNN模型设计合适的锚尺度,对比VGG16、VGG19、ResNet50和ResNet101这4种特征提取网络的分类效果,选定VGG16作为最优特征提取网络,训练后得到可识别不同天气条件下的棉花幼苗与多种杂草的Faster R-CNN网络模型。试验表明,该模型可对杂草与棉花幼苗伴生、杂草分布稀疏或分布紧密且目标多等情况下的杂草进行有效识别与定位,优化后的模型对单幅图像平均识别时间为0.261s,平均识别精确率为94.21%。在相同训练样本、特征提取网络以及环境设置条件下,将本文方法与主流目标检测算法——YOLO算法和SSD算法进行对比,优化后的Faster R-CNN模型具有明显优势。将训练好的模型置于田间实际环境进行验证试验,识别过程对采集到的150幅有效图像进行了验证,平均识别精确率为88.67%,平均每幅图像耗时0.385s,说明本文方法具有一定的适用性和可推广性。  相似文献   

15.
设计了一套田间多光谱虚拟仪器视觉系统.系统使用高分辨率的多光谱(近红外、红光和绿光)相机MS3100,拍摄作物生长期的多光谱图像,采用Labview及其视觉模块编写图像的采集、处理和分析程序,实时测取作物各个光谱波段的反射率.田间试验表明,该系统可以准确地对图像中的作物进行识别,求取作物的光谱反射特征,在2.4m×1.8m的视窗内,每组图像的采集和处理时间平均为311ms,满足田间精准变量投入的在线工作要求.  相似文献   

16.
基于图像处理多算法融合的杂草检测方法及试验   总被引:1,自引:0,他引:1  
自动化除草是现代精确农业科学领域的研究热点。已有的自动化除草解决方案中普遍存在鲁棒性不强、过度依赖大量样本等问题,针对上述问题,本研究提出了基于图像处理多算法融合的田间杂草检测方法,设计了一套田间杂草自动识别算法。首先通过设置颜色空间的阈值从图像中分割土壤背景。然后采用面积阈值、模板匹配和饱和度阈值三种方法对作物和杂草进行分类。最后基于投票的方式,综合权衡上述三种方法,实现对作物和杂草的精准识别与定位。以大豆田间除草为对象进行了试验研究,结果表明,使用融合多图像处理算法的投票方法进行作物和杂草识别定位,杂草识别平均错误率为1.79%,识别精度达到98.21%。相较单一的面积阈值、模板匹配和饱和度阈值方法,基于投票权重识别杂草的精度平均提升5.71%。同时,针对复杂多变的农业场景,进行了存在雨滴和阴影干扰的鲁棒性测试,实现了90%以上的作物识别结果,表明本研究方法具有较好的适应性和鲁棒性。本研究算法可为智能移动机器人除草作业等智慧农业领域应用提供技术支持。  相似文献   

17.
棉花铺膜播种机导航路线图像检测方法   总被引:7,自引:0,他引:7  
研究了棉花铺膜播种机田间作业时导航路线和田端的图像检测算法。针对自然环境下的棉花播种作业图像,采用Daubechies小波变换对处理区域进行平滑滤波;针对第1帧图像,寻找图像处理区域的垂直累计直方图的波谷,以此为基础,通过寻找局部窗口累计直方图波谷的方法,从图像底端逐行向上寻找各行候补点;对于非第1帧图像,采用当前帧与前帧导航路线相关联的方法分段寻找候补点群;最后基于过已知点Hough变换拟合出导航路线。实验证明,采用的算法可以快速、准确地检测出棉花铺膜播种作业时的导航路线及棉田田端,平均每帧图像处理时间为72.02 ms,满足铺膜播种机实际播种作业的需求。  相似文献   

18.
针对棉花轧工质量现行人工感官检验中存在的劳动强度大、主观性强、检测效率低等问题,设计一种基于机器视觉的棉花轧工质量检测系统。系统由压棉机构、图像采集机构、检测处理机、检测控制板卡和触控显示屏组成。设计了低角度直接照明系统与图像采集机构,LED光源以检测视窗法线呈45°方向照射,工业相机透过光学玻璃采集棉花图像。采用图像纹理特征表达棉花外观形态,通过测定轧工质量实物标准的角二阶矩,建立图像纹理特征与外观形态关系模型,融合噪声点评价与高低阈值自适应的Canny方法进行图像滤波与分割识别,根据欧氏距离进行轧工质量等级判定,并选取棉样进行系统试验验证。结果表明,轧工质量实物标准P1、P2、P3的角二阶矩分别为[0.893 2,1]、[0.689 1,0.776 1]、[0.213 6,0.587 3],各等级间的角二阶矩纹理特征值区别明显,验证了图像纹理表达棉花外观形态的可行性。系统的疵点粒数指标检测相对偏差为0.15,疵点与背景的分离效果明显。与国标检验方法相比,轧工质量视觉系统检测准确率达94.20%,检测偏差上下浮动不大于1个轧工质量等级,与国标检验结果一致性高。单个棉样系统检测耗时1....  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号