首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
针对新疆棉田杂草的伴生特点带来的特征过拟合、精确率低等问题,以新疆棉花幼苗与杂草为研究对象,分析杂草识别率低的影响因素,建立了基于Faster R-CNN的网络识别模型.采集不同角度、不同自然环境和不同密集程度混合生长的棉花幼苗与杂草图像5 370张.为确保样本质量以及多样性,利用颜色迁移和数据增强来提高图像的颜色特征与扩大样本量,以PASCAL VOC格式数据集进行网络模型训练.通过综合对比VGG16,VGG19,ResNet50和ResNet101这4种网络的识别时间与精度,选择VGG16网络训练Faster R-CNN模型.在此基础上设计了纵横比为1∶1的最佳锚尺度,在该模型下对新疆棉花幼苗与杂草进行识别,实现91.49%的平均识别精度,平均识别时间262 ms.为农业智能精确除草装备的研发提供了参考.  相似文献   

2.
基于Faster R-CNN的田间西兰花幼苗图像检测方法   总被引:4,自引:0,他引:4  
为解决自然环境下作物识别率不高、鲁棒性不强等问题,以西兰花幼苗为研究对象,提出了一种基于Faster R-CNN模型的作物检测方法。根据田间环境特点,采集不同光照强度、不同地面含水率和不同杂草密度下的西兰花幼苗图像,以确保样本多样性,并通过数据增强手段扩大样本量,制作PASCAL VOC格式数据集。针对此数据集训练Faster R-CNN模型,通过设计ResNet101、ResNet50与VGG16网络的对比试验,确定ResNet101网络为最优特征提取网络,其平均精度为90. 89%,平均检测时间249 ms。在此基础上优化网络超参数,确定Dropout值为0. 6时,模型识别效果最佳,其平均精度达到91. 73%。结果表明,本文方法能够对自然环境下的西兰花幼苗进行有效检测,可为农业智能除草作业中的作物识别提供借鉴。  相似文献   

3.
针对工业机器人在高度制造领域精度不高的问题,本文提出了一种基于POE模型的工业机器人运动学参数二次辨识方法。阐述了基于指数积(Product of exponential,POE)模型的运动学误差模型构建方法,并建立基于POE误差模型的适应度函数;为实现高精度的参数辨识,提出了一种二次辨识方法,先利用改进灰狼优化算法(Improved grey wolf optimizer, IGWO)实现运动学参数误差的粗辨识,初步将Staubli TX60型机器人的平均位置误差和平均姿态误差分别从(0.648mm,0.212°)降低为(0.457mm,0.166°);为进一步提高机器人的精度性能,再通过LM(Levenberg-Marquard)算法进行参数误差的精辨识,最终将Staubli TX60型机器人平均位置误差和平均姿态误差进一步降低为(0.237mm,0.063°),机器人平均位置误差和平均姿态误差分别降低63.4%和70.2%。为了验证上述二次辨识方法的稳定性,随机选取5组辨识数据集和验证数据集进行POE误差模型的参数误差辨识,结果表明提出的二次辨识方法能够稳定、精确地辨识工业机器人运动学参数误差。  相似文献   

4.
为提高田间除草机械化水平,提高除草作业效率,设计一种能够自动识别除草的智能田间除草机器人。该机器人采用轮式驱动,以STM32F103C8T6微控芯片为控制核心,基于LabVEW软件平台开发了视觉识别系统,可根据不同的地形特征设计行走路线,对杂草进行精准定位,实现机器人移动与除草功能,并能通过智能手机进行控制。采用垄间作业模式对不同农作物进行除草试验,结果表明:机器人的平均杂草识别率为95%,平均杂草清除率为83%,较之于以往研究提升了8%。能够应用于不同田间除草作业。  相似文献   

5.
基于图像处理多算法融合的杂草检测方法及试验   总被引:1,自引:0,他引:1  
自动化除草是现代精确农业科学领域的研究热点。已有的自动化除草解决方案中普遍存在鲁棒性不强、过度依赖大量样本等问题,针对上述问题,本研究提出了基于图像处理多算法融合的田间杂草检测方法,设计了一套田间杂草自动识别算法。首先通过设置颜色空间的阈值从图像中分割土壤背景。然后采用面积阈值、模板匹配和饱和度阈值三种方法对作物和杂草进行分类。最后基于投票的方式,综合权衡上述三种方法,实现对作物和杂草的精准识别与定位。以大豆田间除草为对象进行了试验研究,结果表明,使用融合多图像处理算法的投票方法进行作物和杂草识别定位,杂草识别平均错误率为1.79%,识别精度达到98.21%。相较单一的面积阈值、模板匹配和饱和度阈值方法,基于投票权重识别杂草的精度平均提升5.71%。同时,针对复杂多变的农业场景,进行了存在雨滴和阴影干扰的鲁棒性测试,实现了90%以上的作物识别结果,表明本研究方法具有较好的适应性和鲁棒性。本研究算法可为智能移动机器人除草作业等智慧农业领域应用提供技术支持。  相似文献   

6.
智能除草机器人的研究进展与分析   总被引:2,自引:0,他引:2  
智能除草机器人是一种集环境感知、路径规划、目标识别和动作控制于一体的机器人系统,能精确、高效地除去农田杂草,可大大解放劳动力,符合当代精准农业的发展要求,是国内外学者研究的热点。本文概述了国内外智能除草机器人的研究现状,总结了智能除草机器人植物识别技术的4项基本要素,进一步分析了智能除草机器人的未来发展趋势,结合目前的研究内容,提出国内智能除草装备与技术存在的问题并给出相应的研究思路与建议,旨在加快智能除草机器人的发展进程。  相似文献   

7.
针对株间机械除草时末端执行器存在损伤玉米根系风险的问题,提出了一种基于玉米根系保护的除草铲土上避苗除草模式,并设计了一套智能株间除草机器人系统。该机器人系统由机器人移动平台、除草装置、视觉检测系统和控制系统组成。其中视觉检测系统采用YOLO V4网络模型来检测玉米苗和杂草;除草装置是基于除草铲空间立体运动轨迹设计,使得除草铲可以完成土上和土下2种避苗除草作业模式。田间试验表明,在机器人移动平台前进速度为1.2km/h时,玉米苗和杂草的检测率分别为96.04%和92.57%,且2种除草模式的除草率均高于81%。除草铲土上避苗除草模式的平均伤根率为3.35%,相较于除草铲土下避苗除草模式降低了36.40个百分点。结果证明该除草机器人系统运行稳定,且除草铲土上避苗除草模式具有较优的玉米根系保护性能。  相似文献   

8.
基于YOLO v3的生猪个体识别方法   总被引:1,自引:0,他引:1  
为实现高效的猪只个体识别,提出一种基于机器视觉的生猪个体识别方法。通过采集母猪和仔猪个体图像,对图像进行扩充和筛选,制作训练集和测试集。试验采用基于YOLO v3的识别模型,并与Faster RCNN和SSD模型识别结果进行比较,结果表明:对仔猪的识别平均精度均值达89.65%,准确率达95.99%,召回率达84.09%。对母猪的识别平均精度均值达95.16%,准确率达96.00%,召回率达96.00%。相较于Faster RCNN,该模型的识别速率是其7倍以上,相较于SSD,该模型的平均精度均值提高9%,说明该模型在识别速率和识别精度上都达到了较高水平。该研究可为猪只个体智能识别、数据监测及养殖信息化等提供理论依据。  相似文献   

9.
智能田间除草机器人是当代农业发展现代化、精细化、智能化的重要体现,对国家社会发展、环境保护等方面有着重要意义。为明确智能除草机器人关键技术与装备当前研究现状,从除草方式、苗草识别定位和智能导航方式等方面,总结梳理典型除草机器人的研究现状及作业方式;综述智能导航、苗草识别、除草执行系统关键技术的重要意义及研究进展;结合除草机器人具有作业环境复杂多变性、作业对象娇嫩性、使用对象特殊性、作业季节性的研究特点,指出当前关键技术的现存问题并阐释组合导航技术、复杂田间环境图像处理技术及杂草分类、株间除草末端执行机构研发及机械结构优化是未来发展趋势。  相似文献   

10.
准确识别玉米幼苗是实现自动化精准除草、间苗、补种等苗期作业的重要前提。为此,针对自然环境下农业机器人对玉米幼苗的检测问题,结合深度残差网络强大的特征提取能力和级联网络连接多个检测器不断优化预测结果的特点,对Cascade R-CNN模型进行改进,使之适用于自然环境下玉米幼苗的检测。模型使用残差网络ResNet-50与特征金字塔网络FPN作为特征提取器提取玉米幼苗图像的特征图,利用区域建议网络生成目标候选框,通过感兴趣区域池化将不同大小的特征图转换为统一尺寸的输出;最后,分类回归模块根据特征图对目标进行分类,并使用边框回归修正候选框的位置和大小,从而完成玉米幼苗目标检测。同时,以3~5叶期玉米幼苗为研究对象,采集其田间图像并制作数据集,用所制作的数据集对Cascade R-CNN模型进行训练,选取AlexNet、VGG16、ResNet18、ResNet50与ResNet50+FPN分别作为特征提取网络进行对比试验,确定所提出的ResNet50+FPN为最优特征提取网络,平均精度均值(mAP)为91.76%,平均检测时间为6.5ms。选取双阶段目标检测模型Faster R-CNN、R-F...  相似文献   

11.
农田杂草不仅影响农作物的生长,还会间接助长病虫害的滋生和蔓延。针对目前使用的人工除草、化学除草等方法存在的问题,研究设计一种智能识别农作物定向施药的智能除草机器人,对其设计思路、工作原理以及关键结构等进行详细分析。该机器人采用自动化操作,除草效率高,可实现精准施药,有效保护生态环境。  相似文献   

12.
为了提高除草机器人自主导航能力和杂草识别率,将嵌入式Web和ZigBee技术引入到了机器人的控制系统中,设计了一种新型杂草自动识别除草机器人。除草器人利用摄像头采集导航图像,利用作物颜色特征在RGB颜色空间对图像进行分割,使用OTSU方法检测作物的中心线,以农作物行中心线为基准线进行自动行走,实现了机器人的自主导航功能。机器人利用杂草识别摄像头识别杂草,使用ARM9处理器对图像进行处理,利用ZigBee发送控制指令,最后由执行末端刀盘去除杂草。为了验证机器人杂草识别和导航性能的可靠性,对机器人的性能进行了测试,结果表明:图像计算和实际机器人测试的位姿结果非常接近,杂草的识别率在99.8%以上,算法的性能可靠,杂草识别精度高,除草机器人的实时性较好。  相似文献   

13.
针对大豆异常籽粒识别模型参数量过大、计算成本高、准确率较低等问题,提出了一种改进的轻量级神经网络MobileNetV3模型,将其层数减少,加快模型的训练和推理速度,增加全连接层和Softmax层以增加模型的非线性判别能力以及利于多分类任务的输出,使用全局平均池化代替全局最大池化减少信息丢失,通过添加Dropout层以及去掉MobileNetV3中SE Block注意力机制来增加模型的泛化能力。试验结果表明:将大豆籽粒图像数据经过传统的卷积神经网络AlexNet、VGG16与轻量级神经网络MobilenetV3训练测试结果进行对比,AlexNet算法最终平均精度均值(Mean average precision, mAP)为87.3%、VGG16算法为87.7%,二者mAP相差较小,但两者在训练过程中模型内存占用量及训练时间相差较大,其中AlexNet模型内存占用量为7 070 kB,训练时间为5 420.59 s,而VGG16模型内存占用量为19 674 kB,训练时间为8 282.68 s,整体来看AlexNet相对更好。通过对轻量级神经网络MobileNetV3模型的识别训练,最终...  相似文献   

14.
车型识别是智能交通系统的重要组成部分。针对特定类车辆脸部特征相近,提取车头特征易导致模型辨别力差、识别精度低等问题。提出了一种基于车辆侧面特征的车型识别方法。采用卷积神经网络实现对不同类型车辆的检测,使用统计模型计算目标车辆的横向位置。建立双相机(触发相机和抓拍相机)协同跟踪模型,利用感知哈希算法,对目标车辆实现判别式跟踪。最后抓拍相机完成车辆正面抓拍,完成目标车辆的车牌识别。最终的检测实验结果取得了81.94%的平均正确均值(Mean Average Precision,mAP)。  相似文献   

15.
基于卷积胶囊网络的百合病害识别研究   总被引:1,自引:0,他引:1  
丁永军  张晶晶  李民赞 《农业机械学报》2020,51(12):246-251;331
为了提高百合病害诊断模型的抗噪能力,以VGG-16模型为基础构建卷积胶囊网络,并分析了胶囊尺寸、路由迭代次数对训练时间及模型精度的影响。最终得到胶囊尺寸为8、路由迭代次数为3的卷积胶囊网络,该网络对百合病害诊断精度达到99.20%。使用不同等级的高斯噪声、椒盐噪声、斑点噪声、仿射变换图像对模型抗噪能力进行测试,结果表明,卷积胶囊网络明显优于VGG-16模型,更适合在实际生产环境下的百合病害诊断。  相似文献   

16.
果实识别是视觉检测技术重要的环节,其识别精度易受复杂的生长环境及果实状态的影响。以大棚环境下单个、一簇、光照、阴影、遮挡、重叠6种复杂生长状态下的番茄果实为对象,提出一种基于改进YOLOv4网络模型与迁移学习相结合的番茄果实识别方法。首先利用ImageNet数据集与VGG网络模型前端16卷积层进行模型参数预训练,将训练的模型参数初始化改进模型的权值以代替原始的初始化操作,然后使用番茄数据集在VGG19的卷积层与YOLOV4的主干网络相结合的新模型中进行训练,获得最优权重实现对复杂环境下的番茄果实进行检测。最后,将改进模型与Faster RCNN、YOLOv4-Tiny、YOLOv4网络模型进行比较。研究结果表明,改进模型在6种复杂环境下番茄果实平均检测精度值mAP达到89.07%、92.82%、92.48%、93.39%、93.20%、93.11%,在成熟、半成熟、未成熟3种不同成熟度下的F1分数值为84%、77%、85%,其识别精度优于比较模型。本文方法实现了在6种复杂环境下有效地番茄果实检测识别,为番茄果实的智能采摘提供理论基础。  相似文献   

17.
基于迁移学习的农作物病虫害检测方法研究与应用   总被引:3,自引:0,他引:3  
为了提高农作物病虫害严重程度(健康、一般、严重)的分类效果,采用迁移学习方式并结合深度学习提出了一种基于残差网络(ResNet 50)的CDCNNv2算法。通过对10类作物的3万多幅病虫害图像进行训练,获得了病虫害严重程度分类模型,其识别准确率可达91.51%。为了验证CDCNNv2模型的鲁棒性,分别与使用迁移学习的ResNet 50、Xception、VGG16、VGG19、DenseNet 121模型进行对比试验,结果表明,CDCNNv2模型比其他模型的平均精度提升了2.78~10.93个百分点,具有更高的分类精度,病虫害严重程度识别的鲁棒性增强。基于该算法所训练的模型,结合Android技术开发了一款实时在线农作物病虫害等级识别APP,通过拍摄农作物叶片病虫害区域图像,能够在0.1~0.5s之内获取识别结果(物种-病害种类-严重程度)及防治建议。  相似文献   

18.
鉴于Kinect相机进行肢体识别监控距离有限,提出使用网络大变焦摄像头、构建CNN-BP融合网络进行肢体动作识别,并以9组机器人吊装指令为例进行训练和识别。首先,基于OpenPose提取18个骨架节点坐标,生成RGB骨架图和骨架向量;然后,采用迁移学习方法对RGB骨架图使用InceptionV3网络提取图像深层抽象特征,并对训练数据集采用旋转、平移、缩放和仿射多种数据增强方式,以扩充训练数据,防止过拟合;再将提取的骨架向量使用BP神经网络提取点线面等浅层特征;最后对InceptionV3网络和BP神经网络输出进行融合,并使用Softmax求解器得到肢体识别结果。将肢体识别结果输入机器人辅助吊装控制系统,建立双重验证控制方法,完成机器人辅助吊装操作。实验结果表明,该方法保证了模型运行的精度和时效性,实时识别精度达0. 99以上,大大提升了远距离人机交互能力。  相似文献   

19.
为解决限位栏场景下经产母猪查情难度大、过于依赖公猪试情和人工查情的问题,提出了一种基于改进YOLO v5s算法的经产母猪发情快速检测方法。首先,利用马赛克增强方式(Mosaic data augmentation, MDA)扩充数据集,以丰富数据表征;然后,利用稀疏训练(Sparse training, ST)、迭代通道剪枝(Network pruning, NP)、模型微调(Fine tune, FT)等方式重构模型,实现模型压缩与加速;最后,使用DIOU_NMS代替GIOU_NMS,以提高目标框的识别精度,确保模型轻量化后,仍保持较高的检测精度。试验表明,优化后的算法识别平均精确率可达97.8%,单幅图像平均检测时间仅1.7 ms,单帧视频平均检测时间仅6 ms。分析空怀期母猪发情期与非发情期的交互行为特征,发现母猪发情期较非发情期交互时长与频率均显著提高(P<0.001)。以20 s作为发情检测阈值时,发情检测特异性为89.1%、准确率为89.6%、灵敏度为90.0%,该方法能够实现发情母猪快速检测。  相似文献   

20.
果园环境路面条件差、路面崎岖、颠簸,且果园环境的光照条件变化明显,对机器人视觉系统的图像处理单元具有高运动噪音干扰和高光照条件变化干扰的特点。当前我国泛用型除草机器人视觉系统普遍不适用于果园环境,其识别效率较低、可靠性较差,针对这一问题,提出一种基于机器视觉的果园喷药除草机器人视觉系统。该视觉系统将2G-R-B模型、OTSU阈值分割和二值形态学滤波技术综合应用于果园杂草的图像处理与识别,解决喷药除草机器人在图像高运动噪音干扰及光照条件变化干扰的果园环境下的杂草识别问题,提高果园喷药除草机器人视觉系统的图像分割可靠性及识别精度。试验结果表明:应用该视觉系统的果园喷药除草机器人在日光及夜间照明环境下的喷药成功率分别为84.5%和80.5%,喷药效果良好,且受日光光照条件影响较小,在果园喷药除草作业等方面具有实际应用价值。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号