首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 124 毫秒
1.
针对大田蔬菜对靶施药过程中靶标难以精准识别定位的问题,以甘蓝为研究对象,进行基于深度学习的靶标在线识别方法与模型研究。对比3种当前性能较优的目标检测模型Faster R-CNN、SSD和YOLO v5s,选择YOLO v5s作为田间甘蓝识别迁移学习模型,提出一种MobileNet v3s主干特征提取网络与深度可分离卷积融合的YOLO-mdw大田甘蓝目标识别方法,实现复杂环境下的大田甘蓝实时识别;提出一种基于卡尔曼滤波和匈牙利算法的甘蓝目标定位方法,并将模型部署于NVIDIA Xavier NX开发板上。试验结果表明,YOLO-mdw识别模型在晴天、多云、阴雨天气条件下识别准确率分别为93.14%、94.75%和94.23%,图像处理时间为54.09 ms,相对于YOLO v5s模型用时缩短26.98%;速度不大于0.6 m/s时,识别准确率达94%,平均定位误差为4.13 cm,平均甘蓝直径识别误差为1.42 cm。该靶标识别系统能在大田复杂环境下对甘蓝进行实时识别定位,为对靶施药提供技术支持。  相似文献   

2.
基于改进YOLO v3的自然场景下冬枣果实识别方法   总被引:4,自引:0,他引:4  
为实现自然场景下冬枣果实的快速、精准识别,考虑到光线变化、枝叶遮挡、果实密集重叠等复杂因素,基于YOLO v3深度卷积神经网络提出了一种基于改进YOLO v3(YOLO v3-SE)的冬枣果实识别方法。YOLO v3-SE模型利用SE Net 的SE Block结构将特征层的特征权重校准为特征权值,强化了有效特征,弱化了低效或无效特征,提高了特征图的表现能力,从而提高了模型识别精度。YOLO v3-SE模型经过训练和比较,选取0.55作为置信度最优阈值用于冬枣果实检测,检测结果准确率P为88.71%、召回率R为83.80%、综合评价指标F为86.19%、平均检测精度为82.01%,与YOLO v3模型相比,F提升了2.38个百分点,mAP提升了4.78个百分点,检测速度无明显差异。为检验改进模型在冬枣园自然场景下的适应性,在光线不足、密集遮挡和冬枣不同成熟期的情况下对冬枣果实图像进行检测,并与YOLO v3模型的检测效果进行对比,结果表明,本文模型召回率提升了2.43~5.08个百分点,F提升了1.75~2.77个百分点,mAP提升了2.38~4.81个百分点,从而验证了本文模型的有效性。  相似文献   

3.
为实现复杂自然环境下对桑树嫩叶处枝干的识别检测,改变当前桑叶采摘设备作业过程中依赖人工辅助定位的现状,解决识别目标姿态多样和环境复杂导致的低识别率问题,提出一种基于改进YOLO v5模型的桑树枝干识别模型(YOLO v5-mulberry),并结合深度相机构建定位系统。首先,在YOLO v5的骨干网络中加入CBAM(Convolutional block attention module)注意力机制,提高神经网络对桑树枝干的关注度;并增加小目标层使模型可检测4像素×4像素的目标,提高了模型检测小目标的性能;同时使用GIoU损失函数替换原始网络中的IoU损失函数,有效防止了预测框和真实框尺寸较小时无法正确反映预测框及真实框之间位置关系的情况;随后,完成深度图和彩色图的像素对齐,通过坐标系转换获取桑树枝干三维坐标。试验结果表明:YOLO v5-mulberry检测模型的平均精度均值为94.2%,较原模型提高16.9个百分点,置信度也提高12.1%;模型室外检测时应检测目标数53,实际检测目标数为48,检测率为90.57%;桑树嫩叶处枝干三维坐标识别定位系统的定位误差为(9.498 5 mm...  相似文献   

4.
为在有限的嵌入式设备资源下达到实时检测要求,提出一种基于改进YOLO v5的百香果轻量化检测模型(MbECA-v5)。首先,使用MobileNetV3替换主干特征提取网络,利用深度可分离卷积代替传统卷积减少模型的参数量。其次,嵌入有效通道注意力网络(ECANet)关注百香果整体,引入逐点卷积连接特征提取网络和特征融合网络,提高网络对百香果图像的特征提取能力和拟合能力。最后,运用跨域与域内多轮训练相结合的迁移学习策略提高网络检测精度。试验结果表明,改进后模型的精确率和召回率为95.3%和88.1%;平均精度均值为88.3%,较改进前提高0.2个百分点。模型计算量为6.6 GFLOPs,体积仅为6.41MB,约为改进前模型的1/2,在嵌入式设备实时检测速度为10.92f/s,约为SSD、Faster RCNN、YOLO v5s模型的14倍、39倍、1.7倍。因此,基于改进YOLO v5的轻量化模型提高了检测精度和大幅降低了计算量和模型体积,在嵌入式设备上能够高效实时地对复杂果园环境中的百香果进行检测。  相似文献   

5.
为实时准确地检测到自然环境下背景复杂的荔枝病虫害,本研究构建荔枝病虫害图像数据集并提出荔枝病虫害检测模型以提供诊断防治。以YOLO v4为基础,使用更轻、更快的轻量化网络GhostNet作为主干网络提取特征,并结合GhostNet中的核心设计引入更低成本的卷积Ghost Module代替颈部结构中的传统卷积,得到轻量化后的YOLO v4-G模型。在此基础上使用新特征融合方法和注意力机制CBAM对YOLO v4-G进行改进,在不失检测速度和模型轻量化程度的情况下提高检测精度,提出YOLO v4-GCF荔枝病虫害检测模型。构建的数据集包含荔枝病虫害图像3725幅,其中病害种类包括煤烟病、炭疽病和藻斑病3种,虫害种类包括毛毡病和叶瘿蚊2种。试验结果表明,基于YOLO v4-GCF的荔枝病虫害检测模型,对于5种病虫害目标在训练集、验证集和测试集上的平均精度分别为95.31%、90.42%和89.76%,单幅图像检测用时0.1671s,模型内存占用量为39.574MB,相比改进前的YOLO v4模型缩小84%,检测速度提升38%,在测试集中检测平均精度提升4.13个百分点,同时平均精度比常用模型YOLO v4-tiny、EfficientDet-d2和Faster R-CNN分别高17.67、12.78、25.94个百分点。所提出的YOLO v4-GCF荔枝病虫害检测模型能够有效抑制复杂背景的干扰,准确且快速检测图像中荔枝病虫害目标,可为自然环境下复杂、非结构背景的农作物病虫害实时检测研究提供参考。  相似文献   

6.
为了实现复杂环境下农业机器人对番茄果实的快速准确识别,提出了一种基于注意力机制与改进YOLO v5s的温室番茄目标快速检测方法。根据YOLO v5s模型小、速度快等特点,在骨干网络中加入卷积注意力模块(CBAM),通过串联空间注意力模块和通道注意力模块,对绿色番茄目标特征给予更多的关注,提高识别精度,解决绿色番茄在相似颜色背景中难识别问题;通过将CIoU Loss替换GIoU Loss作为算法的损失函数,在提高边界框回归速率的同时提高果实目标定位精度。试验结果表明,CB-YOLO网络模型对温室环境下红色番茄检测精度、绿色番茄检测精度、平均精度均值分别为99.88%、99.18%和99.53%,果实检测精度和平均精度均值高于Faster R-CNN模型、YOLO v4-tiny模型和YOLO v5模型。将CB-YOLO模型部署到安卓手机端,通过不同型号手机测试,验证了模型在移动终端设备上运行的稳定性,可为设施环境下基于移动边缘计算的机器人目标识别及采收作业提供技术支持。  相似文献   

7.
基于YOLO v3与图结构模型的群养猪只头尾辨别方法   总被引:1,自引:0,他引:1  
在利用视频监控技术对群养猪只进行自动行为监测时,对猪只准确定位并辨别其头尾位置对提高监测水平至关重要,基于此提出一种基于YOLO v3(You only look once v3)模型与图结构模型(Pictorial structure models)的猪只头尾辨别方法。首先,利用基于深度卷积神经网络的YOLO v3目标检测模型,训练猪只整体及其头部和尾部3类目标的检测器,从而在输入图像中获得猪只整体及头尾部所有的检测结果;然后,引入图结构模型,描述猪只的头尾结构特征,对每个猪只整体检测矩形框内的头尾部位组合计算匹配得分,选择最优的部位组合方式;对部分部位漏检的情况,采取阈值分割与前景椭圆拟合的方法,根据椭圆长轴推理出缺失部位。在实际猪场环境下,通过俯拍获得猪舍监控视频,建立了图像数据集,并进行了检测实验。实验结果表明,与直接利用YOLO v3模型相比,本文方法对头尾定位的精确率和召回率均有一定提高。本文方法对猪只头尾辨别精确率达到96.22%,与其他方法相比具有明显优势。  相似文献   

8.
山羊的脸部检测对羊场的智能化管理有着重要的意义。针对实际饲养环境中,羊群存在多角度、分布随机、灵活多变、羊脸检测难度大的问题,以YOLO v5s为基础目标检测网络,提出了一种结合坐标信息的山羊脸部检测模型。首先,通过移动设备获取舍内、舍外、单头以及多头山羊的图像并构建数据集。其次,在YOLO v5s的主干网络融入坐标注意力机制,以充分利用目标的位置信息,提高遮挡区域、小目标、多视角样本的检测精度。试验结果表明,改进YOLO v5s模型的检测精确率为95.6%,召回率为83.0%,mAP0.5为90.2%,帧速率为69 f/s,模型内存占用量为13.2 MB;与YOLO v5s模型相比,检测精度提高1.3个百分点,模型所占内存空间减少1.2 MB;且模型的整体性能远优于Faster R-CNN、YOLO v4、YOLO v5s模型。此外,本文构建了不同光照和相机抖动的数据集,来进一步验证本文方法的可行性。改进后的模型可快速有效地对复杂场景下山羊的脸部进行精准检测及定位,为动物精细化养殖时目标检测识别提供了检测思路和技术支持。  相似文献   

9.
肉牛目标检测和数量统计是精细化、自动化、智能化肉牛养殖要解决的关键问题,受肉牛个体颜色及纹理相近和遮挡等因素的影响,现有肉牛目标检测方法实用性较差。本研究基于YOLO v5s网络与通道信息注意力模块(ECABasicBlock),提出了一种融合通道信息的改进YOLO v5s网络(ECA-YOLO v5s),在YOLO v5s模型的骨干特征提取网络部分添加了3层通道信息注意力模块。ECA-YOLO v5s网络实现了重度遮挡环境下多目标肉牛的准确识别。对养殖场监控视频分帧得到的肉牛图像采用了一种基于结构相似性的冗余图像剔除方法以保证数据集质量。数据集制作完成后经过300次迭代训练,得到模型的精确率为89.8%,召回率为76.9%,全类平均精度均值为85.3%,检测速度为76.9 f/s,模型内存占用量为24 MB。与YOLO v5s模型相比,ECA-YOLO v5s的精确率、召回率和平均精度均值分别比YOLO v5s高1.0、0.8、2.2个百分点。为了验证不同注意力机制应用于YOLO v5s的性能差异,本研究对比了CBAM(Convolutional block attention mo...  相似文献   

10.
蛋鸭行为模式是判断笼养鸭养殖过程中健康状况及福利状态的重要指标,为了通过机器视觉实现识别蛋鸭多行为模式,提出了一种基于改进YOLO v4 (You only look once)的目标检测算法,不同的行为模式为蛋鸭的养殖管理方案提供依据。本文算法通过更换主干特征提取网络MobileNetV2,利用深度可分离卷积模块,在提升检测精度的同时降低模型参数量,有效提升检测速度。在预测输出部分引入无参数的注意力机制SimAM模块,进一步提升模型检测精度。通过使用本文算法对笼养蛋鸭行为验证集进行了检测,优化后模型平均精度均值达到96.97%,图像处理帧率为49.28 f/s,相比于原始网络模型,平均精度均值及处理速度分别提升5.03%和88.24%。与常用目标检测网络进行效果对比,改进YOLO v4网络相较于Faster R-CNN、YOLO v5、YOLOX的检测平均精度均值分别提升12.07%、30.6%及2.43%。将本文提出的改进YOLO v4网络进行试验研究,试验结果表明本文算法可以准确地对不同时段的笼养蛋鸭行为进行记录,根据蛋鸭表现出的不同行为模式来帮助识别蛋鸭的异常情况,如部分行为发...  相似文献   

11.
针对大蒜联合收获作业过程中根系切净率低与损伤率高的问题,设计了一种按压式切根装置,阐述了其主要结构与工作机理。通过理论计算确定了夹持输送与切割机构作业参数,构建大蒜夹持运动方程和拨轮组动力、变形及切割力学模型。以链轮、拨轮和圆盘刀转速为试验因素,伤蒜率和切净率为试验指标,利用Design-Expert 8.0.5软件进行回归与响应面分析,构建三元二次回归模型,得到各因素对指标值的影响顺序。结果表明,当链轮、拨轮和圆盘刀转速为107、52、197r/min时,装置性能最优,伤蒜率和切净率分别为0.63%和97.07%。对比鳞茎顶端定位“浮动切根装置”的最优参数组合,结果表明,所提出的装置伤蒜率降低2.15个百分点,切净率提高3.9个百分点。对优化因素进行试验验证,验证与优化结果基本一致,满足大蒜机械化收获高效切根作业要求。  相似文献   

12.
为探究蒜薹不同采收方式及植株叶片损伤程度与鳞茎均重之间的关联机制,开展两年的大蒜田间试验研究。试验以"苍山白蒜"和"金乡紫皮蒜"两个大蒜品种为材料,研究不采薹、手工采薹、犁刀法采薹、剪花苞式采薹及不同植株叶片损伤程度等12种蒜薹采收方式对鳞茎均重的影响。试验数据均表明,以鳞茎均重为评价指标,各采收方式对评价指标均有不同程度的影响。剪花苞式处理组指标值最高,不采薹处理组指标值最低,且两组指标值差异显著;手工采薹与犁刀法采薹的指标值差异不显著。植株叶片损伤程度与指标值呈显著负线性相关关系。研究结果为优选蒜薹和鳞茎的组合采收方式提供依据,同时也为蒜薹采收机械的研究提供数据参考。  相似文献   

13.
大蒜收获机浮动切根装置作业机理分析与参数优化   总被引:1,自引:0,他引:1  
为深入研究大蒜浮动切根装置的作业机理和作业质量提升技术途径,对大蒜根系浮动切割作业过程中的力学特性进行理论研究,推导了切根作业过程鳞茎碰撞动力学方程,得出鳞茎初始碰撞相对速度是影响碰撞损伤的关键参数;分析了根系滑切原理,建立了刀刃切割阻力力学模型,分析了根系群切割阻力的形成原因;运用高速摄影技术解析了鳞茎碰撞、根系群扰动和断裂等力学行为的产生过程。针对影响切根作业质量的主要因素进行了响应面试验,建立了伤蒜率、切净率预测数学模型,分析了各因素对伤蒜率、切净率的影响,并进行了综合参数优化,得到浮动切根装置较优参数组合为:输送速度1m/s、切刀转速2600r/min、刃口倾斜角33°、螺旋防护栅螺距28mm,试验测定伤蒜率为2.78%,切净率为93.17%,各项作业指标满足大蒜机械化收获切根作业要求。  相似文献   

14.
针对油茶果体积小、分布密集、颜色多变等特点,为实现自然复杂场景下油茶果的快速精准定位,并依据果实的疏密分布,确定恰当的自动振荡采收装置夹持位置,利用YOLO v5s卷积神经网络模型,开展了自然环境下油茶果图像检测方法研究,用3 296幅油茶果图像制作PASCAL VOC的数据集,对网络进行了150轮训练,得到的最优权值模型准确率为90.73%,召回率为98.38%,综合评价指标为94.4%,平均检测精度为98.71%,单幅图像检测时间为12.7 ms,模型占内存空间为14.08 MB。与目前主流的一阶检测算法YOLO v4-tiny和RetinaNet相比,其精确率分别提高了1.99个百分点和4.50个百分点,召回率分别提高了9.41个百分点和10.77个百分点,时间分别降低了96.39%和96.25%。同时结果表明,该模型对密集、遮挡、昏暗环境和模糊虚化情况下的果实均能实现高精度识别与定位,具有较强的鲁棒性。研究结果可为自然复杂环境下油茶果机械采收及小目标检测等研究提供借鉴。  相似文献   

15.
为准确估算森林采伐生物量实现森林碳汇的精准计量,针对采用单一时相可见光无人机影像估算高郁闭度森林采伐生物量较困难的问题,基于伐区采伐前后多时相可见光无人机影像,研究森林采伐生物量高精度的估算方法。以福建省闽侯白沙国有林场一个针叶林采伐小班为试验区,采集分辨率优于10 cm的采伐前后多时相可见光无人机影像,采用动态窗口局部最大值法得到高精度的采伐株数与单木树高信息,再基于采伐后无人机影像,运用YOLO v5方法检测并提取伐桩直径信息,根据胸径-伐桩直径模型来估算采伐木胸径信息,再利用树高和胸径二元生物量公式估算采伐生物量,以实测数据进行验证。根据动态窗口局部最大值法获取株数与平均树高精度分别为96.35%、99.01%,运用YOLO v5方法对伐桩目标检测的总体精度为77.05%,根据伐桩直径估算的平均胸径精度为90.14%,最后得到森林采伐生物量精度为83.08%,结果表明这一新方法具备较大的应用潜力。采用采伐前后多时相无人机可见光遥感,可实现森林采伐生物量的有效估算,有助于降低人工调查成本,为政府及有关部门进行碳汇精准计量提供有效的技术支持。  相似文献   

16.
监测与识别林下落果的数量和分布信息,是实现落果自动收获和果园智能化管理的重要基础。针对目前落果识别智能化程度较低等问题,提出一种基于深度学习的林下落果识别方法。首先,以不同类型、品种落果图像为基础,通过数据预处理、增强等方法建立林下落果图像数据集。其次,利用YOLO-v3深度卷积神经网络优势特性,建立落果智能识别方法。最后,以柑橘、梨、苹果三种典型落果,对基于深度学习的林下落果识别方法进行测试与验证,分析相关试验结果。试验结果表明:所提出的基于YOLO-v3落果识别方法,在不同条件均能准确识别落果,三种典型落果识别精度大于89%;相对于SSD,RCNN和CenterNet三种网络模型,YOLO-v3的准确率分别提高7%,2%和3.5%;在腐烂落果识别层面,YOLO-v3、SSD、RCNN和CenterNet的识别准确率分别为86%,59%,64%和43%;YOLO-v3的识别准确率高于其他深度学习模型。所提出的方法可以精确的识别林下落果,为后期的落果精准管理提供必要的技术支撑。  相似文献   

17.
针对深层神经网络模型部署到番茄串采摘机器人,存在运行速度慢,对目标识别率低,定位不准确等问题,本文提出并验证了一种高效的番茄串检测模型。模型由目标检测与语义分割两部分组成。目标检测负责提取番茄串所在的矩形区域,利用语义分割算法在感兴趣区域内获取番茄茎位置。在番茄检测模块,设计了一种基于深度卷积结构的主干网络,在实现模型参数稀疏性的同时提高目标的识别精度,采用K-means++聚类算法获得先验框,并改进了DIoU距离计算公式,进而获得更为紧凑的轻量级检测模型(DC-YOLO v4)。在番茄茎语义分割模块(ICNet)中以MobileNetv2为主干网络,减少参数计算量,提高模型运算速度。将采摘模型部署在番茄串采摘机器人上进行验证。采用自制番茄数据集进行测试,结果表明,DC-YOLO v4对番茄及番茄串的平均检测精度为99.31%,比YOLO v4提高2.04个百分点。语义分割模块的mIoU为81.63%,mPA为91.87%,比传统ICNet的mIoU提高2.19个百分点,mPA提高1.47个百分点。对番茄串的准确采摘率为84.8%,完成一次采摘作业耗时约6s。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号