首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 778 毫秒
1.
为实现对不同品种核桃的分类与定位,提出一种基于深度学习的核桃检测方法。首先,以新疆南疆地区主产的三种核桃为对象进行图像采集,并对图像进行翻转、裁剪、去噪、光照变换等操作制作核桃数据集;然后,采用基于YOLOv5的检测模型进行试验,并与YOLOv3、YOLOv4和Faster RCNN算法进行比较。结果表明,基于YOLOv5的模型对新2、新光和温185核桃检测的平均精度均值分别为99.5%、98.4%和97.1%,单幅图像检测耗时为7 ms。在相同数据集、相同试验环境下,该模型的检测速度是Faster RCNN的7倍,该模型的检测精度比YOLOv4高2.8%且模型大小仅为YOLOv4的1/14。试验结果表明,基于YOLOv5的核桃检测方法在检测精度和速度上是所有对比算法中最高的,适合本研究的检测需求,可为机器人自主分拣核桃提供研究基础。  相似文献   

2.
基于Mask R-CNN的猪只爬跨行为识别   总被引:1,自引:0,他引:1  
针对目前猪只爬跨行为自动化检测程度较低的问题,提出了一种基于Mask R-CNN的猪只爬跨行为识别算法。首先获取猪只俯视图像,利用Labelme制作数据集标签,引入迁移学习方法训练Res Net-FPN网络,获取猪只分割结果,并提取每个样本中的mask像素面积。提取每个样本中的最小mask像素面积作为爬跨行为识别的经验样本集,确定爬跨行为界定阈值。利用测试集分别测试猪只分割网络模型及爬跨行为识别算法,结果表明,猪只分割网络模型的分割准确率为94%,爬跨行为识别算法准确率为94. 5%。本算法能够自动有效地检测猪只爬跨行为,可为牲畜养殖自动化提供支持。  相似文献   

3.
为实现田间环境下对玉米苗和杂草的高精度实时检测,本文提出一种融合带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration, MSRCR)增强算法的改进YOLOv4-tiny模型。首先,针对田间环境的图像特点采用MSRCR算法进行图像特征增强预处理,提高图像的对比度和细节质量;然后使用Mosaic在线数据增强方式,丰富目标检测背景,提高训练效率和小目标的检测精度;最后对YOLOv4-tiny模型使用K-means++聚类算法进行先验框聚类分析和通道剪枝处理。改进和简化后的模型总参数量降低了45.3%,模型占用内存减少了45.8%,平均精度均值(Mean average precision, mAP)提高了2.5个百分点,在Jetson Nano嵌入式平台上平均检测帧耗时减少了22.4%。本文提出的Prune-YOLOv4-tiny模型与Faster RCNN、YOLOv3-tiny、YOLOv4 3种常用的目标检测模型进行比较,结果表明:Prune-YOLOv4-tiny的mAP为96.6%,分别比Faster RCNN和YOLOv3...  相似文献   

4.
针对甜菜机械化收获中机收甜菜识别不精确致使破损率计算不准确的问题,提出一种基于YOLOv4的机收甜菜破损检测方法。利用不同距离、不同角度和不同遮挡程度的甜菜照片制作数据集,对基于YOLOv4的机收甜菜破损检测模型进行训练和测试。测试结果表明:基于YOLOv4的机收甜菜破损检测模型识别完整甜菜精确率和召回率分别为94.02%和91.13%,识别破损甜菜的精确率和召回率分别为96.68%和95.21%,破损检测模型的mAP值为96.44%,比Faster R-CNN和SSD模型的mAP值分别高2.62%和5.65%。由此可得,提出的基于YOLOv4的机收甜菜破损检测模型可以更准确地完成对机收甜菜中完整甜菜和破损甜菜的识别,满足甜菜破损率计算的需求。  相似文献   

5.
对经济林木虫害进行目标检测有助于及时发现虫情,从而更有针对性地控制虫害。首先采用加权双向特征融合技术丰富各级特征图的语义信息和修改自适应Anchor计算方法对YOLOv5主干网络模型进行改进,然后在含20种经济林木虫害的图像扩增数据集上进行试验,最后与多种基于深度学习的目标检测方法进行对比。试验结果表明:改进后的YOLOv5模型相对于YOLOv3、YOLOv4、YOLOv5、Faster-RCNN和CenterNet模型,其平均精度均值分别提升0.133、0.156、0.113、0.128和0.078,最优达到0.923,模型推断速度为64.9帧。因此,改进的YOLOv5模型对经济林木虫害检测已达到实际应用水平,可为经济林木虫害预警系统提供算法支撑。  相似文献   

6.
基于视频追踪的猪只运动快速检测方法   总被引:3,自引:0,他引:3  
肖德琴  冯爱晶  杨秋妹  刘俭  张哲 《农业机械学报》2016,47(10):351-357,331
自然条件下猪只日常运动时间、距离、速度等构成的运动数据,可作为猪只健康与舒适度状况分析的重要依据。为快速准确地捕获及检测猪场猪只的各种运动信息,探讨了基于视频追踪的猪只运动信息检测方法,该方法在基于颜色特征与轮廓特征相结合的多猪只目标分割基础上,通过基于最小化代价函数的椭圆拟合和最短距离匹配的目标跟踪,设计了运动位移、运动速度、运动加速度和运动角速度4个运动信息的检测算法。进一步探索了基于运动信息检测猪只日常活跃状态、活动规律及行为识别方面的初步应用。试验结果表明,该算法能够识别多种颜色的纯色猪只;分割粘连猪只成功率达92.6%;通过连续4 d在广州市力智猪场种猪室实时视频测试表明,猪只日常活跃状态、活动规律和行为类别等信息均可通过猪只运动信息表现出来。所提方案可快速、有效检测猪只运动信息,为猪只行为分析、健康与舒适度评估提供了依据。  相似文献   

7.
基于YOLO v3与图结构模型的群养猪只头尾辨别方法   总被引:1,自引:0,他引:1  
在利用视频监控技术对群养猪只进行自动行为监测时,对猪只准确定位并辨别其头尾位置对提高监测水平至关重要,基于此提出一种基于YOLO v3(You only look once v3)模型与图结构模型(Pictorial structure models)的猪只头尾辨别方法。首先,利用基于深度卷积神经网络的YOLO v3目标检测模型,训练猪只整体及其头部和尾部3类目标的检测器,从而在输入图像中获得猪只整体及头尾部所有的检测结果;然后,引入图结构模型,描述猪只的头尾结构特征,对每个猪只整体检测矩形框内的头尾部位组合计算匹配得分,选择最优的部位组合方式;对部分部位漏检的情况,采取阈值分割与前景椭圆拟合的方法,根据椭圆长轴推理出缺失部位。在实际猪场环境下,通过俯拍获得猪舍监控视频,建立了图像数据集,并进行了检测实验。实验结果表明,与直接利用YOLO v3模型相比,本文方法对头尾定位的精确率和召回率均有一定提高。本文方法对猪只头尾辨别精确率达到96.22%,与其他方法相比具有明显优势。  相似文献   

8.
目前猪群图像检测均为基于水平框的目标检测算法,对于图像中猪体粘连和相互遮挡情况检测率较低,针对图像中的猪只长宽比例较大和可能发生任意角度旋转的特点,提出了一种基于双扩张层和旋转框定位的群猪目标检测算法(Dual dilated layer and rotary box location network, DR-Net)。采集3个猪场的群猪图像,利用数据增强保留9 600幅图像制作数据集;基于膨胀卷积搭建提取图像全局信息的双扩张层,借鉴Res2Net模块改进CSP层融合多尺度特征,猪只目标以旋转框定位并采用五参数表示法在模型训练中利用Gaussian Wasserstein distance计算旋转框的回归损失。试验结果表明,DR-Net对猪只目标识别的精确率、召回率、平均精确率、MAE、RMSE分别为98.57%、97.27%、96.94%、0.21、0.54,其检测效果优于YOLO v5,提高了遮挡与粘连场景下的识别精度和计数精度。利用可视化特征图分析算法在遮挡和粘连场景下能够利用猪只头颈部、背部或尾部特征准确定位目标。该研究有助于智能化猪场建设,可为后续猪只行为识别研究提供参考。  相似文献   

9.
[目的/意义]针对小麦叶片病虫害在自然环境下形态和颜色特征较为复杂、区分度较低等特点,提出一种高质量高效的病虫害检测模型,即YOLOv8-SS (You Only Look Once Version 8-SS),为病虫害的预防与科学化治理提供准确的依据。[方法]基于YOLOv8算法,采用改进的轻量级卷积神经网络ShuffleNet V2作为主干网络提取图像特征即YOLOv8-S,在保持检测精度的同时,减少模型的参数数量和计算负载;在此基础上增加小目标检测层和注意力机制SEnet (Squeeze and Excitation Network),对YOLOv8-S进行改进,在不降低检测速度和不损失模型轻量化程度的情况下提高检测精度,提出YOLOv8-SS小麦叶片病虫害检测模型。[结果与讨论]YOLOv8-SS模型在实验数据集上的平均识别精度和检测准确率分别达89.41%和91.00%,对比原模型分别提高10.11%和7.42%。因此,本研究所提出的方法可显著提高农作物病虫害的检测鲁棒性,并增强模型对小目标图像特征的提取能力,从而高效准确地进行病虫害的检测和识别。[结论]本研究使用的方法具...  相似文献   

10.
破损鸡蛋导致的漏液会污染自动化生产线和完好鸡蛋,不仅影响生产效率,还会干扰裂纹鸡蛋的检测.为实现破损鸡蛋快速、准确、低成本的识别,本文利用机器视觉技术,并结合深度学习网络深层次特征提取、高精度检测分类的特性,提出一种基于YOLOv4网络的破损鸡蛋检测方法.构建破损鸡蛋图像数据集,搭建YOLOv4深度学习网络,训练含有破...  相似文献   

11.
基于改进YOLOX的自然环境中火龙果检测方法   总被引:1,自引:0,他引:1  
自然环境下果实的精准检测是火龙果采摘机器人执行采摘作业的先决条件。为提高自然环境下果实识别的精确性、鲁棒性和检测效率,本研究对YOLOX(You Only Look Once X)网络进行改进,提出了一种含有注意力模块的目标检测方法。为便于在嵌入式设备上部署,本方法以YOLOX-Nano网络为基准,将卷积注意力模块(Convolutional Block Attention Module,CBAM)添加到YOLOX-Nano的主干特征提取网络中,通过为主干网络提取到不同尺度的特征层分配权重系数来学习不同通道间特征的相关性,加强网络深层信息的传递,降低自然环境背景下对火龙果识别的干扰。对该方法进行性能评估和对比试验,经过训练后,该火龙果目标检测网络在测试集的AP0.5值为98.9%,AP0.5:0.95的值为72.4%。在相同试验条件下对比其它YOLO网络模型,该方法平均检测精度分别超越YOLOv3、YOLOv4-Tiny和YOLOv5-S模型26.2%、9.8%和7.9%。最后对不同分辨率的火龙果果园自然环境下采集的视频进行实时测试。试验结果表明,本研究提出的改进YOLOX-Nano目标检测方法,每帧平均检测时间为21.72 ms,F1值为0.99,模型大小仅3.76 MB,检测速度、检测精度和模型大小满足自然环境下火龙果采摘的技术要求。  相似文献   

12.
肉牛目标检测和数量统计是精细化、自动化、智能化肉牛养殖要解决的关键问题,受肉牛个体颜色及纹理相近和遮挡等因素的影响,现有肉牛目标检测方法实用性较差。本研究基于YOLO v5s网络与通道信息注意力模块(ECABasicBlock),提出了一种融合通道信息的改进YOLO v5s网络(ECA-YOLO v5s),在YOLO v5s模型的骨干特征提取网络部分添加了3层通道信息注意力模块。ECA-YOLO v5s网络实现了重度遮挡环境下多目标肉牛的准确识别。对养殖场监控视频分帧得到的肉牛图像采用了一种基于结构相似性的冗余图像剔除方法以保证数据集质量。数据集制作完成后经过300次迭代训练,得到模型的精确率为89.8%,召回率为76.9%,全类平均精度均值为85.3%,检测速度为76.9 f/s,模型内存占用量为24 MB。与YOLO v5s模型相比,ECA-YOLO v5s的精确率、召回率和平均精度均值分别比YOLO v5s高1.0、0.8、2.2个百分点。为了验证不同注意力机制应用于YOLO v5s的性能差异,本研究对比了CBAM(Convolutional block attention mo...  相似文献   

13.
羊只站立、行走、采食等日常行为与其健康状况密切相关,高效、准确的羊只行为识别有助于疾病检测,对实现羊只健康预警具有重要意义。针对目前羊只多行为识别检测大多基于传感器等接触式设备,羊只活动受限,行为具有局限性,且群体养殖环境下,羊只行为多样、场景复杂、存在遮挡等造成的行为识别精度低等问题,提出了一种基于改进YOLO v8s的羊只行为识别方法。首先,引入SPPCSPC空间金字塔结构增强了模型的特征提取能力,提升了模型的检测精度。其次,新增P2小目标检测层,增强了模型对小目标的识别和定位能力。最后,引入多尺度轻量化模块PConv和EMSConv,在保证模型识别效果的同时,降低了模型参数量和计算量,实现了模型轻量化。实验结果表明,改进YOLO v8s模型对羊只站立、行走、采食、饮水、趴卧行为平均识别精度分别为84.62%、92.58%、87.54%、98.13%和87.18%,整体平均识别精度为90.01%。与Faster R-CNN、YOLO v5s、YOLO v7、YOLO v8s模型相比,平均识别精度分别提高12.03、3.95、1.46、2.19个百分点。研究成果可为羊只健康管理和疾病预警提供技术支撑。  相似文献   

14.
无人机避障不及时造成的人员伤亡及财产损失是阻碍无人机发展应用的重要原因之一,实时性好、准确率高的避障系统可降低无人机的运行风险。提出基于目标检测的智能避障系统,以one stage与two stage目标检测方法相结合的方式改进目标检测模型YOLOv3。其中,障碍物检测分三部分完成:基于darknet-53进行三个不同尺度的特征提取、RPN根据ground truth筛选感兴趣区域和yolo层多尺度特征融合预测障碍物的位置和分类。然后,在该文数据集的基础上将训练好的障碍物检测模型进行测试,测试结果表明:改进模型的障碍物检测速率为25帧/s,mAP为95.52%,与现有的目标检测模对比结果表明:本研究改进的目标检测智能避障算法,比Faster R-CNN的mAP提高17.2%,检测速率加快14个FPS;并在保证实时性的同时,mAP比YOLO2提高23.3%,比YOLOv3提高6.25%。最后,将目标检测模型应用于无人机避障系统中提出实现方案,进一步为无人机安全运行提供新的方法。  相似文献   

15.
基于改进YOLOv5m的采摘机器人苹果采摘方式实时识别   总被引:1,自引:0,他引:1  
为准确识别果树上的不同苹果目标,并区分不同枝干遮挡情形下的果实,从而为机械手主动调整位姿以避开枝干对苹果的遮挡进行果实采摘提供视觉引导,提出了一种基于改进YOLOv5m面向采摘机器人的苹果采摘方式实时识别方法。首先,改进设计了BottleneckCSP-B特征提取模块并替换原YOLOv5m骨干网络中的BottleneckCSP模块,实现了原模块对图像深层特征提取能力的增强与骨干网络的轻量化改进;然后,将SE模块嵌入到所改进设计的骨干网络中,以更好地提取不同苹果目标的特征;进而改进了原YOLOv5m架构中输入中等尺寸目标检测层的特征图的跨接融合方式,提升了果实的识别精度;最后,改进了网络的初始锚框尺寸,避免了对图像里较远种植行苹果的识别。结果表明,所提出的改进模型可实现对图像中可直接采摘、迂回采摘(苹果上、下、左、右侧采摘)和不可采摘果实的识别,识别召回率、准确率、mAP和F1值分别为85.9%、81.0%、80.7%和83.4%。单幅图像的平均识别时间为0.025s。对比了所提出的改进算法与原YOLOv5m、YOLOv3和EfficientDet-D0算法在测试集上对6类苹果采摘方式的识别效果,结果表明,所提出的算法比其他3种算法识别的mAP分别高出了5.4、22、20.6个百分点。改进模型的体积为原始YOLOv5m模型体积的89.59%。该方法可为机器人的采摘手主动避开枝干对果实的遮挡,以不同位姿采摘苹果提供技术支撑,可降低苹果的采摘损失。  相似文献   

16.
针对目前蛋鸡啄羽异常行为(包括啄和被啄)识别精度比较低的问题,提出了一种基于改进YOLO v6-tiny模型进行啄羽异常行为识别的方法。该方法通过在YOLO v6-tiny模型中引入DenseBlock结构并融入CSP结构的SPP模块(SPPCSPC)的方式,增强了YOLO v6-tiny模型的特征提取能力,扩大了模型的感受野,提升了模型的检测精度。在识别出啄羽异常行为的基础上,对如何基于异常行为发生次数,进行蛋鸡个体分类进行了研究。提出了基于YOLO v6-tiny模型进行蛋鸡个体识别,并将啄羽异常行为识别结果输入个体识别网络,进行蛋鸡个体分类的方法。同时,本文还分别对2种不同的养殖密度、一天当中3个不同的时间段,异常行为发生次数的变化规律进行了分析。实验结果表明,优化后的模型对啄和被啄异常行为的识别平均精度(AP)分别为92.86%和92.93%,分别比YOLO v6-tiny模型高1.61、1.08个百分点,比Faster R-CNN模型高3.28、4.00个百分点,比YOLO v4-tiny模型高6.15、6.63个百分点,比YOLO v5s模型高2.04、4.27个百分点,比YOLO v7-tiny模型高5.39、3.92个百分点。本文方法可以识别出啄和被啄羽异常行为,为蛋鸡异常行为的智能检测提供了技术支撑。  相似文献   

17.
海参目标检测是实现海参自动化捕捞的前提。为了解决复杂海底环境下背景和目标颜色相近以及遮挡导致的目标漏检问题,本文在Faster R-CNN框架下,提出了Swin-RCNN目标检测算法。该算法的骨干网络采用Swin Transformer,同时在结构上融入了多尺度特征提取层和实例分割功能,提高了算法的自适应特征融合能力,从而提高了模型在复杂环境下对不同尺寸海参的识别能力。实验结果表明:本文方法对海参检测的平均精度均值(mAP)达到94.47%,与Faster R-CNN、SSD、YOLO v5、YOLO v4、YOLO v3相比分别提高4.49、4.56、4.46、11.78、22.07个百分点。  相似文献   

18.
针对果园目标检测时相机抖动以及物体相对运动导致检测图像模糊的问题,本文提出一种将DeblurGAN-v2去模糊网络和YOLOv5s目标检测网络相融合的D2-YOLO一阶段去模糊识别深度网络,用于检测识别果园模糊场景图像中的障碍物。为了减少融合网络的参数量并提升检测速度,首先将YOLOv5s骨干网络中的标准卷积替换成深度可分离卷积,并且在输出预测端使用CIoU_Loss进行边界框回归预测。融合网络使用改进的CSPDarknet作为骨干网络进行特征提取,将模糊图像恢复原始自然信息后,结合多尺度特征进行模型预测。为了验证本文方法的有效性,选取果园中7种常见的障碍物作为目标检测对象,在Pytorch深度学习框架上进行模型训练和测试。试验结果表明,本文提出的D2-YOLO去模糊识别网络准确率和召回率分别为91.33%和89.12%,与分步式DeblurGAN-v2+YOLOv5s相比提升1.36、2.7个百分点,与YOLOv5s相比分别提升9.54、9.99个百分点,能够满足果园机器人障碍物去模糊识别的准确性和实时性要求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号