首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 78 毫秒
1.
为了有效地解决传统车辆检测算法中存在的泛化能力差、识别率不高的问题,提出了一种基于改进YOLO v3的车辆检测算法.改进的车辆算法对原YOLO v3中的模型进行剪枝处理,采用Darknet-53网络结构提取特征,同时结合回归损失函数GIOU算法对检测精度进行提高.在运用K-means++聚类分析算法处理数据基础上,运用...  相似文献   

2.
为实时准确地检测到自然环境下背景复杂的荔枝病虫害,本研究构建荔枝病虫害图像数据集并提出荔枝病虫害检测模型以提供诊断防治。以YOLO v4为基础,使用更轻、更快的轻量化网络GhostNet作为主干网络提取特征,并结合GhostNet中的核心设计引入更低成本的卷积Ghost Module代替颈部结构中的传统卷积,得到轻量化后的YOLO v4-G模型。在此基础上使用新特征融合方法和注意力机制CBAM对YOLO v4-G进行改进,在不失检测速度和模型轻量化程度的情况下提高检测精度,提出YOLO v4-GCF荔枝病虫害检测模型。构建的数据集包含荔枝病虫害图像3725幅,其中病害种类包括煤烟病、炭疽病和藻斑病3种,虫害种类包括毛毡病和叶瘿蚊2种。试验结果表明,基于YOLO v4-GCF的荔枝病虫害检测模型,对于5种病虫害目标在训练集、验证集和测试集上的平均精度分别为95.31%、90.42%和89.76%,单幅图像检测用时0.1671s,模型内存占用量为39.574MB,相比改进前的YOLO v4模型缩小84%,检测速度提升38%,在测试集中检测平均精度提升4.13个百分点,同时平均精度比常用模型YOLO v4-tiny、EfficientDet-d2和Faster R-CNN分别高17.67、12.78、25.94个百分点。所提出的YOLO v4-GCF荔枝病虫害检测模型能够有效抑制复杂背景的干扰,准确且快速检测图像中荔枝病虫害目标,可为自然环境下复杂、非结构背景的农作物病虫害实时检测研究提供参考。  相似文献   

3.
肉牛目标检测和数量统计是精细化、自动化、智能化肉牛养殖要解决的关键问题,受肉牛个体颜色及纹理相近和遮挡等因素的影响,现有肉牛目标检测方法实用性较差。本研究基于YOLO v5s网络与通道信息注意力模块(ECABasicBlock),提出了一种融合通道信息的改进YOLO v5s网络(ECA-YOLO v5s),在YOLO v5s模型的骨干特征提取网络部分添加了3层通道信息注意力模块。ECA-YOLO v5s网络实现了重度遮挡环境下多目标肉牛的准确识别。对养殖场监控视频分帧得到的肉牛图像采用了一种基于结构相似性的冗余图像剔除方法以保证数据集质量。数据集制作完成后经过300次迭代训练,得到模型的精确率为89.8%,召回率为76.9%,全类平均精度均值为85.3%,检测速度为76.9 f/s,模型内存占用量为24 MB。与YOLO v5s模型相比,ECA-YOLO v5s的精确率、召回率和平均精度均值分别比YOLO v5s高1.0、0.8、2.2个百分点。为了验证不同注意力机制应用于YOLO v5s的性能差异,本研究对比了CBAM(Convolutional block attention mo...  相似文献   

4.
肉牛活动过程中所表现出的行为是肉牛健康状况的综合体现,实现肉牛行为的快速准确识别,对肉牛疾病防控、自身发育评估和发情监测等具有重要作用。基于机器视觉的行为识别技术因其无损、快速的特点,已应用在畜禽养殖行为识别中,但现有的基于机器视觉的肉牛行为识别方法通常针对单只牛或单独某个行为开展研究,且存在计算量大等问题。针对上述问题,本文提出了一种基于SNSS-YOLO v7(Slim-Neck&Separated and enhancement attention module&Simplified spatial pyramid pooling-fast-YOLO v7)的肉牛行为识别方法。首先在复杂环境下采集肉牛的爬跨、躺卧、探究、站立、运动、舔砥和互斗7种常见行为图像,构建肉牛行为数据集;其次在YOLO v7颈部采用Slim-Neck结构,以减小模型计算量与参数量;然后在头部引入分离和增强注意力模块(Separated and enhancement attention module, SEAM)增强Neck层输出后的检测效果;最后使用SimSPPF(Simplified ...  相似文献   

5.
为了解决裂纹皮蛋分选中存在的效率低、人力成本高等问题,提出了一种基于改进YOLO v5的皮蛋裂纹在线检测方法。使用EfficientViT网络替换主干特征提取网络,并采用迁移学习对网络进行训练,分别得到YOLO v5n_EfficientViTb0和YOLO v5s_EfficientViTb1两个模型。YOLO v5n_EfficientViTb0为轻量化模型,相较于改进前参数量减少14.8%,浮点数计算量减少26.8%;YOLO v5s_EfficientViTb1为高精度检测模型,平均精度均值为87.8%。采用GradCAM++对模型可视化分析,得出改进模型减少了对背景区域的关注度,证明了改进模型的有效性。设计了视频帧的目标框匹配算法,实现了视频中皮蛋的目标追踪,依据皮蛋的检测序列实现了对皮蛋的定位和裂纹与否的判别。轻量化模型的判别准确率为92.0%,高精度模型的判别准确率为94.3%。研究结果表明,改进得到的轻量化模型为运算能力较差的皮蛋裂纹在线检测装备提供了解决方案,改进得到的高精度模型为生产要求更高的皮蛋裂纹在线检测装备提供了技术支持。  相似文献   

6.
多目标小鼠跟踪是小鼠行为分析的基本任务,是研究社交行为的重要方法。针对传统小鼠跟踪方法存在只能跟踪单只小鼠以及对多目标小鼠跟踪需要对小鼠进行标记从而影响小鼠行为等问题,提出了一种基于实例分割网络YOLO v8n-seg和改进Strongsort相结合的多目标小鼠无标记跟踪方法。使用RGB摄像头采集多目标小鼠的日常行为视频,标注小鼠身体部位分割数据集,对数据集进行增强后训练YOLO v8n-seg实例分割网络,经过测试,模型精确率为97.7%,召回率为98.2%,mAP50为99.2%,单幅图像检测时间为3.5ms,实现了对小鼠身体部位准确且快速地分割,可以满足Strongsort多目标跟踪算法的检测要求。针对Strongsort算法在多目标小鼠跟踪中存在的跟踪错误问题,对Strongsort做了两点改进:对匹配流程进行改进,将未匹配上目标的轨迹和未匹配上轨迹的目标按欧氏距离进行再次匹配;对卡尔曼滤波进行改进,将卡尔曼滤波中表示小鼠位置和运动状态的小鼠身体轮廓外接矩形框替换为以小鼠身体轮廓质心为中心、对角线为小鼠体宽的正方形框。经测试,改进后Strongsort算法的ID跳变数为14,MOTA为97.698%,IDF1为85.435%,MOTP为75.858%,与原Strongsort相比,ID跳变数减少88%,MOTA提升3.266个百分点,IDF1提升27.778个百分点,与Deepsort、ByteTrack和Ocsort相比,在MOTA和IDF1上均有显著提升,且ID跳变数大幅降低,结果表明改进Strongsort算法可以提高多目标无标记小鼠跟踪的稳定性和准确性,为小鼠社交行为分析提供了一种新的技术途径。  相似文献   

7.
基于改进YOLO v5的自然环境下樱桃果实识别方法   总被引:1,自引:0,他引:1  
为提高对樱桃果实识别的准确率,提升果园自动采摘机器人的工作效率,使用采集到的樱桃原始图像以及其搭配不同数据增强方式得到的数据图像共1816幅建立数据集,按照8∶2将数据集划分成训练集与测试集。基于深度学习网络,利用YOLO v5模型分别对不同数据增强方式以及组合增强方式扩增后的樱桃数据集进行识别检测,结果表明离线增强与在线增强均对模型精度提升有一定的正向促进作用,其中采用离线数据增强策略能够显著且稳定的增加检测精度,在线数据增强策略能够小幅度提高检测精度,同时使用离线增强以及在线增强能够最大幅度的提升平均检测精度。针对樱桃果实之间相互遮挡以及图像中的小目标樱桃检测难等导致自然环境下樱桃果实检测精度低的问题,本文将YOLO v5的骨干网络进行改动,增添具有注意力机制的Transformer模块,Neck结构由原来的PAFPN改成可以进行双向加权融合的BiFPN,Head结构增加了浅层下采样的P2模块,提出一种基于改进YOLO v5的自然环境下樱桃果实的识别网络。实验结果表明:相比于其他已有模型以及单一结构改进后的YOLO v5模型,本文提出的综合改进模型具有更高的检测精度,使平均精度均值2提高了29个百分点。结果表明该方法有效的增强了识别过程中特征融合的效率和精度,显著地提高了樱桃果实的检测效果。同时,本文将训练好的网络模型部署到安卓(Android)平台上。该系统使用简洁,用户设备环境要求不高,具有一定的实用性,可在大田环境下对樱桃果实进行准确检测,能够很好地满足实时检测樱桃果实的需求,也为自动采摘等实际应用奠定了基础。  相似文献   

8.
芽眼检测是马铃薯种薯智能切块首先要解决的问题,为实现种薯芽眼精准高效检测,提出了一种基于改进YOLO v5s的马铃薯种薯芽眼检测方法。首先通过加入CBAM注意力机制,加强对马铃薯种薯芽眼图像的特征学习和特征提取,同时弱化与芽眼相似的马铃薯种薯表面背景对检测结果的影响。其次引入加权双向特征金字塔BiFPN增加经骨干网络提取的种薯芽眼原始信息,为不同尺度特征图赋予不同权重,使得多尺度特征融合更加合理。最后替换为改进的高效解耦头Decoupled Head区分回归和分类,加快模型收敛速度,进一步提升马铃薯种薯芽眼检测性能。试验结果表明,改进YOLO v5s模型准确率、召回率和平均精度均值分别为93.3%、93.4%和95.2%;相比原始YOLO v5s模型,平均精度均值提高3.2个百分点,准确率、召回率分别提高0.9、1.7个百分点;不同模型对比分析表明,改进YOLO v5s模型与Faster R-CNN、YOLO v3、YOLO v6、YOLOX和YOLO v7等模型相比有着较大优势,平均精度均值分别提高8.4、3.1、9.0、12.9、4.4个百分点。在种薯自动切块芽眼检测试验中,改进Y...  相似文献   

9.
甜椒在生长发育过程中容易产生畸形果,机器代替人工对甜椒畸形果识别和摘除一方面可提高甜椒品质和产量,另一方面可解决当前人工成本过高、效率低下等问题。为实现机器人对甜椒果实的识别,提出了一种基于改进YOLO v7-tiny目标检测模型,用于区分正常生长和畸形生长的甜椒果实。将无参数注意力机制(Parameter free attention module, SimAM)融合到骨干特征提取网络中,增强模型的特征提取和特征整合能力;用Focal-EIOU(Focal and efficient intersection over union)损失替换原损失函数CIOU(Complete intersection over union),加快模型收敛并降低损失值;使用SiLU激活函数代替原网络中的Leaky ReLU,增强模型的非线性特征提取能力。试验结果表明,改进后的模型整体识别精确度、召回率、平均精度均值(Mean average precision, mAP)mAP0.5、mAP0.5-0.95分别为99.1%、97.8%、98.9%、94.5%,与改进前相比,分别提升5.4、4.7、2.4、10.7个百分点,模型内存占用量为 10.6MB,单幅图像检测时间为4.2ms。与YOLO v7、Scaled-YOLO v4、YOLOR-CSP等目标检测模型相比,模型在F1值上与YOLO v7相同,相比Scaled-YOLO v4、YOLOR-CSP分别提升0.7、0.2个百分点,在mAP0.5-0.95上分别提升0.6、1.2、0.2个百分点,而内存占用量仅为上述模型的14.2%、10.0%、10.0%。本文所提出的模型实现了小体量而高精度,便于在移动端进行部署,为后续机械化采摘和品质分级提供技术支持。  相似文献   

10.
蛋鸭行为模式是判断笼养鸭养殖过程中健康状况及福利状态的重要指标,为了通过机器视觉实现识别蛋鸭多行为模式,提出了一种基于改进YOLO v4 (You only look once)的目标检测算法,不同的行为模式为蛋鸭的养殖管理方案提供依据。本文算法通过更换主干特征提取网络MobileNetV2,利用深度可分离卷积模块,在提升检测精度的同时降低模型参数量,有效提升检测速度。在预测输出部分引入无参数的注意力机制SimAM模块,进一步提升模型检测精度。通过使用本文算法对笼养蛋鸭行为验证集进行了检测,优化后模型平均精度均值达到96.97%,图像处理帧率为49.28 f/s,相比于原始网络模型,平均精度均值及处理速度分别提升5.03%和88.24%。与常用目标检测网络进行效果对比,改进YOLO v4网络相较于Faster R-CNN、YOLO v5、YOLOX的检测平均精度均值分别提升12.07%、30.6%及2.43%。将本文提出的改进YOLO v4网络进行试验研究,试验结果表明本文算法可以准确地对不同时段的笼养蛋鸭行为进行记录,根据蛋鸭表现出的不同行为模式来帮助识别蛋鸭的异常情况,如部分行为发...  相似文献   

11.
随着我国畜牧业的快速发展,牛只养殖由分散性养殖逐渐向精准化养殖转变。针对分散养殖中农户无法对每头牛只健康状况给予足够关注的问题,通过分析牛只行为模式结合视觉方向特征,设计了综合管理方法来准确识别和跟踪牛只行为。首先,采用改进YOLO v8算法对牛只进行目标监测,其中,在Backbone和Neck端使用C2f-faster结构,增强模型特征提取能力;引入上采样算子CARAFE,拓宽感受视野进行数据特征融合;针对牛只幼仔检测加入BiFormer注意力机制,以识别牛只小面积特征;更换动态目标检测头DyHead,融合尺度、空间和任务感知;然后,使用Focal SIoU函数,解决正负样本分配不均衡和CIoU局限性的问题。最后,将YOLO v8检测到的行为类别信息引入BoTSORT算法中,实现在复杂场景下牛只多目标行为识别跟踪。实验结果表明,提出的FBCD-YOLO v8n(FasterNet、BiFormer、CARAFE、DyHead)模型在牛只行为数据集上,相比较YOLO v5n、YOLO v7tiny和原YOLO v8n模型的mAP@0.5分别提升3.4、3.1、2.4个百分点,尤其牛只回舔行为识别平均精度提高7.4个百分点。跟踪方面,BoTSORT算法的MOTA为96.1%,MOTP为78.6%,IDF1为98.0%,HOTA为78.9%;与ByteTrack、StrongSORT算法比,MOTA和IDF1显著提升,跟踪效果良好。研究表明,在牛舍养殖环境下,本研究构建的多目标牛只行为识别跟踪系统,可有效帮助农户监测牛只行为,为牛只的自动化精准养殖提供技术支持。  相似文献   

12.
基于改进YOLO v4网络的马铃薯自动育苗叶芽检测方法   总被引:1,自引:0,他引:1  
为提高马铃薯幼苗叶芽检测识别的准确率,提高自动育苗生产系统的工作效率,提出了基于YOLO v4网络的改进识别网络。将YOLO v4特征提取部分CSPDarknet53中的残差块(Residual Block)替换为Res2Net,并采用深度可分离卷积操作减小计算量。由此,在增大卷积神经网络感受野的同时,能够获得叶芽更加细小的特征信息,减少马铃薯叶芽的漏检率。设计了基于扩张卷积的空间特征金字塔(D-SPP模块),并嵌入和替换到特征提取部分的3个特征层输出中,用于提高马铃薯叶芽目标识别定位的准确性。采用消融实验对改进策略的有效性进行了验证分析。实验结果表明,改进的识别网络对马铃薯叶芽检测的精确率为95.72%,召回率为94.91%,综合评价指标F1值为95%,平均精确率为96.03%。与Faster R-CNN、YOLO v3、YOLO v4网络相比,改进的识别网络具有更好的识别性能,从而可有效提高马铃薯自动育苗生产系统的工作效率。  相似文献   

13.
为提高马铃薯幼苗叶芽检测识别的准确率,提高自动育苗生产系统的工作效率,提出了基于YOLO v4网络的改进识别网络。将YOLO v4特征提取部分CSPDarknet53中的残差块(Residual Block)替换为Res2Net,并采用深度可分离卷积操作减小计算量。由此,在增大卷积神经网络感受野的同时,能够获得叶芽更加细小的特征信息,减少马铃薯叶芽的漏检率。设计了基于扩张卷积的空间特征金字塔(D-SPP模块),并嵌入和替换到特征提取部分的3个特征层输出中,用于提高马铃薯叶芽目标识别定位的准确性。采用消融实验对改进策略的有效性进行了验证分析。实验结果表明,改进的识别网络对马铃薯叶芽检测的精确率为95.72%,召回率为94.91%,综合评价指标F1值为95%,平均精确率为96.03%。与Faster R-CNN、YOLO v3、YOLO v4网络相比,改进的识别网络具有更好的识别性能,从而可有效提高马铃薯自动育苗生产系统的工作效率。  相似文献   

14.
基于DeepSORT算法的肉牛多目标跟踪方法   总被引:1,自引:0,他引:1  
肉牛的运动行为反映其健康状况,在实际养殖环境下如何识别肉牛并对其进行跟踪,对感知肉牛的运动行为至关重要.基于YOLO v3改进算法(LSRCEM-YOLO),利用视频监控实现了实际养殖环境下的肉牛实时跟踪.该方法采用MobileNet v2作为目标检测骨干网络,根据肉牛分布不均、目标尺度变化较大的特点,提出通过添加长短...  相似文献   

15.
针对养殖池塘内单环刺螠自动采捕和产量预测应用需求,提出一种基于深度学习的单环刺螠洞口识别方法,以适用于自动采捕船的嵌入式设备。该方法通过将YOLO v4的主干网络CSPDarkNet53替换为轻量型网络Mobilenet v2,降低网络参数量,提升检测速度,并在此基础上使用深度可分离卷积块代替原网络中Neck和Detection Head部分的普通卷积块,进一步降低模型参数量;选取带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration,MSRCR)增强算法进行图像增强;利用K-means++算法对数据集进行重新聚类,对获得的新锚点框尺寸进行线性缩放优化,以提高目标检测效果。在嵌入式设备Jetson AGX Xavier上部署训练好的模型,对水下单环刺螠洞口检测的平均精度均值(Mean average precision,mAP)可达92.26%,检测速度为36f/s,模型内存占用量仅为22.2MB。实验结果表明,该方法实现了检测速度和精度的平衡,可满足实际应用场景下模型部署在单环刺螠采捕船嵌入式设备的需求。  相似文献   

16.
为使巡检机器人能够对体积小且密集、形态多变、数量多且分布不均的害虫进行高效精准识别,提出了一种基于改进YOLO v7的害虫识别方法。该方法将CSP Bottleneck与基于移位窗口Transformer(Swin Transformer)自注意力机制相结合,提高了模型获取密集害虫目标位置信息的能力;在路径聚合部分增加第4检测支路,提高模型对小目标的检测性能;将卷积注意力模块(CBAM)集成到YOLO v7模型中,使模型更加关注害虫区域,抑制背景等一般特征信息,提高被遮挡害虫的识别精确率;使用Focal EIoU Loss损失函数减少正负样本不平衡对检测结果的影响,提高识别精度。采用基于实际农田环境建立的数据集的实验结果表明,改进后算法的精确率、召回率及平均精度均值分别为91.6%、82.9%和88.2%,较原模型提升2.5、1.2、3个百分点。与其它主流模型的对比实验结果表明,本文方法对害虫的实际检测效果更优,对解决农田复杂环境下害虫的精准识别问题具有参考价值。  相似文献   

17.
基于改进YOLO v3网络的夜间环境柑橘识别方法   总被引:9,自引:0,他引:9  
为研究夜间环境下采摘机器人的视觉检测技术,实现采摘机器人的夜间作业,提出了一种多尺度卷积神经网络Des-YOLO v3算法,可实现夜间复杂环境下成熟柑橘的识别与检测。借鉴残差网络和密集连接网络,设计了Des-YOLO v3网络结构,实现了网络多层特征的复用和融合,加强了小目标和重叠遮挡果实识别的鲁棒性,显著提高了果实检测精度。柑橘识别试验结果表明, Des-YOLO v3网络的精确率达97.67%、召回率为97.46%、F1值为0.976,分别比YOLO v3网络高6.26个百分点、6.36个百分点和0.063。同时,经过训练的模型在测试集下的平均精度(mAP)为90.75%、检测速度达53f/s,高于YOLO v3_DarkNet53网络的平均精度88.48%,mAP比YOLO v3_DarkNet53网络提高了2.27个百分点,检测速度比YOLO v3_DarkNet53网络提高了11f/s。研究结果表明,本文提出的Des-YOLO v3网络对野外夜间复杂环境下成熟柑橘的识别具有更强的鲁棒性和更高的检测精度,为柑橘采摘机器人的视觉识别提供了技术支持。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号