首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 203 毫秒
1.
为在自然环境下自动准确地检测樱桃番茄果实的成熟度,实现樱桃番茄果实自动化采摘,根据成熟期樱桃番茄果实表型特征的变化以及国家标准GH/T 1193—2021制定了5级樱桃番茄果实成熟度级别(绿熟期、转色期、初熟期、中熟期和完熟期),并针对樱桃番茄相邻成熟度特征差异不明显以及果实之间相互遮挡问题,提出一种改进的轻量化YOLO v7模型的樱桃番茄果实成熟度检测方法。该方法将MobileNetV3引入YOLO v7模型中作为骨干特征提取网络,以减少网络的参数量,同时在特征融合网络中加入全局注意力机制(Global attention mechanism, GAM)模块以提高网络的特征表达能力。试验结果表明,改进的YOLO v7模型在测试集下的精确率、召回率和平均精度均值分别为98.6%、98.1%和98.2%,单幅图像平均检测时间为82 ms,模型内存占用量为66.5 MB。对比Faster R-CNN、YOLO v3、YOLO v5s和YOLO v7模型,平均精度均值分别提升18.7、0.2、0.3、0.1个百分点,模型内存占用量也最少。研究表明改进的YOLO v7模型能够为樱桃番茄果实的自...  相似文献   

2.
肉牛目标检测和数量统计是精细化、自动化、智能化肉牛养殖要解决的关键问题,受肉牛个体颜色及纹理相近和遮挡等因素的影响,现有肉牛目标检测方法实用性较差。本研究基于YOLO v5s网络与通道信息注意力模块(ECABasicBlock),提出了一种融合通道信息的改进YOLO v5s网络(ECA-YOLO v5s),在YOLO v5s模型的骨干特征提取网络部分添加了3层通道信息注意力模块。ECA-YOLO v5s网络实现了重度遮挡环境下多目标肉牛的准确识别。对养殖场监控视频分帧得到的肉牛图像采用了一种基于结构相似性的冗余图像剔除方法以保证数据集质量。数据集制作完成后经过300次迭代训练,得到模型的精确率为89.8%,召回率为76.9%,全类平均精度均值为85.3%,检测速度为76.9 f/s,模型内存占用量为24 MB。与YOLO v5s模型相比,ECA-YOLO v5s的精确率、召回率和平均精度均值分别比YOLO v5s高1.0、0.8、2.2个百分点。为了验证不同注意力机制应用于YOLO v5s的性能差异,本研究对比了CBAM(Convolutional block attention mo...  相似文献   

3.
为准确高效地实现无接触式奶山羊个体识别,以圈养环境下奶山羊面部图像为研究对象,提出一种基于改进YOLO v5s的奶山羊个体识别方法。首先,从网络上随机采集350幅羊脸图像构成羊脸面部检测数据集,使用迁移学习思想预训练YOLO v5s模型,使其能够检测羊脸位置。其次,构建包含31头奶山羊3 844幅不同生长期的面部图像数据集,基于预训练的YOLO v5s,在特征提取层中引入SimAM注意力模块,增强模型的学习能力,并在特征融合层引入CARAFE上采样模块以更好地恢复面部细节,提升模型对奶山羊个体面部的识别精度。实验结果表明,改进YOLO v5s模型平均精度均值为97.41%,比Faster R-CNN、SSD、YOLO v4模型分别提高6.33、8.22、15.95个百分点,比YOLO v5s模型高2.21个百分点,改进模型检测速度为56.00 f/s,模型内存占用量为14.45 MB。本文方法能够准确识别具有相似面部特征的奶山羊个体,为智慧养殖中的家畜个体识别提供了一种方法支持。  相似文献   

4.
为实现作物病害早期识别,本文提出一种基于红外热成像和改进YOLO v5的作物病害早期检测模型,以CSPD-arknet为主干特征提取网络,YOLO v5 stride-2卷积替换为SPD-Conv模块,分别为主干网络中的5个stride-2卷积层和Neck中的2个stride-2卷积层,可以提高其准确性,同时保持相同级别的参数大小,并向下阶段输出3个不同尺度的特征层;为增强建模通道之间的相互依赖性,自适应地重新校准通道特征响应,引入SE机制提升特征提取能力;为减少模型计算量,提高模型速度,引入SPPF。经测试,改进后YOLO v5网络检测性能最佳,mAP为95.7%,相比YOLO v3、YOLO v4、SSD和YOLO v5网络分别提高4.7、8.8、19.0、3.5个百分点。改进后模型相比改进前对不同温度梯度下的作物病害检测也有提高,5个梯度mAP分别为91.0%、91.6%、90.4%、92.6%和94.0%,分别高于改进前3.6、1.5、7.2、0.6、0.9个百分点。改进YOLO v5网络内存占用量为13.755MB,低于改进前基础模型3.687MB。结果表明,改进YOLO v5可以准确快速地实现病害早期检测。  相似文献   

5.
山羊的脸部检测对羊场的智能化管理有着重要的意义。针对实际饲养环境中,羊群存在多角度、分布随机、灵活多变、羊脸检测难度大的问题,以YOLO v5s为基础目标检测网络,提出了一种结合坐标信息的山羊脸部检测模型。首先,通过移动设备获取舍内、舍外、单头以及多头山羊的图像并构建数据集。其次,在YOLO v5s的主干网络融入坐标注意力机制,以充分利用目标的位置信息,提高遮挡区域、小目标、多视角样本的检测精度。试验结果表明,改进YOLO v5s模型的检测精确率为95.6%,召回率为83.0%,mAP0.5为90.2%,帧速率为69 f/s,模型内存占用量为13.2 MB;与YOLO v5s模型相比,检测精度提高1.3个百分点,模型所占内存空间减少1.2 MB;且模型的整体性能远优于Faster R-CNN、YOLO v4、YOLO v5s模型。此外,本文构建了不同光照和相机抖动的数据集,来进一步验证本文方法的可行性。改进后的模型可快速有效地对复杂场景下山羊的脸部进行精准检测及定位,为动物精细化养殖时目标检测识别提供了检测思路和技术支持。  相似文献   

6.
为方便调查宁夏全区荒漠草原植物种类及其分布,需对植物识别方法进行研究。针对YOLO v5s模型参数量大,对复杂背景下的植物不易识别等问题,提出一种复杂背景下植物目标识别轻量化模型YOLO v5s-CBD。改进模型YOLO v5s-CBD在特征提取网络中引入带有Transformer模块的主干网络BoTNet(Bottleneck transformer network),使卷积和自注意力相结合,提高模型的感受野;同时在特征提取网络融入坐标注意力(Coordinate attention, CA),有效捕获通道和位置的关系,提高模型的特征提取能力;引入SIoU函数计算回归损失,解决预测框与真实框不匹配问题;使用深度可分离卷积(Depthwise separable convolution, DSC)减小模型内存占用量。实验结果表明,YOLO v5s-CBD模型在单块Nvidia GTX A5000 GPU单幅图像推理时间仅为8 ms,模型内存占用量为8.9 MB,精确率P为95.1%,召回率R为92.9%,综合评价指标F1值为94.0%,平均精度均值(mAP)为95.7%,在VOC数据集...  相似文献   

7.
为快速、全面的监测大田小麦病害,并结合小麦发病特征实现对小麦不同生长部位的病害进行识别,设计了一款便携式小麦白粉病病害检测装置,其由双相机采集模块和主控模块组成,配合病害检测软件系统实现对小麦多部位的白粉病害采集与检测。为保证模型在检测装置部署的可行性,提出了一种基于YOLO v7-tiny模型轻量化改进的白粉病目标检测模型(YOLO v7tiny-ShuffleNet v1,YT-SFNet)。为验证该轻量化模型的准确率和检测速度,与YOLO v7-tiny模型进行训练对比,结果表明YT-SFNet模型相较于YOLO v7-tiny在平均精度上提高了0.57个百分点;在检测时间和模型内存占用量上分别下降了2.4 ms和3.2 MB。最后将轻量化模型和软件系统移植至装置主控模块,制作测试集对装置的检测准确率和检测速度进行了性能测试。其对于测试集的识别准确率为86.2%,检测速度上有较好的稳定性,且单幅病害图像从处理、检测及显示保存的全过程平均耗时为0.507 9 s。  相似文献   

8.
针对自然环境下油茶果存在严重遮挡、近景色、小目标等现象,使用YOLO网络存在检测精度低、漏检现象严重等问题,提出对YOLO v8n网络进行改进。首先使用MPDIOU作为YOLO v8n的损失函数,有效解决因为果实重叠导致的漏检问题;其次调整网络,向其中加入小目标检测层,使网络能够关注小目标油茶以及被树叶遮挡的油茶;最后使用SCConv作为特征提取网络,既能兼顾检测精度又能兼顾检测速度。改进COF-YOLO v8n网络精确率、召回率、平均精度均值分别达到97.7%、97%、99%,比未改进的YOLO v8n分别提高3.2、4.8、2.4个百分点,其中严重遮挡情况下油茶检测精确率、召回率、平均精度均值分别达到 95.9%、95%、98.5%,分别比YOLO v8n提高4.0、9.1、4.6个百分点。因此改进后COF-YOLO v8n网络能够明显提高油茶在严重遮挡、近景色、小目标均存在情况下的识别精度,减小油茶的漏检。此外,模型能够实现动、静态输入条件下油茶果计数。动态计数借鉴DeepSORT算法的多目标跟踪思想,将改进后COF-YOLO v8n的识别输出作为DeepSORT的输入,实现油茶果实的追踪计数。所得改进模型具有很好的鲁棒性,且模型简单可以嵌入到边缘设备中,不仅可用于指导自动化采收,还可用于果园产量估计,为果园物流分配提供可靠借鉴。  相似文献   

9.
为实现香梨自动化采摘,本文以YOLO v7-S为基础模型,针对果园中香梨果实、果叶和枝干之间相互遮挡,不易精准检测的问题,设计了一种轻量化香梨目标检测M-YOLO v7-SCSN+F模型。该模型采用MobileNetv3作为骨干特征提取网络,引入协同注意力机制(Coordinate attention,CA)模块,将YOLO v7-S中的损失函数CIoU替换为SIoU,并联合Normalized Wasserstein distance (NWD)小目标检测机制,以增强网络特征表达能力和检测精度。基于傅里叶变换(Fourier transform,FT)的数据增强方法,通过分析图像频域信息和重建图像振幅分量生成新的图像数据,从而提高模型泛化能力。实验结果表明,改进的M-YOLO v7-SCSN+F模型在验证集上的平均精度均值(mAP)、精确率和召回率分别达到97.23%、97.63%和93.66%,检测速度为69.39f/s,与Faster R-CNN、SSD、YOLO v3、YOLO v4、YOLO v5s、YOLO v7-S、YOLO v8n、RT-DETR-R50模型在验证集上进行性能比较,其平均精度均值(mAP)分别提高14.50、26.58、3.88、2.40、1.58、0.16、0.07、0.86个百分点。此外,改进的M-YOLO v7-SCSN+F模型内存占用量与YOLO v8n和RT-DETR-R50检测模型对比减少16.47、13.30MB。本文提出的检测模型对成熟期香梨具有很好的目标检测效果,为背景颜色相近小目标检测提供参考,可为香梨自动化采摘提供有效的技术支持。  相似文献   

10.
基于改进YOLO v3的自然场景下冬枣果实识别方法   总被引:4,自引:0,他引:4  
为实现自然场景下冬枣果实的快速、精准识别,考虑到光线变化、枝叶遮挡、果实密集重叠等复杂因素,基于YOLO v3深度卷积神经网络提出了一种基于改进YOLO v3(YOLO v3-SE)的冬枣果实识别方法。YOLO v3-SE模型利用SE Net 的SE Block结构将特征层的特征权重校准为特征权值,强化了有效特征,弱化了低效或无效特征,提高了特征图的表现能力,从而提高了模型识别精度。YOLO v3-SE模型经过训练和比较,选取0.55作为置信度最优阈值用于冬枣果实检测,检测结果准确率P为88.71%、召回率R为83.80%、综合评价指标F为86.19%、平均检测精度为82.01%,与YOLO v3模型相比,F提升了2.38个百分点,mAP提升了4.78个百分点,检测速度无明显差异。为检验改进模型在冬枣园自然场景下的适应性,在光线不足、密集遮挡和冬枣不同成熟期的情况下对冬枣果实图像进行检测,并与YOLO v3模型的检测效果进行对比,结果表明,本文模型召回率提升了2.43~5.08个百分点,F提升了1.75~2.77个百分点,mAP提升了2.38~4.81个百分点,从而验证了本文模型的有效性。  相似文献   

11.
奶牛身体部位的精准分割广泛应用于奶牛体况评分、姿态检测、行为分析及体尺测量等领域。受奶牛表面污渍和遮挡等因素的影响,现有奶牛部位精准分割方法实用性较差。本研究在YOLO v8n-seg模型的基础上,加入多尺度融合模块与双向跨尺度加权特征金字塔结构,提出了YOLO v8n-seg-FCA-BiFPN奶牛身体部位分割模型。其中,多尺度融合模块使模型更好地提取小目标几何特征信息,双向跨尺度加权特征金字塔结构实现了更高层次的特征融合。首先在奶牛运动通道处采集奶牛侧面图像作为数据集,为保证数据集质量,采用结构相似性算法剔除相似图像,共得到1452幅图像。然后对目标奶牛的前肢、后肢、乳房、尾部、腹部、头部、颈部和躯干8个部位进行标注并输入模型训练。测试结果表明,模型精确率为96.6%,召回率为94.6%,平均精度均值为97.1%,参数量为3.3×106,检测速度为6.2f/s。各部位精确率在90.3%~98.2%之间,平均精度均值为96.3%。与原始YOLO v8n-seg相比,YOLO v8n-seg-FCA-BiFPN的精确率提高3.2个百分点,召回率提高2.6个百分点,平均精度均值提高3.1个百分点,改进后的模型在参数量基本保持不变的情况下具有更强的鲁棒性。遮挡情况下该模型检测结果表明,精确率为93.8%,召回率为91.67%,平均精度均值为93.15%。结果表明,YOLO v8n-seg-FCA-BiFPN网络可以准确、快速地实现奶牛身体部位精准分割。  相似文献   

12.
基于YOLO v7-ECA模型的苹果幼果检测   总被引:1,自引:0,他引:1  
为实现自然环境下苹果幼果的快速准确检测,针对幼果期苹果果色与叶片颜色高度相似、体积微小、分布密集,识别难度大的问题,提出了一种融合高效通道注意力(Efficient channel attention, ECA)机制的改进YOLO v7模型(YOLO v7-ECA)。在模型的3条重参数化路径中插入ECA机制,可在不降低通道维数的前提下实现相邻通道局部跨通道交互,有效强调苹果幼果重要信息、抑制冗余无用特征,提高模型效率。采集自然环境下苹果幼果图像2 557幅作为训练样本、547幅作为验证样本、550幅作为测试样本,输入模型进行训练测试。结果表明,YOLO v7-ECA网络模型准确率为97.2%、召回率为93.6%、平均精度均值(Mean average precision, mAP)为98.2%、F1值为95.37%。与Faster R-CNN、SSD、Scaled-YOLO v4、YOLO v5、YOLO v6、YOLO v7网络模型相比,其mAP分别提高15.5、4.6、1.6、1.8、3.0、1.8个百分点,准确率分别提高49.7、0.9、18.5、1.2、0.9、1.0个百分点,...  相似文献   

13.
为实现收获后含杂马铃薯中土块石块的快速检测和剔除,提出了一种基于改进YOLO v4模型的马铃薯中土块石块检测方法。YOLO v4模型以CSPDarknet53为主干特征提取网络,在保证检测准确率的前提下,利用通道剪枝算法对模型进行剪枝处理,以简化模型结构、降低运算量。采用Mosaic数据增强方法扩充图像数据集(8621幅图像),对模型进行微调,实现了马铃薯中土块石块的检测。测试表明,剪枝后模型总参数量减少了94.37%,模型存储空间下降了187.35 MB,前向运算时间缩短了0.02 s,平均精度均值(Mean average precision, mAP)下降了2.1个百分点,说明剪枝处理可提升模型性能。为验证模型的有效性,将本文模型与5种深度学习算法进行比较,结果表明,本文算法mAP为96.42%,比Faster R-CNN、Tiny-YOLO v2、YOLO v3、SSD分别提高了11.2、11.5、5.65、10.78个百分点,比YOLO v4算法降低了0.04个百分点,模型存储空间为20.75 MB,检测速度为78.49 f/s,满足实际生产需要。  相似文献   

14.
智能虫情测报灯下害虫的精准识别和分类是实现稻田虫情预警的前提,为解决水稻害虫图像识别过程中存在分布密集、体态微小、易受背景干扰等造成识别精度不高的问题,提出了一种基于MS-YOLO v7(Multi-Scale-YOLO v7)轻量化稻飞虱识别分类方法。首先,采用稻飞虱害虫诱捕装置搭建稻飞虱害虫采集平台,获取的稻飞虱图像构成ImageNet数据集。然后,MS-YOLO v7目标检测算法采用GhostConv轻量卷积作为主干网络,减小模型运行的参数量;在Neck部分加入CBAM注意力机制模块,有效强调稻飞虱区别度较高的特征通道,抑制沉冗无用特征,准确提取稻飞虱图像中的关键特征,动态调整特征图中不同通道的权重;将SPPCSPS空间金字塔池化模块替换SPPFS金字塔池化模块,提高网络模型对各分类样本的特征提取能力;同时将YOLO v7模型中的SiLU激活函数替换为Mish激活函数,增强网络的非线性表达能力。试验结果表明,改进后的MS-YOLO v7在测试集上的模型平均精度均值(Mean average precision,mAP)为95.7%,精确率(Precision)为96.4%,召回率(Recall)为94.2%,与Faster R-CNN、SSD、YOLO v5、YOLO v7网络模型相比mAP分别提高2.1、3.4、2.3、1.6个百分点,F1值分别提高2.7、4.1、2.5、1.4个百分点。改进后的模型内存占用量、参数量、浮点运算数分别为63.7MB、2.85×107、7.84×1010,相比YOLO v7模型分别缩减12.5%、21.7%、25.4%,MS-YOLO v7网络模型对稻飞虱种间害虫均能实现高精度的识别与分类,具有较好的鲁棒性,可为稻田早期稻飞虱虫情预警提供技术支持。  相似文献   

15.
针对蚕茧加工过程中人工目测下茧效率低的问题,采用机器视觉的检测方法代替人工检测下茧。首先,根据图像采集系统成像的景深为线阵扫描相机选择合适的拍摄距离,并通过采样频率的计算进一步配置图像采集系统的参数;然后,用采集得到的线阵图像合成面阵图像构建下茧检测数据集;最后,以YOLO v4目标检测模型为基础模型设计出下茧实时检测模型(Inferior cocoons net, ICNet)。该模型通过K-means算法对下茧检测数据集聚类分析来预置候选框参数提升模型精度;采用模型深度调控的方法进行模型压缩,以降低模型权重所占储存空间,提升模型速度;设计轻量级卷积模块构建轻量级特征提取网络进一步提升模型的速度。实验结果表明,本文设计的ICNet下茧实时检测模型较原YOLO v4基础模型平均检测精度提升1.87个百分点,达到95.55%,模型权重所占储存空间压缩40.82%,降为145.00 MB,平均检测速度提升91.65%,达到49.37帧/s。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号