首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 187 毫秒
1.
玉米果穗的表型参数是玉米生长状态的重要表征,生长状况的好坏直接影响玉米产量和质量。为方便无人巡检机器人视觉系统高通量、自动化获取玉米表型参数,该研究基于YOLACT(you only look at coefficients)提出一种高精度-速度平衡的玉米果穗分割模型SwinT-YOLACT。首先使用Swin-Transformer作为模型主干特征提取网络,以提高模型的特征提取能力;然后在特征金字塔网络之前引入有效通道注意力机制,剔除冗余特征信息,以加强对关键特征的融合;最后使用平滑性更好的Mish激活函数替换模型原始激活函数Relu,使模型在保持原有速度的同时进一步提升精度。基于自建玉米果穗数据集训练和测试该模型,试验结果表明,SwinT-YOLACT的掩膜均值平均精度为79.43%,推理速度为35.44帧/s,相较于原始YOLACT和其改进算法YOLACT++,掩膜均值平均精度分别提升了3.51和3.38个百分点;相较于YOLACT、YOLACT++和Mask R-CNN模型,推理速度分别提升了3.39、2.58和28.64帧/s。该模型对玉米果穗有较为优秀的分割效果,适于部署在无人巡检机器人视觉系统上,为玉米生长状态监测提供技术支撑。  相似文献   

2.
基于改进YOLOv5的茶叶杂质检测算法   总被引:1,自引:1,他引:0  
针对现有目标检测算法检测茶叶杂质精度低、速度慢的问题,该研究提出了一种基于改进YOLOv5的茶叶杂质检测算法。采用K-Means聚类算法对杂质真实框聚类,以获取适合茶叶杂质特征的锚框尺寸;通过在主干特征提取网络CSPDarkNet中引入前馈卷积注意力机制(Convolutional Block Attention Module,CBAM),将茶叶杂质输入特征图依次经过通道注意力模块和空间注意力模块,获得特征图通道维度和空间维度的关键特征;在颈部网络中添加空间金字塔池化(Spatial Pyramid Pooling,SPP)模块,融合并提取不同感受野的关键特征信息;将普通卷积替换成深度可分离卷积,增大小目标预测特征图的置信度损失权重,构建了轻量化的改进YOLOv5网络结构模型;分别制作了铁观音茶叶中混合有稻谷、瓜子壳、竹片和茶梗4种杂质的数据集并进行茶叶杂质检测试验。结果表明,改进的YOLOv5比常规YOLOv5在茶叶杂质检测中具有更高的置信度分数,且定位更为准确,未出现漏检现象。改进YOLOv5的多类别平均精度(Mean Average Precision,mAP)和每秒传输帧数(Frame Per Second,FPS)达到96.05%和62帧/s,均优于主流的目标检测算法,验证了改进算法的高效性和鲁棒性。该研究成果可为提升茶叶制作过程中小目标杂质检测精度与检测速度奠定基础。  相似文献   

3.
目标检测与分割是实现黄花菜智能化采摘的关键技术,原始目标检测算法容易出现漏检、误检等问题,无法满足自然环境下生长的黄花菜采摘要求。该研究提出一种基于改进YOLOv7-seg的黄花菜目标检测与实例分割识别算法模型(YOLO-Daylily)。通过在YOLOv7-seg骨干网络(backbone)中引入CBAM(convolutional block attention module)注意力机制模块,降低背景等干扰因素的影响;在ELAN(efficient layer aggregation networks)模块中采用PConv(partial convolution)替换原有的3×3卷积层,减少冗余计算和内存访问,提升对目标黄花菜特征提取的能力。颈部网络(neck)采用坐标卷积(CoordConv)替换PA-FPN(path aggregation-feature pyramid networks)中1×1卷积层,增强模型对位置的感知,提高掩膜(mask)鲁棒性。在改进的PA-FPN结构中采用残差连接方法将浅层特征图几何信息与深层特征图语义信息特征相结合,提高模型对目标黄花菜的检测分割性能。消融试验表明:改进后的算法检测准确率、召回率和平均精度分别达到92%、86.5%、93%,相比YOLOv7-seg基线算法分别提升2.5、2.3、2.7个百分点;分割准确率、召回率和平均精度分别达到92%、86.7%、93.5%,比基线算法分别提升0.2、3.5、3个百分点。与Mask R-CNN、SOLOv2、YOLOV5-seg、YOLOv5x-seg算法相比,平均精度分别提升8.4、12.7、4.8、5.4个百分点。改进后的模型减少了漏检、误检等情况,对目标定位更加精准,为后续黄花菜智能化采摘实际应用提供理论支持。  相似文献   

4.
基于改进YOLOv4-Tiny的蓝莓成熟度识别方法   总被引:3,自引:2,他引:1  
为实现自然环境下蓝莓果实成熟度的精确快速识别,该研究对YOLOv4-Tiny网络结构进行改进,提出一种含有注意力模块的目标检测网络(I-YOLOv4-Tiny)。该检测网络采用CSPDarknet53-Tiny网络模型作为主干网络,将卷积注意力模块(Convolution Block Attention Module,CBAM)加入到YOLOv4-Tiny网络结构的特征金字塔(Feature Pyramid Network,FPN)中,通过对每个通道的特征进行权重分配来学习不同通道间特征的相关性,加强网络结构深层信息的传递,从而降低复杂背景对目标识别的干扰,且该检测网络的网络层数较少,占用内存低,以此提升蓝莓果实检测的精度与速度。对该研究识别方法进行性能评估与对比试验的结果表明,经过训练的I-YOLOv4-Tiny目标检测网络在验证集下的平均精度达到97.30%,能有效地利用自然环境中的彩色图像识别蓝莓果实并检测果实成熟度。对比YOLOv4-Tiny、YOLOv4、SSD-MobileNet、Faster R-CNN目标检测网络,该研究在遮挡与光照不均等复杂场景中,平均精度能达到96.24%。平均检测时间为5.723 ms,可以同时满足蓝莓果实识别精度与速度的需求。I-YOLOv4-Tiny网络结构占用内存仅为24.20 M,为采摘机器人与早期产量预估提供快速精准的目标识别指导。  相似文献   

5.
改进YOLOv3的复杂环境下红花丝检测方法   总被引:2,自引:2,他引:0  
天气变化、光照变化、枝叶遮挡等复杂环境给红花丝的快速、准确检测带来挑战,影响红花采摘机器人的作业效率,该研究基于改进YOLOv3提出了一种目标检测算法(GSC-YOLOv3)。首先GSC-YOLOv3采用轻量级网络幻影结构GhostNet替换主干特征提取网络,并在保证良好检测精度的前提下,最大限度压缩算法参数,提高算法速度,从而使用少量参数生成红花丝有效特征;其次使用空间金字塔池化结构(spatial pyramid pooling,SPP)实现特征增强,弥补提取红花丝特征过程中的信息损失;最后将卷积块注意力模块(convolutional block attention module,CBAM)融入特征金字塔结构,以解决特征融合过程中的干扰问题,提高算法的检测效率和精度。检测结果表明:GSC-YOLOv3算法在测试集下的平均精度均值达到91.89%,比Faster R-CNN、YOLOv3、YOLOv4、YOLOv5、YOLOv6、YOLOv7算法分别高12.76、2.89、6.35、3.96、1.87、0.61个百分点;在GPU下的平均检测速度达到51.1 帧/s,均比其他6种算法高。在复杂场景下的对比试验结果表明,所改进算法具有高检测精度及良好的鲁棒性和实时性,对解决红花采摘机器人在复杂环境下红花丝的精准检测具有参考价值。  相似文献   

6.
采用改进YOLOv4-tiny的复杂环境下番茄实时识别   总被引:7,自引:7,他引:0  
实时识别番茄的成熟度是番茄自主采摘车的关键功能。现有目标识别算法速度慢、对遮挡番茄和小番茄识别准确率低。因此,该研究提出一种基于改进YOLOv4-tiny模型的番茄成熟度识别方法。在头部网络(Head network)部分增加一个76×76的检测头(y3)来提高小番茄的识别准确率。为了提高被遮挡番茄的识别准确率,将卷积注意力模块(Convolution Block Attention Module,CBAM)集成到YOLOv4-tiny模型的骨干网络(Backbone network)部分。在深层卷积中使用Mish激活函数替代ReLU激活函数以保证提取特征的准确性。使用密集连接的卷积网络(Densely Connected Convolution Networks, DCCN)来加强全局特征融合,并建立红风铃番茄成熟度识别的数据集。试验结果表明,与YOLOv3、YOLOv4、YOLOv4-tiny、YOLOv5m和YOLOv5l模型相比,改进YOLOv4-tiny-X模型的平均精度均值(mean Average Precision, mAP)分别提高了30.9、0.2、0.7、5.4和4.9个百分点,在Nvidia GTX 2060 GPU 上达到111帧/s的速度,平均精度均值达到97.9%。不同模型的实时测试可视化结果表明,改进模型能够有效解决遮挡和小番茄识别准确率低的问题,可为番茄采摘车研制提供参考。  相似文献   

7.
针对破壳鸡蛋(破口蛋和裂纹蛋)缺陷差异性大,在线检测要求实时,以及人工检测依靠主观经验且检测速度慢、检测精度不高等问题,该研究提出一种基于改进的YOLOv7(You Only Look Once v7)模型的破壳鸡蛋在线实时检测系统。即以YOLOv7网络为基础,将YOLOv7网络的损失函数CIoU(complete-IoU)替换为WIoUv2(wise-IoU),在骨干网络(backbone)中嵌入坐标注意力模块(coordinate attention,CA)和添加可变形卷积DCNv2(deformable convnet)模块,同时将YOLOv7网络中的检测头(IDetect)替换为具有隐式知识学习的解耦检测头(IDetect_Decoupled)模块。在PC端的试验结果表明,改进后的模型在测试集上平均精度均值(mean average precision,mAP)为94.0%,单张图片检测时间为13.1 ms,与模型改进之前相比,其mAP提高了2.9个百分点,检测时间仅延长1.0 ms;改进后模型的参数量为3.64×107,较原始模型降低了2.1%。最后通过格式转换并利用ONNXRuntime深度学习框架把模型部署至设备端,在ONNXRuntime推理框架下进行在线检测验证。试验结果表明:该算法相较原始YOLOv7误检率降低了3.8个百分点,漏检率不变,并且在线检测平均帧率约为54帧/s,满足在线实时性检测需求。该研究可为破壳鸡蛋在线检测研究提供技术参考。  相似文献   

8.
现有的目标检测算法检测茶叶嫩芽的精度较低,为提高茶叶嫩芽的检测精度,该研究提出一种基于改进YOLOv5s网络模型的茶叶嫩芽检测算法。该算法将骨干特征提取网络中的空间金字塔池化结构(spatial pyramid pooling-fast,SPPF)替换为空洞空间卷积池化金字塔结构(atrous spatial pyramid pooling,ASPP),增强模型对不同分辨率下目标的识别能力;针对茶叶嫩芽的小目标特征,在颈部网络中引入可加权重的双向特征金字塔网络(bidirectional feature pyramid network,BiFPN),提高特征融合的效率,同时在颈部网络中的每个集中综合卷积模块(concentrated-comprehensive convolution block,C3)后添加卷积注意力模块(convolutional block attention module,CBAM)来提高模型关注小目标特征的能力。试验结果表明,改进后获得的Tea-YOLOv5s比原模型的准确率(precision,P)、召回率(recall,R)和平均精度值(mean average precision,mAP)分别高出4.4、0.5和4个百分点,且模型鲁棒性强,在多个场景下茶叶嫩芽的检测中具有更高的置信度分数。改进后的模型可为茶叶的产量估计和茶叶采摘机器人的嫩芽识别奠定基础。  相似文献   

9.
柑橘表面缺陷是水果检测分级的重要依据,针对传统柑橘表面缺陷检测方法效率低、精度低等问题,该研究提出一种柑橘表面缺陷的实时检测方法。该方法首先对柑橘图像进行图像增强,然后利用提出的YOLOv7-CACT模型对柑橘表面缺陷进行检测,该模型在YOLOv7模型骨干网络中引入坐标注意力模块(coordinate attention, CA),从而提高模型对缺陷部分的关注度。在网络头部引入CT(contextual transformer,CT)模块,融合静态和动态上下文表征特征,从而增强缺陷部分特征表达能力。通过试验确定CA模块和CT模块的最佳位置。改进后的YOLOv7-CACT模型检测结果平均精度均值(mean average precision,mAP)相较于原始模型增加了4.1个百分点,达到91.1%,满足了实际生产中对柑橘缺陷检测精度的要求。最后将基于YOLOv7-CACT的柑橘检测模型通过TensorRT进行部署,试验结果表明模型的推理时间满足柑橘生产线10个/s的实时分选要求,总体的检测精度达到94.4%,为柑橘表面缺陷在线检测提供了一种精准的实时检测方法。  相似文献   

10.
为实现黄花成熟度的快速、高精度识别,针对其相似特征识别精确度低以及相互遮挡检测困难的问题,提出一种基于YOLOv8-ABW的黄花成熟度检测方法。该研究在特征提取网络中加入结合注意力机制的尺度特征交互机制(attention based intra-scale feature interaction, AIFI),更好地提取黄花特征信息,提高检测的精确度。在特征融合网络中,进一步采用加权的双向特征金字塔特征融合网络(bidirectional feature pyramid network, Bi FPN),实现更高层次的跨通道特征融合,有效减少通道中的特征冗余。此外使用WIoUv3作为损失函数,聚焦普通质量的锚框,提高模型的定位性能。试验结果表明:YOLOv8-ABW模型检测精确度为82.32%,召回率为83.71%,平均精度均值mAP@0.5和mAP@0.5:0.95分别为88.44%和74.84%,调和均值提升至0.86,实时检测速度为214.5帧/s。与YOLOv8相比,YOLOv8-ABW的精确度提高1.41个百分点,召回率提高0.75个百分点,mAP@0.5和mAP@0.5:0.95分别提升1.54个百分点和1.42个百分点。对比RT-DETR、YOLOv3、YOLOv5、YOLOv7模型,YOLOv8-ABW参数量最少,仅为3.65×106,且模型浮点运算量比YOLOv7少96.3 G。体现出YOLOv8-ABW 模型能够在黄花成熟度检测中平衡检测精确度和检测速度,综合性能最佳,为黄花智能化实时采摘研究提供技术支持。  相似文献   

11.
基于改进YOLOv3的果树树干识别和定位   总被引:1,自引:1,他引:0  
为提高果园机器人自主导航和果园作业的质量、效率,该研究提出一种基于改进YOLOv3算法对果树树干进行识别,并通过双目相机进行定位的方法。首先,该算法将SENet注意力机制模块融合至Darknet53特征提取网络的残差模块中,SENet模块可增强有用特征信息提取,压缩无用特征信息,进而得到改进后残差网络模块SE-Res模块;其次,通过K-means聚类算法将原始YOLOv3模型的锚框信息更新。果树树干定位通过双目相机的左、右相机对图像进行采集,分别传输至改进YOLOv3模型中进行果树树干检测,并输出检测框的信息,再通过输出的检测框信息对左、右相机采集到的果树树干进行匹配;最后,通过双目相机三角定位原理对果树树干进行定位。试验表明,该方法能较好地对果树树干进行识别和定位,改进YOLOv3模型平均精确率和平均召回率分别为97.54%和91.79%,耗时为0.046 s/帧。在果树树干定位试验中,横向和纵向的定位误差均值分别为0.039 和0.266 m,误差比均值为3.84%和2.08%;与原始YOLOv3和原始SSD模型相比,横向和纵向的定位误差比均值分别降低了15.44、14.17个百分点和21.58、20.43个百分点。研究结果表明,该方法能够在果园机器人自主导航、开沟施肥、割草和农药喷洒等作业中进行果树识别和定位,为提高作业效率、保障作业质量奠定理论基础。  相似文献   

12.
为实现虾只机械剥壳环节裸肉虾与带壳虾自动分选,该研究提出一种基于改进YOLOv4模型的虾只肉壳辨识方法。将YOLOv4模型中CSP-Darknet53网络替换为GhostNet网络,增强模型自适应特征提取能力及简化模型参数计算量。在YOLOv4主干特征提取网络Resblock模块中引入轻量级注意力机制,增强主干特征提取网络的特征提取能力。将YOLOv4模型中GIoU损失函数替换为CIoU损失函数,提高模型预测框的回归效果。为检测改进效果进行了不同模型对比验证,轻量化结果表明改进YOLOv4模型参数量最少、计算量最小;消融试验表明改进YOLOv4模型的平均精度均值为92.8%,比YOLOv4模型提升了6.1个百分点。不同场景下应用改进YOLOv4模型进行虾只肉壳辨识性能试验。结果表明:同品种不同环境的虾只肉壳辨识总体平均准确率为95.9 %,同品种不同剥壳方式的虾只肉壳辨识准确率平均值为90.4 %,不同品种虾只肉壳辨识准确率平均值为87.2 %。研究结果可为裸肉虾与带壳虾自动分选提供技术支撑。  相似文献   

13.
为了快速精准地识别复杂果园环境下的葡萄目标,该研究基于YOLOv5s提出一种改进的葡萄检测模型(MRWYOLOv5s)。首先,为了减少模型参数量,采用轻量型网络MobileNetv3作为特征提取网络,并在MobileNetv3的bneck结构中嵌入坐标注意力模块(coordinate attention,CA)以加强网络的特征提取能力;其次,在颈部网络中引入RepVGG Block,融合多分支特征提升模型的检测精度,并利用RepVGG Block的结构重参数化进一步加快模型的推理速度;最后,采用基于动态非单调聚焦机制的损失(wise intersection over union loss,WIoU Loss)作为边界框回归损失函数,加速网络收敛并提高模型的检测准确率。结果表明,改进的MRW-YOLOv5s模型参数量仅为7.56 M,在测试集上的平均精度均值(mean average precision,mAP)达到97.74%,相较于原YOLOv5s模型提升了2.32个百分点,平均每幅图片的检测时间为10.03 ms,比原YOLOv5s模型减少了6.13 ms。与主流的目标检测模型S...  相似文献   

14.
棉田虫害的快速检测与准确识别是预防棉田虫害、提高棉花品质的重要前提。针对真实棉田环境下昆虫相似度高、背景干扰严重的问题,提出一种ECSF-YOLOv7棉田虫害检测模型。首先,采用EfficientFormerV2作为特征提取网络,以加强网络的特征提取能力并减少模型参数量;同时,将卷积注意力模块(convolution block attention module,CBAM)嵌入到模型的主干输出端,以增强模型对小目标的特征提取能力并削弱背景干扰;其次,使用GSConv卷积搭建Slim-Neck颈部网络结构,在减少模型参数量的同时保持模型的识别精度;最后,采用Focal-EIOU(focal and efficient IOU loss,Focal-EIOU)作为边界框回归损失函数,加速网络收敛并提高模型的检测准确率。结果表明,改进的ECSF-YOLOv7模型在棉田虫害测试集上的平均精度均值(mean average precision,mAP)为95.71%,检测速度为69.47帧/s。与主流的目标检测模型YOLOv7、SSD、YOLOv5l和YOLOX-m相比,ECSF-YOLOv7模型的mAP分别高出1.43、9.08、1.94、1.52个百分点,并且改进模型具有参数量更小、检测速度更快的优势,可为棉田虫害快速准确检测提供技术支持。  相似文献   

15.
为快速获取单分蘖水稻植株的形态结构和表型参数,该研究提出了一种基于目标检测和关键点检测模型相结合的骨架提取和表型参数获取方法。该方法基于目标检测模型生成穗、茎秆、叶片的边界框和类别,将所得数据分别输入到关键点检测模型检测各部位关键点,按照语义信息依次连接关键点形成植株骨架,依据关键点坐标计算穗长度、茎秆长度、叶片长度、叶片-茎秆夹角4种表型参数。首先,构建单分蘖水稻的关键点检测和目标检测数据集;其次,训练Faster R-CNN、YOLOv3、YOLOv5s、YOLOv5m目标检测模型,经过对比,YOLOv5m的检测效果最好,平均精度均值(mean average precision,mAP)达到91.17%;然后,应用人体姿态估计的级联金字塔网络(cascaded pyramid network,CPN)提取植株骨架,并引入注意力机制CBAM(convolutional block attention module)进行改进,与沙漏网络(hourglass networks,HN)、堆叠沙漏网络模型(stacked hourglass networks,SHN)和CPN模型相比,CBAM-CPN模型的预测准确率分别提高了9.68、8.83和0.5个百分点,达到94.75%,4种表型参数的均方根误差分别为1.06、0.81、1.25 cm和2.94°。最后,结合YOLOv5m和CBAM-CPN进行预测,4种表型参数的均方根误差分别为1.48 、1.05 、1.74 cm和2.39°,与SHN模型相比,误差分别减小1.65、3.43、2.65 cm和4.75°,生成的骨架基本能够拟合单分蘖水稻植株的形态结构。所提方法可以提高单分蘖水稻植株的关键点检测准确率,更准确地获取植株骨架和表型参数,有助于加快水稻的育种和改良。  相似文献   

16.
基于轻量型卷积神经网络的马铃薯种薯芽眼检测算法   总被引:1,自引:1,他引:0  
马铃薯种薯芽眼属于小目标物体,识别难度大、要求高。为了在试验台(芽眼识别装置)上快速、准确地完成识别任务,该研究提出一种基于轻量型卷积神经网络的芽眼检测模型。首先,为了降低模型的计算量和聚焦小目标物体,替换YOLOv4的主干网络CSPDarkNet-53为GhostNetV2轻量型特征提取网络;其次,在YOLOv4的颈部网络中,使用深度可分离卷积(depthwise separable convolution,DW)模块代替普通卷积块进一步降低模型计算量;最后,更改边界框损失函数为具有角度代价的边界框损失函数(SIoU),避免因预测框的位置不确定,而影响模型收敛速度和整体检测性能。结果表明,改进后芽眼检测模型参数量为12.04 M,使用笔记本电脑CPU检测单张图片的时间为0.148 s,从试验台收集的测试数据显示平均精度为89.13%。相对于其他主干特征提取网络CSPDarkNet-53、MobileNetV1、MobileNetV2、MobileNetV3、GhostNetV1,其检测精度分别高出1.85、0.75、2.67、4.17、1.89个百分点;与同类目标检测模型SSD、Faster-RCNN、EifficientDet、CenterNet、YOLOv7相比,在检测精度上,分别高出23.26、27.45、10.51、18.09、2.13个百分点,在检测时间上,分别降低0.007、6.754、1.891、1.745、0.422 s,且模型参数量具有明显优势。该研究为小目标物体检测和模型部署提供技术支撑。  相似文献   

17.

为实现自然环境下的板栗果实目标快速识别,该研究以湖北省种植板栗为研究对象,提出了一种基于改进YOLOv8模型的栗果识别方法YOLOv8-PBi。首先,将部分卷积(partial convolution,PConv)引入C2f模块中,缩减卷积过程中的浮点数和计算量;其次,引入加权双向特征金字塔网络(bidirectional feature pyramid network,BiFPN),增强多尺度特征融合性能,最后,更改边界框损失函数为动态非单调聚焦机制WIoU(wise intersection over union,WIoU),提高模型收敛速度,进一步提升模型检测性能。试验结果表明,改进YOLOv8-PBi模型准确率、召回率和平均精度分别为89.4%、74.9%、84.2%;相比原始基础网络YOLOv8s,模型权重减小46.22%,准确率、召回率和平均精度分别提升1.3、1.5、1.8个百分点。部署模型至边缘嵌入式设备上,经过TensorRT加速后,检测帧率达到43 帧/s。该方法可为板栗智能化收获过程中的栗果识别提供技术基础。

  相似文献   

18.
随着食用菌行业由自动化向智能化、信息化发展的趋势越来越明显,为了实现现代化菇房中平菇的准确检测,解决工厂化平菇栽培中收获阶段平菇之间相互遮挡等问题,帮助平菇采收机器人进行准确的自动化采收,该文提出了一种基于YOLOv5(you only look once version 5)模型的OMM-YOLO(ostreatus measure modle-YOLO)平菇目标检测与分类模型。通过在YOLOv5模型的Backbone层添加注意力模块,对输入的平菇图像特征进行动态加权,以获得更详细的特征信息,并在Neck层采用加权双向特征金字塔网络,通过与不同的特征层融合,提高算法的平菇目标检测的精度。此外,为了改善算法的准确性和边界框纵横比的收敛速度,该文采用了EIoU(enhanced intersection over union)损失函数替代了原有的损失函数。试验结果表明,与原始模型相比,改进模型OMM-YOLO对成熟平菇、未成熟平菇和未生长平菇的平均精度均值分别提高了0.4个百分点、4.5个百分点和1.1个百分点。与当前主流模型Resnet50、VGG16、YOLOv3、YOLOv4、YOLOv5m和YOLOv7相比,该模型的精确率、召回率和检测精度均处于优势,适用于收集现代化菇房中的平菇信息,有效避免了平菇之间因相互遮挡而产生的误检测现象。菇房平菇目标检测可以自动化地检测平菇的数量、生长状态等信息,帮助菇房工作人员掌握菇房内的菇况,及时调整温湿度等环境条件,提高生产效率,并且对可以对平菇进行质量控制,确保平菇产品的统一性和品质稳定性。同时可以减少对人工的依赖,降低人力成本,实现可持续发展,对智能化现代菇房建设具有积极作用。  相似文献   

19.
为解决自然环境中苹果叶片病害检测场景复杂、小目标病害检测难度高以及模型参数大无法在移动端和嵌入式设备部署等问题,提出一种基于YOLOv5s的苹果叶片小目标病害轻量化检测方法。该方法将YOLOv5s的骨干网络更改为ShuffleNet v2轻量化网络,引入CBAM(convolutional block attention module)注意力模块使模型关注苹果叶片小目标病害,添加改进RFB-s(receptive field block-s)支路获取多尺度特征,提高苹果叶片病害检测精度,并更改边界框回归损失函数为SIoU(scylla-intersection over union),增强病斑定位能力。试验表明改进后的YOLOv5s模型在IoU大于0.5时的平均精度均值(mean average precision,mAP0.5)和每秒传输帧数(frame per second,FPS)分别达到90.6%和175帧/s,对小目标的平均检测准确率为38.2%,与基准模型YOLOv5s相比,其mAP0.5提升了0.8个百分点,参数量减少了6.17 MB,计算量减少了13.8 G,对小目标的检测准确率提高了3个百分点。改进后的YOLOv5s目标检测模型与Faster R-CNN、SSD、YOLOv5m、YOLOv7、YOLOv8和YOLOv5s目标检测模型相比,具有最小的参数量和计算量,对小目标病害叶斑病和锈病的检测准确率分别提高了1.4、4.1、0.5、5.7、3.5、3.9和1.5、4.3、1.2、2.1、4、2.6个百分点,该方法为真实自然环境下苹果叶片病害尤其是小目标病害的轻量化检测提供参考依据。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号