首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 156 毫秒
1.
基于改进RetinaNet的果园复杂环境下苹果检测   总被引:1,自引:1,他引:0  
为了快速准确地检测重叠、遮挡等果园复杂环境下的苹果果实目标,该研究提出一种基于改进RetinaNet的苹果检测网络。首先,该网络在传统RetinaNet的骨干网络ResNet50中嵌入Res2Net模块,提高网络对苹果基础特征的提取能力;其次,采用加权双向特征金字塔网络(Bi-directional Feature Pyramid Network,BiFPN)对不同尺度的特征进行加权融合,提升对小目标和遮挡目标的召回率;最后,采用基于焦损失(Focal Loss)和高效交并比损失(Efficient Intersection over Union Loss,EIoU Loss)的联合损失函数对网络进行优化,提高网络的检测准确率。试验结果表明,改进的网络在测试集上对叶片遮挡、枝干/电线遮挡、果实遮挡和无遮挡的苹果检测精度分别为94.02%、86.74%、89.42%和94.84%,平均精度均值(mean Average Precision,mAP)达到91.26%,较传统RetinaNet提升了5.02个百分点,检测一张苹果图像耗时42.72 ms。与Faster-RCNN和YOLOv4等主流目标检测网络相比,改进网络具有优异的检测精度,同时可以满足实时性的要求,为采摘机器人的采摘策略提供了参考。  相似文献   

2.
为提高香蕉采摘机器人的作业效率和质量,实现机器人末端承接机构的精确定位,该研究提出一种基于YOLOv5算法的蕉穗识别,并对蕉穗底部果轴进行定位的方法。将CA(Coordinate Attention)注意力机制融合到主干网络中,同时将C3(Concentrated-Comprehensive Convolution Block)特征提取模块与CA注意力机制模块融合构成C3CA模块,以此增强蕉穗特征信息的提取。用 EIoU(Efficient Intersection over Union)损失对原损失函数CIoU(Complete Intersection over Union)进行替换,加快模型收敛并降低损失值。通过改进预测目标框回归公式获取试验所需定位点,并对该点的相机坐标系进行转换求解出三维坐标。采用D435i深度相机对蕉穗底部果轴进行定位试验。识别试验表明,与YOLOv5、Faster R-CNN等模型相比,改进YOLOv5模型的平均精度值(mean Average Precision, mAP)分别提升了0.17和21.26个百分点;定位试验表明,采用改进YOLOv5模型对蕉穗底部果轴定位误差均值和误差比均值分别为0.063 m和2.992%,与YOLOv5和Faster R-CNN模型相比,定位误差均值和误差比均值分别降低了0.022 m和1.173%,0.105 m和5.054%。试验实时可视化结果表明,改进模型能对果园环境下蕉穗进行快速识别和定位,保证作业质量,为后续水果采摘机器人的研究奠定了基础。  相似文献   

3.
为了快速精准地识别复杂果园环境下的葡萄目标,该研究基于YOLOv5s提出一种改进的葡萄检测模型(MRWYOLOv5s)。首先,为了减少模型参数量,采用轻量型网络MobileNetv3作为特征提取网络,并在MobileNetv3的bneck结构中嵌入坐标注意力模块(coordinate attention,CA)以加强网络的特征提取能力;其次,在颈部网络中引入RepVGG Block,融合多分支特征提升模型的检测精度,并利用RepVGG Block的结构重参数化进一步加快模型的推理速度;最后,采用基于动态非单调聚焦机制的损失(wise intersection over union loss,WIoU Loss)作为边界框回归损失函数,加速网络收敛并提高模型的检测准确率。结果表明,改进的MRW-YOLOv5s模型参数量仅为7.56 M,在测试集上的平均精度均值(mean average precision,mAP)达到97.74%,相较于原YOLOv5s模型提升了2.32个百分点,平均每幅图片的检测时间为10.03 ms,比原YOLOv5s模型减少了6.13 ms。与主流的目标检测模型S...  相似文献   

4.
苗木数量统计和库存管理对于大型苗圃经营和管理十分重要。该研究针对种植稠密的云杉地块,以无人机航拍云杉图像为对象,提出一种改进IntegrateNet模型,实现稠密云杉的准确计数。选择对稠密目标识别性能好的IntegrateNet为基础模型,根据稠密云杉粘连严重以及杂草背景干扰进行改进,首先使用自校正卷积(self-calibrated convolutions,SCConv)提高卷积感受野,增强模型对于不同尺寸云杉的适应能力。其次,在特征融合处应用十字交叉注意力机制(criss-cross attention,CCA)提高模型对上下文信息的提取能力。以平均计数准确率(mean counting accuracy,MCA)、平均绝对误差(mean absolute error,MAE)、均方根误差(root mean square error,RMSE)和决定系数R2为评价指标。分析结果表明,改进IntegrateNet模型在181幅测试集上的平均计数准确率,平均绝对误差,均方根误差,决定系数分别达到98.32%,8.99株、13.79株和0.99,相较于TasselNetv3_lite、TasselNetv3_seg和IntegrateNet模型,平均计数准确率分别提升16.44、10.55和9.26个百分点,平均绝对误差分别降低25.62、10.45和6.99株,均方根误差分别降低48.25、13.84和12.52株。改进IntegrateNet模型能够有效提高稠密云杉的计数准确率,可为完善苗木数量统计系统提供算法基础。  相似文献   

5.
为实现自然环境下的板栗果实目标快速识别,该研究以湖北省种植板栗为研究对象,提出了一种基于改进YOLOv8模型的栗果识别方法YOLOv8-PBi。首先,将部分卷积(partial convolution,PConv)引入C2f模块中,缩减卷积过程中的浮点数和计算量;其次,引入加权双向特征金字塔网络(bidirectional feature pyramid network,BiFPN),增强多尺度特征融合性能,最后,更改边界框损失函数为动态非单调聚焦机制WIoU(wise intersection over union,WIoU),提高模型收敛速度,进一步提升模型检测性能。试验结果表明,改进YOLOv8-PBi模型准确率、召回率和平均精度分别为89.4%、74.9%、84.2%;相比原始基础网络YOLOv8s,模型权重减小46.22%,准确率、召回率和平均精度分别提升1.3、1.5、1.8个百分点。部署模型至边缘嵌入式设备上,经过TensorRT加速后,检测帧率达到43 帧/s。该方法可为板栗智能化收获过程中的栗果识别提供技术基础。  相似文献   

6.
目标检测与分割是实现黄花菜智能化采摘的关键技术,原始目标检测算法容易出现漏检、误检等问题,无法满足自然环境下生长的黄花菜采摘要求。该研究提出一种基于改进YOLOv7-seg的黄花菜目标检测与实例分割识别算法模型(YOLO-Daylily)。通过在YOLOv7-seg骨干网络(backbone)中引入CBAM(convolutional block attention module)注意力机制模块,降低背景等干扰因素的影响;在ELAN(efficient layer aggregation networks)模块中采用PConv(partial convolution)替换原有的3×3卷积层,减少冗余计算和内存访问,提升对目标黄花菜特征提取的能力。颈部网络(neck)采用坐标卷积(CoordConv)替换PA-FPN(path aggregation-feature pyramid networks)中1×1卷积层,增强模型对位置的感知,提高掩膜(mask)鲁棒性。在改进的PA-FPN结构中采用残差连接方法将浅层特征图几何信息与深层特征图语义信息特征相结合,提高模型对目标黄花菜的检测分割性能。消融试验表明:改进后的算法检测准确率、召回率和平均精度分别达到92%、86.5%、93%,相比YOLOv7-seg基线算法分别提升2.5、2.3、2.7个百分点;分割准确率、召回率和平均精度分别达到92%、86.7%、93.5%,比基线算法分别提升0.2、3.5、3个百分点。与Mask R-CNN、SOLOv2、YOLOV5-seg、YOLOv5x-seg算法相比,平均精度分别提升8.4、12.7、4.8、5.4个百分点。改进后的模型减少了漏检、误检等情况,对目标定位更加精准,为后续黄花菜智能化采摘实际应用提供理论支持。  相似文献   

7.
为解决自然环境中苹果叶片病害检测场景复杂、小目标病害检测难度高以及模型参数大无法在移动端和嵌入式设备部署等问题,提出一种基于YOLOv5s的苹果叶片小目标病害轻量化检测方法。该方法将YOLOv5s的骨干网络更改为ShuffleNet v2轻量化网络,引入CBAM(convolutional block attention module)注意力模块使模型关注苹果叶片小目标病害,添加改进RFB-s(receptive field block-s)支路获取多尺度特征,提高苹果叶片病害检测精度,并更改边界框回归损失函数为SIoU(scylla-intersection over union),增强病斑定位能力。试验表明改进后的YOLOv5s模型在IoU大于0.5时的平均精度均值(mean average precision,mAP0.5)和每秒传输帧数(frame per second,FPS)分别达到90.6%和175帧/s,对小目标的平均检测准确率为38.2%,与基准模型YOLOv5s相比,其mAP0.5提升了0.8个百分点,参数量减少了6.17 MB,计算量减少了13.8 G,对小目标的检测准确率提高了3个百分点。改进后的YOLOv5s目标检测模型与Faster R-CNN、SSD、YOLOv5m、YOLOv7、YOLOv8和YOLOv5s目标检测模型相比,具有最小的参数量和计算量,对小目标病害叶斑病和锈病的检测准确率分别提高了1.4、4.1、0.5、5.7、3.5、3.9和1.5、4.3、1.2、2.1、4、2.6个百分点,该方法为真实自然环境下苹果叶片病害尤其是小目标病害的轻量化检测提供参考依据。  相似文献   

8.
基于改进YOLOv7的复杂环境下红花采摘识别   总被引:3,自引:2,他引:1  
针对光照、遮挡、密集以及样本数量不均衡等复杂环境造成红花机械化采摘识别不准问题,该研究提出一种基于YOLOv7的改进模型,制作红花样本数据集建立真实采摘的复杂环境数据,增加Swin Transformer注意力机制提高模型对各分类样本的检测精准率,改进Focal Loss损失函数提升多分类任务下不均衡样本的识别率。经试验,改进后的模型各类别样本的检测平均准确率达到88.5%,与改进前相比提高了7个百分点,不均衡类别样本平均精度提高了15.9个百分点,与其他模型相比,检测平均准确率与检测速度均大幅提升。改进后的模型可以准确地实现对红花的检测,模型参数量小,识别速度快,适合在红花采摘机械上进行迁移部署,可为红花机械化实时采摘研究提供技术支持。  相似文献   

9.
在复杂和密集尺度的农业检测任务中基于Transformer的DETR类模型逐渐崭露头角,但现有的传统量化分析难以深入探究检测模型的优化策略和机制的有效性。为了满足密集小型昆虫的检测和计数的需求,该研究构建了真实场景采集的包含稻飞虱、蚜虫和麦蜘蛛3类小型害虫的多尺度虫害数据集(multi-scale tiny crowded planthopper-aphid-wheat mite pest detection,MTC-PAWPD),提出基于黏连率和相对尺寸的数据划分方式,将虫害数据集分为密集分布、大尺度、中小尺度和超小尺度4类场景。通过分析DINO模型在特定场景下的性能表现,设计详尽的消融试验方案,以特征与其关键组件查询的可视化试验辅助,验证虫害检测任务性能提高与各个模块之间尤其是与查询相关模块的联系。经试验,模型在MTC-PAWPD测试集上的mAP@50达70.0%,与其他主流模型相比提升2.3个百分点。在4类场景中mAP@50分别达42.5%、79.4%、75.7%和62.4%,在多尺度、密集任务中表现出较强的检测性能。通过针对自身模块的消融和可视化试验证明模型性能提升与Trans...  相似文献   

10.
基于特征金字塔注意力与深度卷积网络的多目标生猪检测   总被引:13,自引:12,他引:1  
在生猪饲养环境中,猪只黏连、杂物遮挡等给生猪个体多目标检测带来很大困难。该研究以猪圈群养生猪为研究对象,以视频帧为数据源,提出一种适用于生猪形体检测的特征金字塔注意力(FeaturePyramidAttention,FPA)与Tiny-YOLO相结合的模型FPA-Tiny-YOLO。该模型将注意力信息融入到特征提取过程,在不大幅增加计算量的前提下即可提升特征提取能力、提高检测精度。对8栏日龄20~105 d的45头生猪视频截取图像进行图像处理,获得标注图片4 102张,构建了4种深度FPA模块分别加入YOLOV3与Tiny-YOLO模型中。试验表明,深度为3的FPA模块(即FPA-3)的Tiny-YOLO模型在测试集上对群养生猪多目标检测的召回率Recall、F1与平均检测精度m AP指标值最佳,分别达到86.09%、91.47%和85.85%,比未引入FPA模块的Tiny-YOLO模型均有不同程度的提高。选用不同的IOU(Intersection Over Union)和score阈值超参数值对模型预测结果均有不同程度影响;将测试集图像按照是否黏连与遮挡划分4种场景来探究该模型的鲁棒性。试验表明,加入FPA-3模块后Tiny-YOLO的Recall、F1与m AP比Tiny-YOLO分别提升6.73、4.34和7.33个百分点,说明特征金字塔注意力信息有利于精确、有效地对不同场景群养生猪进行多目标检测。研究结果可为后续开展生猪身份识别和行为分析移动端应用提供参考。  相似文献   

11.
群猪检测是现代化猪场智慧管理的关键环节。针对群猪计数过程中,小目标或被遮挡的猪只个体易漏检的问题,该研究提出了基于多尺度融合注意力机制的群猪检测方法。首先基于YOLOv7模型构建了群猪目标检测网络YOLOpig,该网络设计了融合注意力机制的小目标尺度检测网络结构,并基于残差思想优化了最大池化卷积模块,实现了对被遮挡与小目标猪只个体的准确检测;其次结合GradCAM算法进行猪只检测信息的特征可视化,验证群猪检测试验特征提取的有效性。最后使用目标跟踪算法StrongSORT实现猪只个体的准确跟踪,为猪只的检测任务提供身份信息。研究以育肥阶段的长白猪为测试对象,基于不同视角采集的视频数据集进行测试,验证了YOLOpig网络结合StongSORT算法的准确性和实时性。试验结果表明,该研究提出的YOLOpig模型精确率、召回率及平均精度分别为90.4%、85.5%和92.4%,相较于基础YOLOv7模型平均精度提高了5.1个百分点,检测速度提升7.14%,比YOLOv5、YOLOv7tiny和YOLOv8n 3种模型的平均精度分别提高了12.1、16.8和5.7个百分点,该文模型可以实现群猪的有...  相似文献   

12.
群养猪行为是评估猪群对环境适应性的重要指标。猪场环境中,猪只行为识别易受不同光线和猪只粘连等因素影响,为提高群养猪只行为识别精度与效率,该研究提出一种基于改进帧间差分-深度学习的群养猪只饮食、躺卧、站立和打斗等典型行为识别方法。该研究以18只50~115日龄长白猪为研究对象,采集视频帧1 117张,经图像增强共得到4 468张图像作为数据集。首先,选取Faster R-CNN、SSD、Retinanet、Detection Transformer和YOLOv5五种典型深度学习模型进行姿态检测研究,通过对比分析,确定了最优姿态检测模型;然后,对传统帧间差分法进行了改进,改进后帧间差分法能有效提取猪只完整的活动像素特征,使检测结果接近实际运动猪只目标;最后,引入打斗活动比例(Proportion of Fighting Activities, PFA)和打斗行为比例(Proportion of Fighting Behavior, PFB)2个指标优化猪只打斗行为识别模型,并对模型进行评价,确定最优行为模型。经测试,YOLOv5对群养猪只典型姿态检测平均精度均值达93.80%,模型大小为14.40 MB,检测速度为32.00帧/s,检测速度满足姿态实时检测需求,与Faster R-CNN、SSD、Retinanet和Detection Transformer模型相比,YOLOv5平均精度均值分别提高了1.10、3.23、4.15和21.20个百分点,模型大小分别减小了87.31%、85.09%、90.15%和97.10%。同时,当两个优化指标PFA和PFB分别设置为10%和40%时,猪只典型行为识别结果最佳,识别准确率均值为94.45%。结果表明,该方法具有准确率高、模型小和识别速度快等优点。该研究为群养猪只典型行为精准高效识别提供方法参考。  相似文献   

13.
采用双重注意力特征金字塔网络检测群养生猪   总被引:4,自引:4,他引:0  
为解决复杂环境下,猪只粘连和猪栏遮挡等因素给生猪个体多目标实例检测带来的困难,该研究以群养猪圈场景下8栏(日龄20~105 d)共计45头生猪为研究对象,以视频为数据源,采用平视视角、镜头位置不固定的数据采集方式,共获得标注图像3 834张,并将其划分为训练集2 490张、验证集480张、测试集864张。引入一种融合通道注意力(Channel Attention Unit,CAU)与空间注意力(Position Attention Unit,PAU)的双重注意力单元(Dual Attention Unit,DAU),并将DAU用于特征金字塔网络(Feature Pyramid Network,FPN)结构中,研究基于两大骨干网络ResNet50、ResNet101与4个任务网络Mask R-CNN、Cascade Mask R-CNN、MS R-CNN及HTC(Hybrid Task Cascade)交叉结合模型对群养生猪实例检测性能。结果表明:与CBAM、BAM、SCSE等注意力模块相比,HTC-R101-DAU比HTC-R101-CBAM在IOU阈值为0.5、0.75、0.5~0.95(所有目标)、0.5~0.95(大目标)条件下的4种AP(Average Precision)指标分别提升1.7%、1.7%、2.1%与1.8%;单独加入CAU与PAU以分别探究通道与空间注意力单元对任务网络检测性能影响,试验结果表明,DAU与CAU及PAU相比性能更佳,且加入特定串联数量的PAU效果优于CAU;为获取更为丰富的上下文信息,分别串联1~4个PAU单元以构建不同空间注意力模块,试验结果表明,随着串联PAU单元数量的增加,相同任务网络其预测AP指标值先增加后减小。综合分析,HTC-R101-DAU模型可更为精确、有效地对不同场景生猪进行实例检测,可为后续生猪个体深度研究奠定基础。  相似文献   

14.
基于视频的生猪行为跟踪和识别对于实现精细化养殖具有重要价值。为了应对群养生猪多目标跟踪任务中由猪只外观相似、遮挡交互等因素带来的挑战,研究提出了基于PigsTrack跟踪器的群养生猪多目标跟踪方法。PigsTrack跟踪器利用高性能YOLOX网络降低目标误检与漏检率,采用Transformer模型获取具有良好区分特性的目标外观特征;基于OC-SORT(observation-centric sort)的思想,通过集成特征匹配、IoU匹配和遮挡恢复匹配策略实现群养生猪的准确跟踪。基于PBVD(pigs behaviours video dataset)数据集的试验结果表明,PigsTrack跟踪器的HOTA(higher order tracking accuracy),MOTA(multiple object tracking accuracy)和IDF1得分(identification F1 score)分别为85.66%、98.59%和99.57%,相较于现有算法的最高精度,分别提高了3.71、0.03和2.05个百分点,证明了PigsTrack跟踪器在解决外观相似和遮挡交互引起...  相似文献   

15.
采用改进CenterNet模型检测群养生猪目标   总被引:5,自引:4,他引:1  
为实现对群养环境下生猪个体目标快速精准的检测,该研究提出了一种针对群养生猪的改进型目标检测网络MF-CenterNet(MobileNet-FPN-CenterNet)模型,为确保目标检测的精确度,该模型首先以无锚式的CenterNet为基础结构,通过引入轻量级的MobileNet网络作为模型特征提取网络,以降低模型大小和提高检测速度,同时加入特征金字塔结构FPN(Feature Pyramid Networks)以提高模型特征提取能力,在保证模型轻量化、实时性的同时,提高遮挡目标和小目标的检测精度。该研究以某商业猪场群养生猪录制视频作为数据源,采集视频帧1 683张,经图像增强后共得到6 732张图像。试验结果表明,MF-CenterNet模型大小仅为21 MB,满足边缘计算端的部署,同时对生猪目标检测平均精确度达到94.30%,检测速度达到69 帧/s,相较于Faster-RCNN、SSD、YOLOv3、YOLOv4目标检测网络模型,检测精度分别提高了6.39%、4.46%、6.01%、2.74%,检测速度分别提高了54、47、45、43 帧/s,相关结果表明了该研究所提出的改进型的轻量级MF-CenterNet模型,能够在满足目标检测实时性的同时提高了对群养生猪的检测精度,为生产现场端的群养生猪行为实时检测与分析提供了有效方法。  相似文献   

16.
为对干扰、遮挡等复杂的田野环境中麦穗进行精准定位与计数,该研究提出了一种改进的Oriented R-CNN麦穗旋转框检测与计数方法,首先在主干网络中引入跨阶段局部空间金字塔(spatial pyramid pooling cross stage partial networks,SPPCSPC)模块扩大模型感受野,增强网络感知能力;其次,在颈网络中结合路径聚合网络(PANet,path aggregation network)和混合注意力机制(E2CBAM,efficient two convolutional block attention module),丰富特征图包含的特征信息;最后采用柔性非极大值抑制算法(Soft-NMS,soft-non maximum suppression)优化预测框筛选过程。试验结果显示,改进的模型对复杂环境中的麦穗检测效果良好。相较原模型,平均精确度均值mAP提高了2.02个百分点,与主流的旋转目标检测模型Gliding vertex、R3det、Rotated Faster R-CNN、S2anet和Rotated Retinanet相比,mAP分...  相似文献   

17.
猪只声音能够体现出其生长状态,该研究针对人工监测猪只声音造成的猪只疾病误判以及耗时耗力等问题,研究基于卷积神经网络(Convolutional Neural Network,CNN)的生猪异常状态声音识别方法。该研究首先设计猪只声音实时采集系统,并利用4G通讯技术将声音信息上传至云服务器,基于专业人员指导制作猪只异常声音(生病、打架、饥饿等)数据集,提取猪只异常声音的梅尔谱图特征信息;其次引入多种注意力机制对CNN进行改进,并对CBAM(Convolutional Block Attention Module)注意力机制进行优化,提出_CBAM-CNN网络模型;最后将_CBAM-CNN网络模型分别与引入SE_NET(Squeeze and Excitation Network)、ECA_NET(Efficient Channel Attention Networks)和CBAM注意力机制的CNN神经网络进行对比,试验结果表明该文提出的_CBAM-CNN网络模型在最优参数为128维梅尔频率、2 048点FFT(Fast Fourier Transform)点数、512点窗移下的梅尔谱图特征下相较于其他模型对猪只异常声音识别效果最佳,识别率达到94.46%,验证了算法的有效性。该研究有助于生猪养殖过程中对猪只异常行为的监测,并对智能化、现代化猪场的建设具有重要意义。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号