首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 140 毫秒
1.
基于特征递归融合YOLOv4网络模型的春见柑橘检测与计数   总被引:3,自引:3,他引:0  
春见柑橘个体小、单株果树柑橘密集、柑橘之间的形态与颜色相似度高且易被树叶严重遮挡,这些特点给春见柑橘检测与计数带来了较大困难。该研究以实际春见果园环境中的春见柑橘作为检测与计数对象,提出了一种以春见柑橘为检测目标的基于特征递归融合YOLOv4网络模型(YOLOv4 network model with recursive fusion of features,FR-YOLOv4)。针对春见柑橘尺寸小的特点,FR-YOLOv4网络模型的主干特征提取网络采用了感受野更小的CSPResNest50网络,降低了小尺寸目标的特征图传不到目标检测器中的可能性;针对春见柑橘被遮挡和密集分布的情况,采用了递归特征金字塔(Recursive Feature Pyramid,RFP)网络来进行特征递归融合,提高了对果园环境下春见柑橘的检测精度。试验结果表明:FR-YOLOv4网络模型对于果园环境中春见柑橘的平均检测精度为94.6%,视频检测帧率为51帧/s。FR-YOLOv4网络模型相比于YOLOv4、单次多框检测器(Single Shot Multi-Box Detector,SSD)、CenterNet和更快速卷积神经网络(Faster- Region-Convolutional Neural Networks,Faster R-CNN)的平均检测精度分别提高了8.9、29.3、14.1和16.2个百分点,视频检测帧率分别比SSD、Faster R-CNN提高了17帧/s和33帧/s。FR-YOLOv4网络模型对于实际果园环境中春见柑橘的检测精度高,具备检测实时性,适用于春见果园中春见柑橘检测与计数。  相似文献   

2.
改进Faster R-CNN的田间苦瓜叶部病害检测   总被引:11,自引:9,他引:2  
为实现在自然环境条件下对苦瓜叶部病害的目标检测,该研究提出了一种基于改进的更快速区域卷积神经网络(Faster Region with Convolutional Neural Network Features,Faster R-CNN)的苦瓜叶部病害目标检测方法。Faster R-CNN以残差结构卷积神经网络Res Net-50作为该次试验的特征提取网络,将其所得特征图输入到区域建议网络提取区域建议框,并且结合苦瓜叶部病害尺寸小的特点,对原始的Faster R-CNN进行修改,增加区域建议框的尺寸个数,并在ResNet-50的基础下融入了特征金字塔网络(Feature Pyramid Networks,FPN)。结果表明,该方法训练所得的深度学习网络模型具有良好的鲁棒性,平均精度均值(Mean Average Precision,MAP)值为78.85%;融入特征金字塔网络后,所得模型的平均精度均值为86.39%,提高了7.54%,苦瓜健康叶片、白粉病、灰斑病、蔓枯病、斑点病的平均精确率(Average Precision,AP)分别为89.24%、81.48%、83.31%、88.62%和89.28%,在灰斑病检测精度上比之前可提高了16.56%,每幅图像的检测时间达0.322s,保证检测的实时性。该方法对复杂的自然环境下的苦瓜叶部病害检测具有较好的鲁棒性和较高的精度,对瓜果类疾病预防有重要的研究意义。  相似文献   

3.
基于改进YOLOv5网络的复杂背景图像中茶尺蠖检测   总被引:7,自引:7,他引:0  
茶叶的产量和品质深受病虫害的影响。茶尺蠖是一种常见的茶叶害虫,精确检测茶尺蠖对茶叶病虫害防治有重要意义。由于茶尺蠖和茶树枝、枯死茶叶的颜色、纹理相近,茶尺蠖的体积小、形态多变、被遮挡等问题,现有方法检测茶尺蠖的精度不高。该研究提出一种基于深度学习的复杂背景图像中茶尺蠖检测方法,该方法使用YOLOv5为基线网络,利用卷积核组增强对茶尺蠖的特征提取,在不增加计算量的条件下减少复杂背景对茶尺蠖检测结果的干扰;使用注意力模块关注茶尺蠖整体,根据茶尺蠖的大小和形状自适应调节感受野,降低因目标大小形状不一导致的漏检;使用Focal loss损失函数减少前景和背景的类不平衡对检测结果的影响。试验结果表明,所提方法用于复杂背景图像中茶尺蠖的检测,可以达到0.94的召回率,0.96的精确度和92.89%的平均精度均值。与基线网络相比,该方法的平均精度均值提高了6.44个百分点。使用相同的数据集和预处理的对比分析表明,该方法优于SSD、Faster RCNN和YOLOv4等其他经典深度学习方法,平均精度均值比SSD、Faster RCNN、YOLOv4分别高17.18个百分点、6.52个百分点和4.78个百分点。该方法可实现对茶尺蠖的智能检测,减少人力成本,有助于实现精准施药,提高茶叶的产量和品质。  相似文献   

4.
随着海参养殖业快速发展,利用水下机器人代替人工作业的海参智能捕捞已成为发展趋势。浅海环境复杂,海参体色与环境区分性差、海参呈现半遮蔽状态等原因,导致目标识别准确率低下。此外由于景深运动,远端海参作为小目标常常未被识别成功。为解决上述问题,该研究提出一种基于改进SSD网络的海参目标检测算法。首先通过RFB(Receptive Field Block)模块扩大浅层特征感受野,利用膨胀卷积对特征图进行下采样,增加海参细节、位置等信息,并结合注意力机制,对不同深度特征进行强化,将计算得出的权重与原特征信息相乘以此获得特征图,使结果包含最具代表性的特征,也抑制无关特征。最后实现特征图融合,进一步提升水下海参的识别精度。以实际拍摄的视频进行测试验证,在网络结构层面上,对传统算法进行改进。试验结果表明,基于改进的SSD网络的海参目标检测算法的平均精度均值为95.63%,检测帧速为10.70帧/s,相较于传统的SSD算法,在平均精度均值提高3.85个百分点的同时检测帧速仅减少2.8帧/s。与Faster R-CNN算法和YOLOv4算法进行对比试验,该研究算法在平均精度均值指标上,分别比YOLOv4、Faster R-CNN算法提高4.19个百分点、1.74个百分点。在检测速度方面,该研究算法较YOLOv4、Faster R-CNN算法分别低4.6帧/s、高3.95帧/s,试验结果表明,综合考虑准确率与运行速度,改进后的SSD算法较适合进行海参智能捕捞任务。研究结果为海参智能捕捞提供参考。  相似文献   

5.
为提高香蕉采摘机器人的作业效率和质量,实现机器人末端承接机构的精确定位,该研究提出一种基于YOLOv5算法的蕉穗识别,并对蕉穗底部果轴进行定位的方法。将CA(Coordinate Attention)注意力机制融合到主干网络中,同时将C3(Concentrated-Comprehensive Convolution Block)特征提取模块与CA注意力机制模块融合构成C3CA模块,以此增强蕉穗特征信息的提取。用 EIoU(Efficient Intersection over Union)损失对原损失函数CIoU(Complete Intersection over Union)进行替换,加快模型收敛并降低损失值。通过改进预测目标框回归公式获取试验所需定位点,并对该点的相机坐标系进行转换求解出三维坐标。采用D435i深度相机对蕉穗底部果轴进行定位试验。识别试验表明,与YOLOv5、Faster R-CNN等模型相比,改进YOLOv5模型的平均精度值(mean Average Precision, mAP)分别提升了0.17和21.26个百分点;定位试验表明,采用改进YOLOv5模型对蕉穗底部果轴定位误差均值和误差比均值分别为0.063 m和2.992%,与YOLOv5和Faster R-CNN模型相比,定位误差均值和误差比均值分别降低了0.022 m和1.173%,0.105 m和5.054%。试验实时可视化结果表明,改进模型能对果园环境下蕉穗进行快速识别和定位,保证作业质量,为后续水果采摘机器人的研究奠定了基础。  相似文献   

6.
为解决传统小肠绒毛需要专业人员手动检测耗时耗力且存在主观性和不稳定性等问题,同时提高在复杂病理学图像中小肠绒毛检测的准确率和效率,该研究基于改进YOLOv5s提出对复杂病理学图像下猪只小肠绒毛检测的方法。首先,采用串联形式的混合池化对空间金字塔进行优化,增强特征提取与特征表达,提升检测精度;然后通过引入一种基于注意力机制的网络模块(simple attention mechanism, SimAM)与Bottleneck中的残差连接相结合,通过使用SimAM对Bottleneck中的特征图进行加权,得到加权后的特征表示,利用注意力机制加强模型对目标的感知。试验结果表明,该研究算法的平均精度(average precision)和每秒传输帧数(frame per second,FPS)达到92.43%和40帧/s。改进后的YOLOv5s在召回率和平均精度上相较之前提高2.49和4.62个百分点,在不增加模型参数量的情况下, 每帧图片的推理时间缩短1.04毫秒 。与经典的目标检测算法SSD、Faster R-CNN、YOLOv6s、YOLOX相比,平均精度分别提高15.16、10.56、2.03和4.07个百分点。结果表明,该研究能够为病理学图像中实现小肠绒毛自动化检测提供方法,保证复杂图像检测速度的同时,提高小肠绒毛的检测精度。  相似文献   

7.
果实表型数据高通量、自动获取是果树新品种育种研究的基础,实现幼果精准检测是获取生长数据的关键。幼果期果实微小且与叶片颜色相近,检测难度大。为了实现自然环境下苹果幼果的高效检测,采用融合挤压激发块(Squeeze-and-Excitation block, SE block)和非局部块(Non-Local block, NL block)两种视觉注意机制,提出了一种改进的YOLOv4网络模型(YOLOv4-SENL)。YOLOv4模型的骨干网络提取高级视觉特征后,利用SE block在通道维度整合高级特征,实现通道信息的加强。在模型改进路径聚合网络(Path Aggregation Network, PAN)的3个路径中加入NL block,结合非局部信息与局部信息增强特征。SE block和NL block两种视觉注意机制从通道和非局部两个方面重新整合高级特征,强调特征中的通道信息和长程依赖,提高网络对背景与果实的特征捕捉能力。最后由不同尺寸的特征图实现不同大小幼果的坐标和类别计算。经过1 920幅训练集图像训练,网络在600幅测试集上的平均精度为96.9%,分别比SSD、Faster R-CNN和YOLOv4模型的平均精度提高了6.9百分点、1.5百分点和0.2百分点,表明该算法可准确地实现幼果期苹果目标检测。模型在480幅验证集的消融试验结果表明,仅保留YOLOv4-SENL中的SE block比YOLOv4模型精度提高了3.8百分点;仅保留YOLOv4-SENL中3个NL block视觉注意模块比YOLOv4模型的精度提高了2.7百分点;将YOLOv4-SENL中SE block与NL blocks相换,比YOLOv4模型的精度提高了4.1百分点,表明两种视觉注意机制可在增加少量参数的基础上显著提升网络对苹果幼果的感知能力。该研究结果可为果树育种研究获取果实信息提供参考。  相似文献   

8.
绿色高效杀线农药是现阶段防治植物线虫病的有效手段之一,针对在大规模杀线农药活性筛选测试阶段,传统人工镜检工作存在耗时长、准确率低、工作量大等问题,提出一种基于坐标注意力机制与高效边界框回归损失的线虫快速识别方法YOLOFN(YOLO for Nematodes)。基于YOLOv5s目标检测理论框架,在主干网络嵌入坐标注意力机制特征提取模块,融合线虫特征图位置信息于通道注意力中;进一步,平衡考量线虫目标的重叠比例、中心点距离、预测框宽高以及正负样本比例,以精确边界框回归的高效损失函数(Efficient IoU,EIoU)和焦点损失函数(Focal loss)优化定位损失函数和分类损失函数,最小化真实框与预测框的宽高差值,动态降低易区分样本的权重,快速聚焦有益训练样本,以提升模型对重叠黏连线虫目标的解析能力和回归精度。试验结果表明,YOLOFN在准确率、召回率和平均精度均值(mean Average Precision,mAP)性能指标上较改进前提高了0.2、4.4和3.8个百分点,与经典检测算法YOLOv3、SSD、Faster R-CNN3相比,mAP分别提高了1.1、31.7和15.1个百分点;与轻量化主干算法深度可分离卷积-YOLOv5、Mobilenetv2-YOLOv5、GhostNet-YOLOv5相比,在推理时间基本无差别情况下,mAP分别高出11、16.3和15个百分点。YOLOFN模型可快速、准确、高效完成线虫镜检统计工作,满足植物线虫病农药研发的实际需求,为加快植物线虫病防治新药的研制提供有力技术支持。  相似文献   

9.
为解决自然环境中苹果叶片病害检测场景复杂、小目标病害检测难度高以及模型参数大无法在移动端和嵌入式设备部署等问题,提出一种基于YOLOv5s的苹果叶片小目标病害轻量化检测方法。该方法将YOLOv5s的骨干网络更改为ShuffleNet v2轻量化网络,引入CBAM(convolutional block attention module)注意力模块使模型关注苹果叶片小目标病害,添加改进RFB-s(receptive field block-s)支路获取多尺度特征,提高苹果叶片病害检测精度,并更改边界框回归损失函数为SIoU(scylla-intersection over union),增强病斑定位能力。试验表明改进后的YOLOv5s模型在IoU大于0.5时的平均精度均值(mean average precision,mAP0.5)和每秒传输帧数(frame per second,FPS)分别达到90.6%和175帧/s,对小目标的平均检测准确率为38.2%,与基准模型YOLOv5s相比,其mAP0.5提升了0.8个百分点,参数量减少了6.17 MB,计算量减少了13.8 G,对小目标的检测准确率提高了3个百分点。改进后的YOLOv5s目标检测模型与Faster R-CNN、SSD、YOLOv5m、YOLOv7、YOLOv8和YOLOv5s目标检测模型相比,具有最小的参数量和计算量,对小目标病害叶斑病和锈病的检测准确率分别提高了1.4、4.1、0.5、5.7、3.5、3.9和1.5、4.3、1.2、2.1、4、2.6个百分点,该方法为真实自然环境下苹果叶片病害尤其是小目标病害的轻量化检测提供参考依据。  相似文献   

10.
李韬  任玲  胡斌  王双  赵明  张玉泉  杨苗 《农业工程学报》2023,39(23):174-184
为了提高番茄穴盘苗分级检测精度,该研究提出了改进YOLOv5s目标检测模型,并通过迁移学习对番茄穴盘病苗识别精度进行优化。采用轻量级网络EfficientNetv2的Backbone部分作为特征提取网络,保留YOLOv5s中的SPPF空间金字塔池化模块,压缩模型参数数量以减少计算量;更改模型Neck部分原始上采样模块为CARAFE轻量级上采样模块,在引入很少参数量的情况下提高模型精度;同时将PANet替换为BiFPN,引入特征权重信息,增强不同尺度特征融合能力;引入有效多尺度注意力机制(efficient multi-scale attention,EMA),提高对番茄苗的关注,减少背景干扰;替换CIoU损失函数为SIoU损失函数,考虑真实框与预测框之间的方向匹配,提高模型收敛效果。试验结果表明,改进的YOLOv5s目标检测模型经过迁移学习训练后,平均精度均值达到95.6%,较迁移学习前提高了0.7个百分点;与原YOLOv5s模型相比,改进YOLOv5s模型平均精度均值提升2.6个百分点;改进YOLOv5s模型的参数量、计算量和权重大小分别为原YOLOv5s模型的53.1%、20.0%和53.6%,便于后期将模型部署到边缘设备中;与Faster-RCNN、CenterNet及YOLO系列目标检测模型相比,改进YOLOv5s模型在检测精度和检测速度方面均有明显优势,该研究成果可以为穴盘苗的分级检测提供依据。  相似文献   

11.
基于改进CornerNet的水稻灯诱飞虱自动检测方法构建与验证   总被引:1,自引:0,他引:1  
针对水稻灯诱昆虫图像中稻飞虱自动检测存在严重误检和漏检问题,提出一种基于改进CornerNet的水稻灯诱飞虱自动检测方法。由于稻飞虱个体在灯诱昆虫图像中所占区域比例极小,利用重叠滑动窗方法提高飞虱在图像检测区域中所占比例,提高2种稻飞虱(白背飞虱和褐飞虱)的检测率和避免滑动窗边界造成的目标漏检。针对CornerNet存在角点匹配不准确导致检测框冗余问题,利用检测框抑制方法去除冗余检测框。对灯诱昆虫图像进行稻飞虱检测,结果表明,该研究提出的基于改进CornerNet的水稻灯诱飞虱自动检测方法对2种稻飞虱检测的平均精确率和召回率分别为95.53%和95.50%,有效地提高了灯诱昆虫图像中稻飞虱的检测效果,可用于智能虫情测报灯的灯诱昆虫图像中白背飞虱和褐飞虱的智能测报。  相似文献   

12.
自动监测装置用温室粉虱和蓟马成虫图像分割识别算法   总被引:6,自引:5,他引:1  
为了监测温室黄瓜作物虫害种类、数量变化情况以预测虫害发展趋势,该文以粉虱和蓟马为例,提出了一种基于Prewitt、Canny边缘检测算子分割和SVM(support vector machine)的温室粉虱和蓟马诱虫板的图像识别算法。该方法利用HSI(Hue-Saturation-Intensity)颜色空间的I分量与L*a*b*颜色空间的b分量二值图像中害虫目标与背景的高对比性,再分别相应地利用Prewitt算子和Canny算子进行单头害虫边缘分割,再经过形态学处理,最后融合这两幅二值图像完成单头害虫区域的提取。然后提取害虫的5个形态特征(面积、相对面积、周长、复杂度、占空比)及9个颜色特征(Hue-Saturation-Value颜色空间、HSI颜色空间、L*a*b*颜色空间各分量的一阶矩),并对这14个特征参数进行归一化处理,将特征值作为SVM的输入向量,进行温室粉虱和蓟马的诱虫板图像识别。通过分析比较不同向量组合的BP(back propagation)与SVM的害虫识别率、4种不同SVM核函数的害虫识别率,发现颜色特征向量是粉虱和蓟马识别的主成分,且SVM的识别效果优于BP神经网络、线性核函数的SVM分类性能最好且稳定。结果表明:平均识别准确率达到了93.5%,粉虱和蓟马成虫的识别率分别是96.0%和91.0%,能够实现温室害虫的诱虫板图像识别。该研究可以为虫害的监测与预警提供支持,为及时采取正确的防治措施提供重要的理论依据。  相似文献   

13.
基于图像显著性分析与卷积神经网络的茶园害虫定位与识别   总被引:23,自引:19,他引:4  
为实现在茶园环境中快速、准确地识别害虫目标,该文提出了一种基于卷积神经网络的深度学习模型来进行害虫定位和识别的方法。该文通过对整个图像进行颜色衰减加速运算,结合超像素区域之间的空间影响,计算各个超区域的显著性值,进而提供害虫目标的潜在区域,最终结合Grab Cut算法进行害虫目标的定位和分割。对于分割后的害虫目标,通过优化后的卷积神经网络进行表达和分类,并进一步对卷积神经网络的结构进行了约减。通过对23种茶园主要害虫的识别,试验结果表明,识别准确率在优化前后分别为0.915和0.881,优化后的模型内存需求和运行耗时分别降低至6 MB和0.7 ms,取得了较好的识别效果。  相似文献   

14.
基于深度卷积神经网络的番茄主要器官分类识别方法   总被引:17,自引:14,他引:3  
为实现番茄不同器官的快速、准确检测,提出一种基于深度卷积神经网络的番茄主要器官分类识别方法。在VGGNet基础上,通过结构优化调整,构建了10种番茄器官分类网络模型,在番茄器官图像数据集上,应用多种数据增广技术对网络进行训练,测试结果表明各网络的分类错误率均低于6.392%。综合考虑分类性能和速度,优选出一种8层网络用于番茄主要器官特征提取与表达。用筛选出的8层网络作为基本结构,设计了一种番茄主要器官检测器,结合Selective Search算法生成番茄器官候选检测区域。通过对番茄植株图像进行检测识别,试验结果表明,该检测器对果、花、茎的检测平均精度分别为81.64%、84.48%和53.94%,能够同时对不同成熟度的果和不同花龄的花进行有效识别,且在检测速度和精度上优于R-CNN和Fast R-CNN。  相似文献   

15.
基于可形变VGG-16模型的田间作物害虫检测方法   总被引:2,自引:1,他引:1  
由于田间害虫种类多,大小、形态、姿态、颜色和位置变化多样,且田间害虫的周围环境比较复杂,使传统田间害虫检测方法的性能不高,而现有基于卷积神经网络的作物害虫检测方法采用固定的几何结构模块,不能有效应用于田间多变的害虫检测。该研究在VGG-16模型的基础上构建了一种可形变VGG-16模型(Deformable VGG-16,DVGG-16),并应用于田间作物害虫检测。在DVGG-16模型中,引入可形变卷积后能够适应不同形状、状态和尺寸等几何形变的害虫图像,提高了对形变图像的特征表达能力,然后利用1个全局平均池化层替代VGG-16模型中的3个全连接层,以加快模型的训练。通过DVGG-16模型与VGG-16模型对比试验发现,DVGG-16模型提升了对田间害虫图像的形状、大小等几何形变的适应能力,在不改变图像空间分辨率的情况下,实现了对不规则田间害虫图像的特征提取,在实际田间害虫图像数据库上的检测准确率为91.14%。试验结果表明,DVGG-16模型提升了VGG-16模型对害虫多样性图像的特征表达能力,具有一定的图像形变适应能力,能够较准确地检测到田间形状变化多样的害虫,可为田间复杂环境下作物害虫检测系统提供技术支持。  相似文献   

16.
智能虫情测报灯对农业生产中及时察觉虫害、虫灾问题起重大作用,准确的害虫分类识别是给虫情测报提供可靠数据支撑的关键。该研究对智能虫情测报灯所需核心识别算法进行改进,针对分类目标多尺度、存在多种相似非目标害虫干扰、易产生目标粘连等问题,提出一种基于改进Mask-RCNN(mask region-based convolutional neural network)模型的害虫图像智能识别模型。该模型使用DeAnchor算法改进Mask-RCNN的锚框引导机制,使用NDCC(novelty detection consistent classifiers)训练分类器进行联合分类和检测,改善非目标杂虫的误识别问题。改进后模型对无杂虫、不同虫体密度图像的识别准确率最高达到96.1%,最密集时可达90.6%,比原Mask-RCNN模型识别准确率平均提高4.7个百分点。对于含杂虫图片,在仅有非目标的图片识别中,误检率降至9%,非目标与目标共存且密度为40虫/图的误检率降至15%。试验表明,该文所提模型在现有分类模型的基础上,增强了对密集区域的检测能力,改善了非目标误识别问题,在实际检测环境下的害虫分类识别精度更高,可为虫害防治工作提供数据参考。  相似文献   

17.
基于空间金字塔池化和深度卷积神经网络的作物害虫识别   总被引:6,自引:5,他引:1  
为了减少因作物害虫姿态多样性和尺度多样性导致其识别精度相对较低的问题,该文将空间金字塔池化与改进的YOLOv3深度卷积神经网络相结合,提出了一种基于空间金字塔池化的深度卷积神经网络农作物害虫种类识别算法,首先对测试图像上的害虫进行检测定位,然后对检测定位出的害虫进行种类识别。通过改进YOLOv3的网络结构,采用上采样与卷积操作相结合的方法实现反卷积,使算法能够有效地检测到图片中体型较小的作物害虫样本;通过对采集到的实际场景下20类害虫进行识别测试,识别精度均值可达到88.07%。试验结果表明,本文提出的识别算法能够有效地对作物害虫进行检测和种类识别。  相似文献   

18.
为实现花椒簇的快速准确检测,该研究提出了一种基于改进YOLOv5s的花椒簇检测模型。首先,使用MBConv(MobileNetV3 block convolution,MBConv)模块和基于ReLU的轻量级自注意力机制优化了EfficientViT网络,用其代替YOLOv5s的主干,减少模型的参数量、增强模型对重要特征的表达能力。其次,在模型的训练过程中采用了OTA(optimal transport assignment)标签分配策略,优化训练中的标签分配结果。最后,使用WIoU损失函数对原损失函数CIoU进行替换,提高锚框的质量。试验结果表明,改进YOLOv5s模型的平均准确度均值(mean average precision,mAP)为97.3%、参数量为5.9 M、检测速度为131.6帧/s。相较于YOLOv5s模型,mAP提升1.9个百分点、参数量降低15.7%、检测速度提高14.5%。结果表明,该研究提出的改进YOLOv5s模型准确度高、参数量低、检测速度快,可实现对花椒簇的有效检测。  相似文献   

19.
便携式柑橘虫害实时检测系统的研制与试验   总被引:3,自引:2,他引:1  
为实现柑橘虫害的快速、准确识别,帮助果农及时掌握果园内虫害的危害程度和分布情况,该研究结合嵌入式图像处理技术设计了一套基于深度卷积神经网络的柑橘虫害实时检测系统。优选MoblieNet作为虫害图像特征提取网络,区域候选网络生成害虫的初步位置候选框,快速区域卷积神经网络(Faster Region Convolutional Neural Networks,Faster R-CNN)实现候选框的分类和定位。检测系统根据目标图像中虫害数量计算危害程度,按照正常、轻度、中度、重度4个等级判定柑橘虫害的严重程度,形成虫害识别与级别定量化测评软件。最后引入北斗模块获取采样点位置信息,进一步处理成可视化的虫害热力图。结果表明,该方法可实现对柑橘红蜘蛛和蚜虫的快速准确检测,识别准确率分别达到91.0%和89.0%,单帧图像平均处理速度低至286ms。该系统实现了柑橘虫害的精准识别与定位,可为农药喷洒作业提供精准信息服务。  相似文献   

20.
为对干扰、遮挡等复杂的田野环境中麦穗进行精准定位与计数,该研究提出了一种改进的Oriented R-CNN麦穗旋转框检测与计数方法,首先在主干网络中引入跨阶段局部空间金字塔(SPPCSPC,spatial pyramid pooling cross stage partial networks)模块扩大模型感受野,增强网络感知能力;其次,在颈网络中结合路径聚合网络(PANet,path aggregation network)和混合注意力机制(E2CBAM,efficient two convolutional block attention module),丰富特征图包含的特征信息;最后采用柔性非极大值抑制算法(Soft-NMS,soft-non maximum suppression)优化预测框筛选过程。试验结果显示,改进的模型对复杂环境中的麦穗检测效果良好。相较原模型,平均精确度均值mAP提高了2.02个百分点,与主流的旋转目标检测模型Gliding vertex、R3det、Rotated Faster R-CNN、S2anet和Rotated Retinanet相比,mAP分别提高了4.99、2.49、3.94、2.25和4.12个百分点。该研究方法利用旋转框准确定位麦穗位置,使得框内背景区域面积大幅度减少,为实际观察麦穗生长状况和统计数量提供了一种有效的方法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号