首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
为进一步提升对复杂海洋目标的检测能力,引入自适应尺度的注意力机制,提出一种适应多尺度复杂海洋目标的改进Faster R-CNN模型,该模型通过将卷积网络与SKNet网络相结合,增强模型的特征提取能力与特征有效性,并针对船舶、蚝排、红树林、海岸线4类典型海洋目标,利用91卫图助手与无人机高清影像建立了12000张样本库,分别基于改进的Faster R-CNN模型与原模型进行对比测试试验.结果表明:改进的模型虽然略微增加了计算量,但其特征提取能力与目标检测能力明显强于原模型,整体识别准确率为87.1%;在4类典型海洋目标中,船舶的识别准确率最高,可达94.4%,而红树林由于其特征比较复杂,边界不明显,其整体识别准确率为75.1%.研究表明,引入SKNet网络的Faster R-CNN网络模型,不仅增强了模型对多尺度复杂目标的特征提取能力,更适用于对复杂海洋目标的检测与识别.  相似文献   

2.
目的 引入区域卷积神经网络Faster R-CNN算法并对其改进,以实现在田间真实环境下背景复杂且具有相似病斑特征的玉米病害的智能诊断。方法 在玉米田间和公开数据集网站获取具有复杂背景的9种常见病害图像1 150幅,人工标注后对原始图像进行离线数据增强扩充;对Faster R-CNN算法进行适应性改进,在卷积层加入批标准化处理层,引入中心代价函数构建混合代价函数,提高相似病斑的识别精度;采用随机梯度下降算法优化训练模型,分别选取4种预训练的卷积结构作为Faster R-CNN的特征提取网络进行训练,并测试得到最优特征提取网络,利用训练好的模型选取不同天气条件下的测试集进行对比,并将改进Faster R-CNN与未改进的Faster R-CNN和SSD算法进行对比试验。结果 在改进Faster R-CNN病害识别框架中,以VGG16卷积层结构作为特征提取网络具有更出色的性能,利用测试集图像检验模型,识别结果的平均精度为 0.971 8,平均召回率为0.971 9,F1为0.971 8,总体平均准确率可达97.23%;晴天的图像识别效果优于阴天的。改进Faster R-CNN算法与未改进的Faster R-CNN算法相比,平均精度高0.088 6,单张图像检测耗时减少0.139 s;与SSD算法相比,平均精度高0.0425,单张图像检测耗时减少0.018 s,表明在大田环境中具有复杂背景的玉米病害智能检测领域,改进Faster R-CNN算法综合性能优于未改进的Faster R-CNN算法和SSD算法。结论 将改进后的Faster R-CNN算法引入田间复杂条件下的玉米病害智能诊断是可行的,具有较高的准确率和较快的检测速度,能够避免传统人工识别的主观性,该方法为田间玉米病害的及时精准防控提供了依据。  相似文献   

3.
针对Faster R-CNN模型对自然状态下草莓(Fragaria ananassa Duch.)识别准确率不高的问题,以地垄种植草莓的实拍图片为数据源,采用改进RPN结构和更换主干特征提取网络的方法对Faster RCNN模型进行了改进。结果表明,改进Faster R-CNN模型识别成熟草莓平均精度(AP)为0.893 0,识别未成熟草莓平均精度(AP)为0.820 7,草莓识别准确率达到较高水平,解决了未成熟草莓识别困难的问题。同时,为了检验模型的自动计数性能,依据模型的识别结果建立了自动计数与人工计数的线性回归,成熟草莓、未成熟草莓的相关系数分别为0.973 7、0.944 7,自动计数与人工计数拥有较高的相关性,表明改进Faster R-CNN模型具有较高的识别性能与计数能力。  相似文献   

4.
为了实现复杂背景下绝缘子的快速、准确识别,提出了基于卷积神经网络的绝缘子目标识别方法。该方法通过公开数据集ImageNet预训练VGGNet,并将VGGNet作为特征提取网络,预训练后用其参数初始化Faster R-CNN,通过绝缘子数据集再训练,最终用来识别绝缘子目标。此外,为了探究不同卷积网络和不同算法对试验结果的影响,除上述VGGNet和Faster R-CNN以外,还使用了AlexNet和Fast R-CNN来进行对比试验,即对比Fast R-CNN+VGGNet、Faster R-CNN+VGGNet、Faster R-CNN+AlexNet这3种网络。测试结果表明:在使用相同特征网络VGGNet时,Faster R-CNN的各项测试指标均优于Fast R-CNN,在使用相同算法Faster R-CNN时,VGGNet网络的检测指标较为理想,但识别速度稍慢于AlexNet网络。3种网络都能够达到绝缘子目标识别的目的,精确度依次为87.23%、96.66%、93.34%,召回率依次为59.42%、84.06%、49.28%,平均识别时间依次为8.48,2.70,1.40s。观察试验可知,相比其他两种算法Faster R-CNN+VGGNet检测结果较为理想,其精确度分别高出9.43%和3.32%,召回率分别高出24.64%和34.78%,说明该方法可对复杂背景下的绝缘子进行有效识别。  相似文献   

5.
【目的】为解决传统天麻表面破损主要依靠人工检测的问题,提出将残差神经网络模型(Faster R-CNN ResNet101)检测方法应用到天麻表面破损识别中,以期取得较好的识别效果。【方法】以腐烂、霉变、机械损伤和完好等4类天麻为研究对象,在卷积神经网络和区域候选网络的基础上构建模型,然后在tensorflow框架上实现模型检测,最后对比分析结果。【结果】天麻表面破损检测模型利用Faster R-CNN ResNet101网络中的输入卷积层以及4个卷积组进行特征提取,区域候选网络生成天麻表面破损的初步位置候选框,实现候选框的分类和定位,其识别率达95.14%,且查准率为0.94,召回率为0.92。与SSD (Single Shot multibox Detector)、Faster_rcnn_inception和Rfcn_resnet101等3种神经网络识别方法对比,识别率分别提高了13.02%、10.69%和12.02%。【结论】该模型具有泛化能力强、准确率较高和鲁棒性较好等特点,为农产品的识别研究提供了参考和借鉴。  相似文献   

6.
小麦叶片和株高性状对功能基因解析、育种工作以及小麦生长状态分析都具有重要意义,而传统的人工检测提取性状的方法存在主观性强、效率低、提取性状不多的缺点,甚至还会影响小麦后续生长.为实现小麦叶长和株高性状的自动测量,提出了一种基于Mask R-CNN的小麦叶长和株高性状提取方法.Mask R-CNN是一种目标实例分割模型,主要是由Faster R-CNN、RoIAlign和FCN组成.基于高通量表型系统采集小麦幼苗图片,对小麦幼苗图片中茎秆进行标注,将标注图作为训练集投入Mask R-CNN网络进行训练,用已训练好的模型分割出mIoU达到72%的小麦茎秆图之后,结合相关的图像处理方法将叶片和茎秆进行分离,获取单片叶长和株高性状,然后将叶长和株高性状与人工测量数据进行对比分析.结果 表明:叶长性状的相关系数R2为0.8735,株高性状的相关系数R2为0.9828.研究基于Mask R-CNN实现盆栽小麦单片叶长和株高智能分析和精准提取,为小麦遗传改良育种提供了一种表型高通量智能分析方法.  相似文献   

7.
为了实现在自然光照环境下对梨树花芽的数量统计,以梨树主栽树种—‘玉露香’为研究对象,提出了1种基于改进Faster R-CNN的梨树花芽目标识别方法。通过实验对比Faster R-CNN框架下的VGG16、ResNet50以及ResNet101等3种网络模型的平均精度值,选择ResNet101作为FasterR-CNN的基础网络模型,并针对花芽尺度较小的特点,对原始的Faster R-CNN进行修改,在ResNet101的基础下融入特征金字塔网络(FPN)。对1 000张原始图像进行数据增强至10 000张并按8∶2的比例分别用于训练和测试,结果表明:融入特征金字塔网络后,所得模型平均精度值为91.27%,比原始模型77.43%的平均精度值提高了13.84%,检测的平均速度达到0.395 s每副。所提方法对自然光照环境下的梨树花芽检测具有良好的鲁棒性和较高的精度,同时也保证了实时性,可为进一步开展梨树树相及个体研究提供技术参考。  相似文献   

8.
李颀  杨军 《江苏农业学报》2022,38(2):394-402
针对葡萄特征提取不够充分且果粒排列密集相互遮挡难以准确检测的问题,以陕西省鄠邑区户太8号葡萄为研究对象,提出一种基于特征金字塔网络(FPN)特征融合的Faster R-CNN卷积神经网络模型完成复杂背景情况下葡萄果粒的检测与识别.以ResNet50为主干网络,引入金字塔结构,增强网络模型对葡萄果粒不同分辨率特征的提取能...  相似文献   

9.
针对多种树形果园环境下,由于树冠背景复杂导致的树冠分割、检测及树形识别困难的问题,本研究提出了1种改进Mask R-CNN的B-Mask R-CNN检测模型,实现自然复杂环境下的果树树冠检测与树形识别。该模型引入了IoU(Intersection over Union)平衡采样,提高了模型的训练效果;其次,在边界框损失中引入平衡L1损失,使得多分类损失与边界框损失更快地收敛;另外,在区域推荐网络中调整锚框比例适应数据集中的目标,提升了模型准确率。该研究搜集矮化密植形、小冠疏层形、自然开心形、自然圆头形以及Y形5种常见修剪树形制作数据集,应用5个检测模型进行对比试验。试验结果表明,B-Mask R-CNN检测模型平均检测精度达到98.7%,与Mask R-CNN、Faster R-CNN、U-Net以及K-means模型相比检测精度更高,对复杂背景下的树形识别具有更好的鲁棒性,能够为后续精准喷施中喷施模式和控制参数的分析及应用奠定基础。  相似文献   

10.
[目的]基于Faster R-CNN模型对不同成熟度蓝莓果实进行精准识别分类,为浆果类果实的自动化采摘、产量预估等提供技术支撑.[方法]选取成熟果、半成熟果、未成熟果剪切图像各4000幅和8000幅背景图像作为训练集,1000幅原始图像用于验证集开展试验,改进Faster R-CNN算法,设计一种对背景干扰、果实遮挡等因素具有良好鲁棒性和准确率的蓝莓果实识别模型,模型通过卷积神经网络(CNN)、区域候选网络(RPN)、感兴趣区域池化(ROI Pool-ing)和分类网络来实现蓝莓图像背景消除及果实识别并与DPM算法进行对比.[结果]以WOA算法优化的训练参数作为参考,在蓝莓数据集上训练网络模型.在分析P-R曲线后计算F发现,Faster R-CNN算法在成熟果、半成熟果和未成熟果上的F值分别为95.48%、95.59%和94.70%,与DPM算法相比平均高10.00%.在对3类蓝莓果实的识别精度方面,Faster R-CNN同样有着优秀的识别效果.对成熟果、半成熟果和未成熟果的识别准确率分别为97.00%、95.00%和92.00%,平均识别准确率为94.67%,比DPM算法高20.00%左右.该网络模型在高精度的识别效果下,对于蓝莓果实的平均识别速度依然达0.25 s/幅,能满足实时在线识别的需求.[建议]获取多角度、复杂环境下的图像用来提高模型识别率;利用迁移学习建立蓝莓识别模型;数据集样本扩充并分类.  相似文献   

11.
为提高复杂背景下立木图像的识别准确率,提出近似联合训练的Faster R-CNN对立木图像进行目标提取并分类。首先迁移ImageNet上的模型VGG16、ResNet101和MobileNetV2提取图像特征并微调网络,然后构建新的数据集包括7科10种立木图像共2 304张,通过该数据集训练和测试3种网络模型下的Faster R-CNN。结果表明,通过近似联合训练的Faster R-CNN得到的均值平均精度分别是93.64%、92.38%、92.58%,对于不同种属的立木,VGG16网络效果最佳。由于光照会对图像识别造成影响,将光照平衡前后的结果作对比,得到光照平衡后的立木图像识别结果优于平衡前。并利用训练的模型对斜向生长的立木图片进行检测,结果显示生长方向不影响图像识别准确率。证明该方法在具有复杂背景的立木图像上具有良好的效果,对更多立木的识别有一定的参考价值。  相似文献   

12.
为实现自然环境下不同成熟度火龙果在不同光照、不同遮挡场景下的精确快速识别,提出了一种基于对YOLOv5的网络模型改进的一种检测模型(PITAYA-YOLOv5)。首先,使用k-means++算法重新生成火龙果数据集的锚框,提高了网络的特征提取能力;其次,将CSPDarkNet替换成PPLCNet作为骨干网络,并加入SE注意力模块(Squeeze-and-Excitation block),在降低网络参数量的同时保持检测精度;同时加入加权双向特征金字塔网络(Bi-FPN)替换YOLOv5的特征融合网络,提高网络对不同尺度特征图的融合效率;引入αDIoU损失函数,提高了模型的收敛效果。试验结果表明:PITAYA-YOLOv5目标检测模型的平均精度均值为94.90%,较原模型提高1.33个百分点,F1值为91.37%,较原模型提高1.12个百分点,平均检测速度达到20.2 ms,占用内存仅有8.1 M。针对枝条遮挡和果间遮挡下的火龙果检测能力明显增强。对比Faster R-CNN、CenterNet、YOLOv3、YOLOv5以及轻量化骨干网络ShuffleNetv2,该模型具有良好的检测精...  相似文献   

13.
为实现羊只面部身份快速识别,本文以自建数据集为研究对象,提出了一种基于SSD的轻量化检测算法。首先该算法将SSD的主干网络VGG16替换成轻量级神经网络MobileNetv2,构建了一种轻量化混合神经网络模型。其次在特征提取网络参数量为1122×32的bottleneck层前端和72×160的bottleneck层后端分别引入CA、SE、CBAM和ECA注意力机制,实验结果表明72×160的bottleneck层后端引入ECA注意力机制是最优的。最后将smoothL1损失函数替换成BalancedL1损失函数。最优模型(SSD-v2-ECA2-B)模型大小从SSD的132MB减小到56.4MB,平均精度均值为81.16%,平均帧率为64.21帧/s,相较于基础的SSD模型平均精度均值提升了0.94个百分点,模型体积减小了75.6MB,检测速度提高了5.23帧/s。利用相同数据集在不同目标检测模型上进行对比试验,与SSD模型、Faster R-CNN模型、Retinanet模型相比,平均精度均值分别提升了0.36、2.40和0.07个百分点,与改进前的模型相比具有更好的综合性能。改进模型...  相似文献   

14.
针对梨小食心虫监测调查中存在的人工分类计数费时、费力且误差较大的问题,基于RetinaNet深度学习目标检测模型,构建了一种普适性更广的梨小食心虫智能识别计数方法.试验结果表明,RetinaNet目标检测模型对黏虫板上梨小食心虫的平均识别准确率达95.93%,平均计数准确率达95.62%,且该方法对拍摄条件要求低,普适性广,优于Faster R-CNN目标检测模型,完全可以在梨小食心虫监测调查中替代人工进行分类计数.  相似文献   

15.
刘芳  刘玉坤  张白 《江苏农业学报》2021,37(5):1262-1269
为解决温室叶菜子叶期幼苗生长密集情况下的图像识别问题,提出一种密集连接型D-YOLOv3检测网络.该网络以YOLOv3为基础构建主干网络,改进检测结构和损失函数.以穴盘培育的油菜幼苗为例展开一系列试验.首先确定了YOLOv3和D-YOLOv3检测网络中损失函数的修正系数;其次通过构建的几种检测网络的对比试验验证了对YOLOv3主干网络、检测结构和损失函数改进的有效性,D-YOLOv3的幼苗检测精度高达93.44%,检测时间低至12.61 ms,与YOLOv3相比精度提升9.4个百分点,时间降低4.07 ms;最后进行不同密集程度和光照环境下幼苗图像的检测性能对比试验,结果表明D-YOLOv3的检测精度、检测时间及对小目标的特征提取能力均优于YOLOv3.D-YOLOv3能够对温室环境下的叶菜幼苗进行有效检测,可以为智能检测装备的作物识别提供依据.  相似文献   

16.
基于YOLOV4模型的果园樱桃实时检测研究   总被引:1,自引:0,他引:1  
为解决在自然环境下对樱桃不同生长时期的状态监测受环境影响存在目标识别困难、检测准确率低的问题,提出了一种基于CSPDarknet53改进的卷积神经网络樱桃分类检测模型。经典YOLOV4所使用的特征提取网络层数较深,能够提取更高级的抽象特征,但是对目标局部感知能力较弱,通过在CSPDarknet53网络结构上融合CBAM注意力机制,增强了目标局部特征感知能力,进一步提升目标检测精度,其特征提取和目标检测能力优于原算法,调整特征提取网络的特征层输出,将第三层输出变为第二层输出以增加小目标语义信息的获取,利用k-means算法优化先验框尺寸以适应樱桃目标大小,并进行了消融实验分析。结果表明,改进的YOLOV4樱桃检测模型模型的平均精度达到了92.31%,F1分数达到了87.3%,优于Faster RCNN、YOLOV3和原来的YOLOV4算法,检测速度为40.23幅·s-1,适用于自然环境下的樱桃监测,为实现果园水果生长状态自动监测提供了理论和技术基础。  相似文献   

17.
基于Faster R-CNN和图像增强的水下鱼类目标检测方法   总被引:2,自引:0,他引:2  
为了克服水下鱼类图像样本量不足及实现对水下低清晰度图像中鱼类的快速检测,提出了一种基于Faster R-CNN二次迁移学习和带色彩恢复的多尺度视网膜增强算法(MSRCR)的方法,首先通过ImageNet预训练模型对Open Images高清鱼类数据集进行一次迁移学习初步训练网络,然后固定检测模型低3层的卷积网络参数,再用水下拍摄的小规模鱼类数据集进行二次迁移学习微调网络,最后通过MSRCR算法对水下拍摄图像进行处理以增强其与高清鱼类图像的相似性,解决水下图像降质问题,让二次迁移学习高效进行。结果表明,该方法利用小规模水下拍摄鱼类数据集训练出的网络查准率可达到98.12%,网络检测能力及后续提升能力优于传统机器学习方法,并能够实现鱼类目标的快速检测,本研究结果可为深海探测作业与海底鱼类等生物资源的监测、保护和可持续开发等工程应用提供一定的参考。  相似文献   

18.
为利用计算机或人工智能技术协助番茄病虫害防治,以存在病虫害侵害问题的番茄植株图像为研究对象,针对番茄病虫害目标小而密的特点提出基于Swin Transformer的YOLOX目标检测网络,用于精确定位图像中的病虫害目标,并采用基于经典卷积神经网络构建的旋转不变Fisher判别CNN分类网络,以此提高病虫害分类的准确率。结果表明:1)将测试结果与传统的目标检测模型和分类模型作对比,基于Swin Transformer的YOLOX网络在番茄病虫害测试集上的精确度比Faster R-CNN和SSD分别高了7.9%和9.5%,旋转不变Fisher判别CNN对病虫害类别的识别准确率与AlexNet、VGGNet相比分别提升了8.7%和5.2%;2)与基于Transformer的目标检测模型DETR和近年来新兴的图像分类模型Vision Transformer(ViT)在番茄病虫害测试集上的结果相比较,本研究的检测和分类方法也存在优势,病虫害检测精度和分类准确率分别提高了3.9%和4.3%。此外消融试验也证明了本研究方法改进的有效性。总之,本研究所构建的网络在番茄病虫害的目标检测和分类识别方面的性能优于其他网络,有助于提升番茄病虫害的防治效果,对计算机视觉在农业领域的应用具有重要意义。  相似文献   

19.
小样本目标检测旨在通过少量样本实现对图像中目标的识别和定位。目前针对柑橘缺陷的小样本数据集进行的检测较少,本文提出了使用数据增强和迁移学习来对小样本柑橘的缺陷类型进行检测的方法,采用旋转、裁剪和高斯模糊进行数据增强来扩充数据集,与使用迁移学习方法进行对比。实验表明:迁移学习方法中最优算法是FRCN ft-full,基于该算法的20-shot任务的mAP值为67.823%;在基于数据增强的方法中使用Faster R-CNN算法的mAP值达到了84.7%,使用YOLOv8算法的mAP是85.3%,YOLOv8算法略优于Faster R-CNN算法。迁移学习方法增强了检测模型的泛化能力,加快了模型的收敛速度;数据增强方法有效扩充了数据集,提升了小样本柑橘缺陷检测模型的准确性。  相似文献   

20.
为构建田间杂交大豆胚轴颜色检测模型,以大田场景下的大豆植株为研究对象,利用自走式大豆表型信息采集平台获取图像数据并构建杂交大豆胚轴颜色数据集,使用不同目标检测模型(SSD、Faster R-CNN、YOLOv3、YOLOv4、YOLOv5、YOLOX和YOLOv7)对杂交大豆胚轴颜色数据集进行检测,将模型分数(F1)、平均精度均值(mAP)及检测速度3个指标用于评估不同模型在杂交大豆胚轴颜色检测中的性能。在YOLOv7网络中添加CARAFE特征上采样算子、SE注意力机制模块和WIoU位置损失函数,建立杂交大豆胚轴颜色检测模型YOLOv7-CSW,并利用改进模型对杂交大豆胚轴颜色数据集进行消融试验。结果表明:1)YOLOv7模型的F1(0.92)与mAP(94.3%)均显著高于其他模型;2)YOLOv7模型的检测速度为58帧/s,低于YOLOv5和YOLOX,检测速度可以满足田间实时检测任务需求;3)YOLOv7-CSW模型比YOLOv7模型的F1和mAP分别升高0.04和2.6%;4)YOLOv7-CSW模型比YOLOv7模型检测速度升高了5帧/s,可以实现杂交大豆胚轴颜色实时检测。综...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号