首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 93 毫秒
1.
基于姿态与时序特征的猪只行为识别方法   总被引:3,自引:1,他引:2       下载免费PDF全文
生猪行为监测是生猪养殖管理过程中的一个重要环节。该研究提出了基于姿态与时序特征的猪只行为识别方法。首先采集和标注猪栏内猪只图像,分别构建了猪只目标检测数据集、猪只关键点数据集和猪只行为识别数据集;利用构建的数据集,分别训练了基于YOLOv5s的猪只检测模型、基于轻量化OpenPose算法的猪只姿态估计模型和基于ST-GCN算法的猪只行为识别模型,并搭建了猪只行为识别系统。经测试,文中训练的YOLOv5s猪只检测模型mAP(mean Average Precision)最高达到0.995,姿态估计模型平均精度和平均召回率达到93%以上,基于ST-GCN的猪只行为识别模型的平均准确率为86.67%。文中构建的猪只行为识别系统中基于LibTorch推理猪只检测模型和猪只姿态估计模型的单帧推理耗时分别约为14和65 ms,单只猪行为识别推理耗时约为8 ms,每提取200帧连续姿态进行一次行为识别推理,平均17 s更新一次行为识别结果。证明提出的基于姿态与时序特征的猪只行为识别方法具有一定可行性,为群养猪场景下的猪只行为识别提供了思路。  相似文献   

2.
群养猪行为是评估猪群对环境适应性的重要指标。猪场环境中,猪只行为识别易受不同光线和猪只粘连等因素影响,为提高群养猪只行为识别精度与效率,该研究提出一种基于改进帧间差分-深度学习的群养猪只饮食、躺卧、站立和打斗等典型行为识别方法。该研究以18只50~115日龄长白猪为研究对象,采集视频帧1 117张,经图像增强共得到4 468张图像作为数据集。首先,选取Faster R-CNN、SSD、Retinanet、Detection Transformer和YOLOv5五种典型深度学习模型进行姿态检测研究,通过对比分析,确定了最优姿态检测模型;然后,对传统帧间差分法进行了改进,改进后帧间差分法能有效提取猪只完整的活动像素特征,使检测结果接近实际运动猪只目标;最后,引入打斗活动比例(Proportion of Fighting Activities, PFA)和打斗行为比例(Proportion of Fighting Behavior, PFB)2个指标优化猪只打斗行为识别模型,并对模型进行评价,确定最优行为模型。经测试,YOLOv5对群养猪只典型姿态检测平均精度均值达93.80%,模型大小为14.40 MB,检测速度为32.00帧/s,检测速度满足姿态实时检测需求,与Faster R-CNN、SSD、Retinanet和Detection Transformer模型相比,YOLOv5平均精度均值分别提高了1.10、3.23、4.15和21.20个百分点,模型大小分别减小了87.31%、85.09%、90.15%和97.10%。同时,当两个优化指标PFA和PFB分别设置为10%和40%时,猪只典型行为识别结果最佳,识别准确率均值为94.45%。结果表明,该方法具有准确率高、模型小和识别速度快等优点。该研究为群养猪只典型行为精准高效识别提供方法参考。  相似文献   

3.
针对葡萄园害虫识别过程中害虫种类繁多、形态属性复杂、实体间深层次关联关系差等因素导致的识别准确率不够高的问题,该研究提出一种基于属性特征知识图谱的细粒度葡萄害虫识别模型。该模型以视觉编码器作为提取图像高层表征的骨干网络,并结合知识图谱具有在描述害虫实体属性特征和害虫实体间关联方面的优势,将知识图谱所提供的细粒度属性特征和害虫实体关联特征信息用于葡萄园害虫分类研究。该方法在2个数据集上进行了测试:一是GP21数据集,该数据集由公开大规模害虫数据集IP102中21类葡萄园相关害虫类别图像构成;二是GP8数据集,该数据集包含从农业生产基地实地采集并手工标注的8种葡萄园害虫。试验结果表明,该文所提模型性能明显优于普遍通用预训练网络模型,分类准确率在GP21数据集和GP8数据集上分别达到了91.21%和95.03%,相比于仅使用视觉编码器分别增加1.64和1.17个百分点。这证明属性特征知识图谱的引入能够辅助视觉编码器捕获细粒度更高的葡萄园害虫特征信息,有效解决了葡萄园害虫识别中的精度不够高的问题。  相似文献   

4.
基于自注意力机制与无锚点的仔猪姿态识别   总被引:1,自引:1,他引:0  
在猪场养殖过程中,仔猪姿态识别对其健康状况和环境热舒适度监测都有着重要意义。仔猪个体较小,喜欢聚集、扎堆,且姿态随意性较大,给姿态识别带来困难。为此,该文结合Transformer网络与无锚点目标检测头,提出了一种新的仔猪姿态识别模型TransFree(Transformer + Anchor-Free)。该模型使用Swin Transformer作为基础网络,提取仔猪图像的局部和全局特征,然后经过一个特征增强模块(Feature Enhancement Module,FEM)进行多尺度特征融合并得到高分辨率的特征图,最后将融合后的特征图输入Anchor-Free检测头进行仔猪的定位和姿态识别。该文以广东佛山市某商业猪场拍摄的视频作为数据源,从12个猪栏的拍摄视频中选取9栏作为训练集,3栏作为测试集,训练集中仔猪的俯卧、侧卧和站立3类姿态总计19 929个样本,测试集中3类姿态总计5 150个样本。在测试集上,TransFree模型的仔猪姿态识别精度达到95.68%,召回率达到91.18%,F1-score达到93.38%;相较于CenterNet、Faster R-CNN和YOLOX-L目标检测网络,F1-score分别提高了2.32、4.07和2.26个百分点。该文提出的TransFree模型实现了仔猪姿态的高精度识别,为仔猪行为识别提供了技术参考。  相似文献   

5.
为了探究柑橘黄龙病病原菌对宿主叶片主脉显微结构的影响并建立基于叶片主脉显微图像的快速诊断方法,该研究以健康、染病未显症、染病显症和缺镁四类柑橘叶片主叶脉的显微图像为研究对象,提出了一个适用于小样本显微图像数据集的增强特征的无监督训练柑橘黄龙病检测模型(Enhanced Huanglongbing Unsupervised Pre-training Detect Transformer,E-HLBUP-DETR)。该模型首先采用无监督训练结合迁移学习构成上游网络(unsupervised pre-training model),再利用Yolact模型设计出增强特征网络(Enhanced Feature Network,EFN)与DETR(Detect Transformer)相结合构成下游网络,最终建立E-HLBUP-DETR诊断模型。研究结果表明,E-HLBUP-DETR模型检测的准确率可达96.2%,能够解决采用小规模数据集训练的模型存在过拟合和准确率低的问题。相较于未改进的DETR模型,E-HLBUP-DETR具有更高的检测准确率,识别准确率也优于CNN架构ResNext的92.1%与MobileNet的76.3%。研究结果可为显微尺度下柑橘黄龙病的早期快速诊断提供技术支持。  相似文献   

6.
面部对齐是猪脸识别中至关重要的步骤,而实现面部对齐的必要前提是对面部关键点的精准检测。生猪易动且面部姿态多变,导致猪脸关键点提取不准确,且目前没有准确快捷的猪脸关键点检测方法。针对上述问题,该研究提出了生猪面部关键点精准检测模型YOLO-MOB-DFC,将人脸关键点检测模型YOLOv5Face进行改进并用于猪脸关键点检测。首先,使用重参数化的MobileOne作为骨干网络降低了模型参数量;然后,融合解耦全连接注意力模块捕捉远距离空间位置像素之间的依赖性,使模型能够更多地关注猪面部区域,提升模型的检测性能;最后,采用轻量级上采样算子CARAFE充分感知邻域内聚合的上下文信息,使关键点提取更加准确。结合自建的猪脸数据集进行模型测试,结果表明,YOLO-MOB-DFC的猪脸检测平均精度达到99.0%,检测速度为153帧/s,关键点的标准化平均误差为2.344%。相比RetinaFace模型,平均精度提升了5.43%,模型参数量降低了78.59%,帧率提升了91.25%,标准化平均误差降低了2.774%;相较于YOLOv5s-Face模型,平均精度提高了2.48%,模型参数量降低了18.29%,标准化平均误差降低了0.567%。该文提出的YOLO-MOB-DFC模型参数量较少,连续帧间的标准化平均误差波动更加稳定,削弱了猪脸姿态多变对关键点检测准确性的影响,同时具有较高的检测精度和检测效率,能够满足猪脸数据准确、快速采集的需求,为高质量猪脸开集识别数据集的构建以及非侵入式生猪身份智能识别奠定基础。  相似文献   

7.
基于移位窗口Transformer网络的玉米田间场景下杂草识别   总被引:2,自引:2,他引:0  
针对实际复杂田间场景中作物与杂草识别准确性与实时性差,易受交叠遮挡影响,像素级数据标注难以大量获取等问题,该研究提出基于移位窗口Transformer网络(Shifted Window Transformer,Swin Transformer)的高效识别方法,在实现作物语义分割的基础上快速分割杂草。首先建立玉米语义分割模型,引入Swin Transformer主干并采用统一感知解析网络作为其高效语义分割框架;改进Swin Transformer主干调整网络参数,生成4种改进模型,通过精度与速度的综合对比分析确定最佳模型结构;基于玉米形态分割,建立改进的图像形态学处理组合算法,实时识别并分割全部杂草区域。测试结果表明,该研究4种改进模型中,Swin-Tiny-UN达到最佳精度-速度平衡,平均交并比为94.83%、平均像素准确率为97.18%,推理速度为18.94帧/s。对于模拟实际应用的视频数据,平均正确检测率为95.04%,平均每帧检测时间为5.51′10-2 s。该方法有效实现了玉米与杂草的实时准确识别与精细分割,可为智能除草装备的研发提供理论参考。  相似文献   

8.
基于改进Faster R-CNN识别深度视频图像哺乳母猪姿态   总被引:13,自引:11,他引:2  
猪舍场景下,昼夜交替光线变化、热灯光照影响,及仔猪与母猪的粘连等因素,给全天候哺乳母猪姿态自动识别带来很大困难。该文以深度视频图像为数据源,提出基于改进Faster R-CNN的哺乳母猪姿态识别算法。将残差结构引入ZF网络,设计ZF-D2R网络,以提高识别精度并保持实时性;将Center Loss监督信号引入Faster R-CNN训练中,以增强类内特征的内聚性,提升识别精度。对28栏猪的视频图像抽取站立、坐立、俯卧、腹卧和侧卧5类姿态共计7 541张图像作为训练集,另取5类姿态的5 000张图像作为测试集。该文提出的改进模型在测试集上对哺乳母猪的站立、坐立、俯卧、腹卧和侧卧5类姿态的识别平均准确率分别达到96.73%、94.62%、86.28%、89.57%和99.04%,5类姿态的平均准确率均值达到93.25%。在识别精度上,比ZF网络和层数更深的VGG16网络的平均准确率均值分别提高了3.86和1.24个百分点。识别速度为0.058 s/帧,比VGG16网络速度提高了0.034 s。该文方法在提高识别精度的同时保证了实时性,可为全天候母猪行为识别提供技术参考。  相似文献   

9.
为快速获取单分蘖水稻植株的形态结构和表型参数,该研究提出了一种基于目标检测和关键点检测模型相结合的骨架提取和表型参数获取方法。该方法基于目标检测模型生成穗、茎秆、叶片的边界框和类别,将所得数据分别输入到关键点检测模型检测各部位关键点,按照语义信息依次连接关键点形成植株骨架,依据关键点坐标计算穗长度、茎秆长度、叶片长度、叶片-茎秆夹角4种表型参数。首先,构建单分蘖水稻的关键点检测和目标检测数据集;其次,训练Faster R-CNN、YOLOv3、YOLOv5s、YOLOv5m目标检测模型,经过对比,YOLOv5m的检测效果最好,平均精度均值(mean average precision,mAP)达到91.17%;然后,应用人体姿态估计的级联金字塔网络(cascaded pyramid network,CPN)提取植株骨架,并引入注意力机制CBAM(convolutional block attention module)进行改进,与沙漏网络(hourglass networks,HN)、堆叠沙漏网络模型(stacked hourglass networks,SHN)和CPN模型相比,CBAM-CPN模型的预测准确率分别提高了9.68、8.83和0.5个百分点,达到94.75%,4种表型参数的均方根误差分别为1.06、0.81、1.25 cm和2.94°。最后,结合YOLOv5m和CBAM-CPN进行预测,4种表型参数的均方根误差分别为1.48 、1.05 、1.74 cm和2.39°,与SHN模型相比,误差分别减小1.65、3.43、2.65 cm和4.75°,生成的骨架基本能够拟合单分蘖水稻植株的形态结构。所提方法可以提高单分蘖水稻植株的关键点检测准确率,更准确地获取植株骨架和表型参数,有助于加快水稻的育种和改良。  相似文献   

10.
基于改进YOLOv7的复杂环境下红花采摘识别   总被引:3,自引:2,他引:1  
针对光照、遮挡、密集以及样本数量不均衡等复杂环境造成红花机械化采摘识别不准问题,该研究提出一种基于YOLOv7的改进模型,制作红花样本数据集建立真实采摘的复杂环境数据,增加Swin Transformer注意力机制提高模型对各分类样本的检测精准率,改进Focal Loss损失函数提升多分类任务下不均衡样本的识别率。经试验,改进后的模型各类别样本的检测平均准确率达到88.5%,与改进前相比提高了7个百分点,不均衡类别样本平均精度提高了15.9个百分点,与其他模型相比,检测平均准确率与检测速度均大幅提升。改进后的模型可以准确地实现对红花的检测,模型参数量小,识别速度快,适合在红花采摘机械上进行迁移部署,可为红花机械化实时采摘研究提供技术支持。  相似文献   

11.
为解决复杂跨域场景下猪个体的目标检测与计数准确率低下的问题,该研究提出了面向复杂跨域场景的基于改进YOLOv5(You Only Look Once version 5)的猪个体检测与计数模型。该研究在骨干网络中分别集成了CBAM(Convolutional Block Attention Module)即融合通道和空间注意力的模块和Transformer自注意力模块,并将CIoU(Complete Intersection over Union)Loss替换为EIoU(Efficient Intersection over Union)Loss,以及引入了SAM (Sharpness-Aware Minimization)优化器并引入了多尺度训练、伪标签半监督学习和测试集增强的训练策略。试验结果表明,这些改进使模型能够更好地关注图像中的重要区域,突破传统卷积只能提取卷积核内相邻信息的能力,增强了模型的特征提取能力,并提升了模型的定位准确性以及模型对不同目标大小和不同猪舍环境的适应性,因此提升了模型在跨域场景下的表现。经过改进后的模型的mAP@0.5值从87.67%提升到98.76%,mAP@0.5:0.95值从58.35%提升到68.70%,均方误差从13.26降低到1.44。以上研究结果说明该文的改进方法可以大幅度改善现有模型在复杂跨域场景下的目标检测效果,提高了目标检测和计数的准确率,从而为大规模生猪养殖业生产效率的提高和生产成本的降低提供技术支持。  相似文献   

12.
飞地经济打破区域界限实现资源互补,飞地产业的发展更是连接了空间的分离。青藏高原因长期粗放的游牧方式和自然灾害等因素,不断造成高寒草地退化,严重限制草地畜牧业的可持续发展。长期以来,青藏高原在畜牧业提质增效和转型升级的关键时期,面临生态环境压力大、草畜资源时空配置失衡等问题的掣肘,直接影响畜产品的均衡供应,阻碍了高附加值畜产品市场竞争力,致使农牧民持续增收乏力。该文着眼"飞地经济"发展举措,在综述青藏高原畜牧业发展局限性的基础上,以生产效率和经济效益提升为目标,探讨青藏高原畜牧业发展路径,提出"飞地畜牧业"发展模式。针对该模式,开展了以牦牛和藏羊为研究对象的远地饲养研究,短期适应性研究证明牦牛和藏羊能够适应江淮分水岭地区冷季气候特点,实现冷季体重正增长,且藏羊表现出较好的繁殖适应性,在引入后第一年开始产羔;同时,牦牛经过两年的适应,首次实现了在江淮分水岭地区的繁殖。因此,"飞地畜牧业"产业发展模式具有成为青藏高原畜牧业发展新路径的巨大潜力,将为保障国家生态体系建设、加快高原畜牧业转型升级、满足市场供需关系等提供科技支撑。  相似文献   

13.
为解决农田复杂作业环境下拖拉机驾驶员因光照、背景及遮挡造成的关键点漏检、误检等难识别问题,该研究提出了一种基于改进YOLO-Pose的复杂环境下驾驶员关键点检测方法。首先,在主干网络的顶层C3模块中嵌入Swin Transformer编码器,提高遮挡状况下关键点的检测效率。其次,采用高效层聚合网络RepGFPN作为颈部网络,通过融合高层语义信息和低层空间信息,增强多尺度检测能力,同时在颈部网络采用金字塔卷积替换标准3×3卷积,在减少模型参数量的同时有效地捕获不同层级的特征信息。最后,嵌入坐标注意力机制优化关键点解耦头,增强预测过程对关键点空间位置的敏感程度。试验结果表明,改进后算法mAP0.5(目标关键点相似度Loks阈值取0.5时平均精度均值)为89.59%,mAP0.5:0.95(目标关键点相似度Loks阈值取0.5,0.55,···,0.95时的平均精度均值)为62.58%,相比于基线模型分别提高了4.24和4.15个百分点,单张图像平均检测时间为21.9 ms,与当前主流关键点检测网络Hou...  相似文献   

14.
畜牧业自动化管理面临的一个关键挑战是如何准确地检测大规模放牧养殖牲畜的种群,确定其数量和实时更新群体信息。牲畜规模化、自动化检测受环境场地等因素影响,当前目标检测算法经常出现漏检、误检等情况。该研究基于YOLOV5s目标检测网络设计了一种牲畜检测算法LDHorNet(livestock detect hor net),参考HorNet的递归门控卷积设计了HorNB模块对网络模型进行改进,以提高检测算法的空间交互能力和检测精度。然后在网络结构中嵌入CBAM(convolutional block attention module)注意力机制,以提高小目标的检测精度和注意力权重,并利用Repulsion 损失函数提高目标检测网络的召回率和预测精度。试验结果表明,所提出的LDHorNet算法的精准率、召回率分别为95.24%、88.87%,平均精准率均值mAP_0.5、mAP_0.5:0.95分别为94.11%、77.01%,比YOLOv5s、YOLOv8s、YOLOv7-Tiny精准率分别提高了2.83、2.93和9.79个百分点,召回率分别提高了6.66和4.95、13.42个百分点,平均精准率均值mAP_0.5:0.95分别提高12.46、5.26和20.97个百分点。该算法对于小目标和遮挡场景下的牲畜检测效果优于原算法与对比算法,表现出良好的鲁棒性,具有广泛的应用前景。  相似文献   

15.
陕北丘陵沟壑区畜牧业发展战略研究   总被引:5,自引:0,他引:5  
权松安  王继军 《水土保持研究》2000,7(2):157-160,171
通过对陕北丘陵沟壑区畜牧业现状、面临的挑战分析,提出了该区畜牧业应以生态环境建设为前提,立草为业;改革放牧为舍饲,大力发展草食肉畜;建立高效生态畜牧产业示范区,推广“公司+农户”以沼气为纽带的“五位一体”生态型塑膜温室畜牧产业化发展模式,经5~10年使草食型:精料型畜种结构调整为6:4等战略思路。  相似文献   

16.
疏果期苹果目标检测是实现疏果机械化、自动化需要解决的关键问题。为实现疏果期苹果目标准确检测,该研究以YOLOv7为基础网络,融合窗口多头自注意力机制(Swin Transformer Block),设计了一种适用于近景色小目标检测的深度学习网络。首先在YOLOv7模型的小目标检测层中添加Swin Transformer Block,保留更多小尺度目标特征信息,将预测框与真实框方向之间的差异考虑到模型训练中,提高模型检测精度,将YOLOv7中的损失函数CIoU替换为SIoU。最后利用Grad-CAM方法产生目标检测热力图,进行有效特征可视化,理解模型关注区域。经测试,该文模型的检测均值平均精度为95.2%,检测准确率为92.7%,召回率为91.0%,模型所占内存为81 MB,与原始模型相比,均值平均精度、准确率、召回率分别提高了2.3、0.9、1.3个百分点。该文模型对疏果期苹果具有更好的检测效果和鲁棒性,可为苹果幼果生长监测、机械疏果等研究提供技术支持。  相似文献   

17.
基于Transformer的强泛化苹果叶片病害识别模型   总被引:2,自引:2,他引:0  
模型泛化能力是病害识别模型多场景应用的关键,该研究针对不同环境下的苹果叶片病害数据,提出一种可以提取多类型特征的强泛化苹果叶片病害识别模型CaTNet。该模型采用双分支结构,首先设计了一种卷积神经网络分支,负责提取苹果叶片图像的局部特征,其次构建了具有挤压和扩充功能的视觉Transformer分支,该分支能够提取苹果叶片图像的全局特征,最后将两种特征进行融合,使Transformer分支可以学习局部特征,使卷积神经网络分支学习全局特征。与多种卷积神经网络模型和Transformer模型相比,该模型具有更好的泛化能力,仅需学习实验室环境叶片数据,即可在自然环境数据下达到80%的识别精度,相较卷积神经网络EfficientNetV2提升7.21个百分点,相较Transformer网络PVT提升26.63个百分点,能够有效提升对不同环境数据的识别精度,解决了深度学习模型训练成本高,泛化能力弱的问题。  相似文献   

18.
图像语义分割作为计算机视觉领域的重要技术,已经被广泛用于设施环境下的植物表型检测、机器人采摘、设施场景解析等领域。由于温室环境下未成熟番茄果实与其茎叶之间具有相似颜色,会导致图像分割精度不高等问题。本研究提出一种基于混合Transformer编码器的“RGB+深度”(RGBD)双模态语义分割模型DFST(depth-fusion semantic transformer),试验在真实温室光照情况下获得深度图像,对深度图像做HHA编码并结合彩色图像输入模型进行训练,经过HHA编码的深度图像可以作为一种辅助模态与RGB图像进行融合并进行特征提取,利用轻量化的多层感知机解码器对特征图进行解码,最终实现图像分割。试验结果表明,DFST模型在测试集的平均交并比可达96.99%,对比不引入深度图像的模型,其平均交并比提高了1.37个百分点;对比使用卷积神经网络作为特征提取主干网络的RGBD语义分割模型,其平均交并比提高了2.43个百分点。结果证明,深度信息有助于提高彩色图像的语义分割精度,可以明显提高复杂场景语义分割的准确性和鲁棒性,同时也证明了Transformer结构作为特征提取网络在图像语义分割中也表现出了良好的性能,可为温室环境下的番茄图像语义分割任务提供解决方案和技术支持。  相似文献   

19.
基于声信号特征加权的设施养殖羊行为分类识别   总被引:3,自引:2,他引:1  
中国西部地区正在发展集约化和规模化的设施养羊业,通过监测羊舍内的声信号可以判别羊只的行为状态,从而为设施养羊的福利化水平评估提取基础依据。梅尔频率倒谱系数(mel frequency cepstrum coefficient,MFCC)模拟了人耳对语音的处理特点且抗噪音性强,被广泛用于畜禽发声信号的特征提取,但其没有考虑各个特征分量表征声信号的能力。该研究构建羊舍无线声音数据采集系统,采集20只羊在设施羊舍内的打斗、饥饿、咳嗽、啃咬和寻伴共5种行为下的声信号,并通过Audacity音频处理软件选出720个清晰且不重叠的声音样本数据。根据MFCC各分量对羊舍声信号表征能力,特征参数提取采用一种熵值加权的MFCC参数,再求其一、二阶差分并进行主成分分析降维,得到优化的19维特征参数。通过对羊舍声信号的声谱图分析,设计了支持向量机二叉树识别模型,并对模型内的4个分类器参数进行网格化寻优测试,该识别模型对羊只5种行为下的声信号进行分类识别,用改进的特征参数与传统MFCC和线性预测倒谱系数(linear predictive cepstrum coefficient,LPCC)进行对比分析。结果表明,该特征参数对5种行为的识别率平均可达83.6%,分别高于MFCC和LPCC参数14.1%和26.8%,羊只打斗和咳嗽行为的声信号属于相似的短时爆发类声音,其识别率分别仅为80.6%和79.5%,啃咬声特征显著不易混淆,其查全率可达到为92.5%,改进特征参数更好的表征了羊舍声信号的特征,提高了羊只不同行为的识别率,为羊只健康和福利状况的监测提供理论依据。  相似文献   

20.
针对图像描述算法缺乏在农业领域中的应用,传统模型参数庞大的问题,该研究提出一种基于ResNet18特征编码器的图像描述算法,对作物患病类型进行识别并生成描述。首先,建立水稻病虫害图像描述数据集。其次,使用浅层ResNet18作为编码器,在保证特征提取能力的同时缩减网络模型大小,解码器使用融合了注意力机制的长短期记忆网络(Long Short Term Memory,LSTM)来生成图像描述。试验结果表明,改进后模型尺寸大小为原来的1/3,经过6 000次迭代后模型基本收敛,准确率达到98.48%。在水稻病虫害图像描述数据集上,改进编码器-解码器结构后的双语评估替换值(Bilingual Evaluation Understudy,BLEU)和METEOR(Metric for Evaluation of Translation with Explicit ORdering)分别达到0.752和0.404,其余指标结果也明显优于其他模型,具有描述细致准确、鲁棒性强等优点,能够更好地适用于小规模数据集上的训练,可为农作物相似病害特征的自动化描述提供有益参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号