排序方式: 共有18条查询结果,搜索用时 15 毫秒
1.
2.
基于融合坐标信息的改进YOLO V4模型识别奶牛面部 总被引:3,自引:2,他引:1
为实现奶牛个体的准确识别,基于YOLO V4目标检测网络,提出了一种融合坐标信息的奶牛面部识别模型。首先,采集71头奶牛面部图像数据集,并通过数据增强扩充提高模型的泛化性能。其次,在YOLO V4网络的特征提取层和检测头部分分别引入坐标注意力机制和包含坐标通道的坐标卷积模块,以增强模型对目标位置的敏感性,提高识别精度。试验结果表明,改进的YOLO V4模型能够有效提取奶牛个体面部特征,平均精度均值为93.68%,平均帧率为18帧/s,虽然检测速度低于无锚框的CenterNet,但平均精度均值提高了10.92%;与Faster R-CNN和SSD模型相比,在检测速度提高的同时,精度分别提高了1.51和16.32个百分点;与原始YOLO V4相比,mAP提高0.89%,同时检测速度基本不变。该研究为奶牛精准养殖中的牛脸图像识别提供了一种有效的技术支持。 相似文献
3.
遥感技术能够获取大区域下冬小麦的空间分布,为冬小麦估产提供良好基础。基于2020年5月4日的高分2号多光谱卫星影像,构建包含光谱特征和植被指数的数据集,并通过改进UPerNet模型的上采样结构、激活函数以及增加注意力模块来优化模型提取冬小麦效果。选取杨凌示范区2块地物类型丰富地区作为研究区域,以此探究方法的可行性;然后基于最优方法,提取杨凌区冬小麦种植区域。研究区域结果表明,与仅使用光谱信息作为模型输入特征相比,基于多光谱和植被指数的分类效果更好。在融合光谱特征和植被指数的数据集上,改进的UPerNet模型分类精度最高,冬小麦提取精度为97.78%,总体分类精度相比于改进前的UPerNet提升了2.49%,对比DeepLab V3+提升了3.48%。基于改进方法,实现了杨凌示范区的冬小麦种植区提取;通过实地调查以及对比统计年鉴数据的方式,验证了杨凌示范区冬小麦空间分布与实际情况基本一致。改进后的UPerNet模型能够有效区分遥感数据中的地物类别,提升冬小麦种植区域提取精度,也为基于卫星影像获取冬小麦空间分布提供了技术支持。 相似文献
4.
为准确实时跟踪羊只目标,进行疾病异常预警,实现奶山羊精细化养殖,本文基于DiMP跟踪模型,利用奶山羊跟踪对象单一且图像样本丰富的特点,结合迁移学习和类特定融合方法,设计了一种类特定的奶山羊目标跟踪模型,能够有效克服DiMP算法在跟踪类特定目标时定位精度不足的缺点。利用构建的奶山羊视频跟踪数据训练集对跟踪算法进行迁移训练,加快模型收敛速度,使评估网络预测出的边界框更贴合奶山羊真实框的位置和尺寸。在线跟踪阶段,针对目标模板仅采用第1帧特征制作整个序列的调制向量,导致该调制向量相对整个跟踪阶段特征不具代表性,与后续帧差异大的缺点,使用训练集制作包含奶山羊各种姿态的类调制向量,以指数消融方式更新奶山羊类调制向量与第1帧调制向量间的比重,增强边界框回归任务中的奶山羊特征与背景的判别性。提出的算法在测试集上的AUC(Area under curve)和精准度(Precision)分别为76.20%和60.19%,比DiMP方法分别提升6.17、14.18个百分点,跟踪速度为30 f/s,满足实时跟踪的要求。实验结果表明,提出的类特定奶山羊目标跟踪方法可用于监测复杂场景下奶山羊的运动,为奶山羊精细化... 相似文献
5.
倒伏是影响小麦产量和质量的重要因素之一,及时准确获取倒伏信息有利于小麦良种选育中的倒伏损失鉴定。本文以小麦灌浆期和成熟期两个生长阶段的可见光无人机遥感影像为依据,构建多生长阶段小麦倒伏数据集,通过在DeepLab v3+模型中添加不同的注意力模块进行比较分析,提出一种基于多头自注意力(MHSA)的DeepLab v3+小麦倒伏检测模型。试验结果表明,提出的MHSA+DeepLab v3+模型的平均像素精度(Mean pixel accuracy, mPA)和均交并比(Mean intersection over union, mIoU),灌浆期分别为93.09%和87.54%,成熟期分别为93.36%和87.49%。与代表性的SegNet、PSPNet和DeepLab v3+模型相比,在灌浆期mPA提高了25.45、7.54、1.82个百分点和mIoU提高了36.15、11.37、2.49个百分点,在成熟期mPA提高了15.05、6.32、0.74个百分点,mIoU提高了23.36、9.82、0.95个百分点。其次,相比于CBAM和SimAM两种注意力模块,在灌浆期及成熟期基于多头自注意力的DeepLab v3+表现均为最优,在灌浆期其mPA和mIoU分别提高了1.6、2.07个百分点和1.7、2.45个百分点,成熟期提高了0.27、0.11个百分点和0.26、0.15个百分点。研究表明提出的改进的DeepLab v3+模型能够有效地捕获灌浆期和成熟期的无人机小麦遥感图像中的倒伏特征,准确识别不同生育期的倒伏区域,具有良好的适用性,为利用无人机遥感技术鉴定小麦倒伏灾害等级和良种选育等提供了参考。 相似文献
6.
为准确高效地实现无接触式奶山羊个体识别,以圈养环境下奶山羊面部图像为研究对象,提出一种基于改进YOLO v5s的奶山羊个体识别方法。首先,从网络上随机采集350幅羊脸图像构成羊脸面部检测数据集,使用迁移学习思想预训练YOLO v5s模型,使其能够检测羊脸位置。其次,构建包含31头奶山羊3 844幅不同生长期的面部图像数据集,基于预训练的YOLO v5s,在特征提取层中引入SimAM注意力模块,增强模型的学习能力,并在特征融合层引入CARAFE上采样模块以更好地恢复面部细节,提升模型对奶山羊个体面部的识别精度。实验结果表明,改进YOLO v5s模型平均精度均值为97.41%,比Faster R-CNN、SSD、YOLO v4模型分别提高6.33、8.22、15.95个百分点,比YOLO v5s模型高2.21个百分点,改进模型检测速度为56.00 f/s,模型内存占用量为14.45 MB。本文方法能够准确识别具有相似面部特征的奶山羊个体,为智慧养殖中的家畜个体识别提供了一种方法支持。 相似文献
7.
单位面积麦穗数是估算小麦产量的重要指标,对于作物表型参数计算、产量预测和大田管理都具有重要的意义。目前的研究均未以单位面积麦穗图像为研究对象,为准确获取单位面积麦穗数,该研究提出了基于改进YOLOX的单位面积麦穗检测方法,利用采样框直接实现单位面积麦穗计数。首先,设计了一种简单的单位面积采样框,通过训练角点检测网络识别采样框,以提取单位面积小麦区域;其次,针对麦穗检测中存在的目标密集和相互遮挡问题,在麦穗检测网络的特征融合层,采用上下文信息进行特征重组的上采样方法(Content-Aware ReAssembly of Features,CARAFE)代替YOLOX-m模型中的上采样算法,同时结合迭代注意力特征融合模块(iterative Attentional Feature Fusion,iAFF),增加对麦穗空间信息和语义信息的提取。试验结果表明,改进的YOLOX-m模型明显改善了对密集麦穗和遮挡麦穗的检测效果,其精确率、召回率、平均精确度和F1值分别为96.83%、91.29%、92.29%和93.97%,与SSD、CenterNet和原YOLOX-m模型相比,平均精确度分别提升了10.26、8.2和1.14个百分点。该研究方法能够直接对复杂大田场景下的单位面积麦穗进行准确检测和计数,为实际生产小麦产量预测中的麦穗智能化计数提供了一种方法参考。 相似文献
8.
连接大米籽粒图像的自动分割算法研究 总被引:2,自引:0,他引:2
分析了单个大米籽粒和连接大米籽粒的轮廓特征,提出了一种基于曲率的分割算法。该算法能够有效地反映边界点尖锐程度的曲率及其方向,根据曲率大小和曲率方向能准确判别图像中大米籽粒是否接触并快速找到分割点。用最短距离配对法对3种接触的大米籽粒进行分割。算法对判别籽粒是否接触的准确率达99%以上,对接触籽粒的准确分割率达95%以上。 相似文献
9.
10.
基于改进CenterNet的玉米雄蕊无人机遥感图像识别 总被引:2,自引:0,他引:2
为准确识别抽雄期玉米雄蕊实现监测玉米长势、植株计数和估产,基于无锚框的CenterNet目标检测模型,通过分析玉米雄蕊的尺寸分布,并在特征提取网络中添加位置坐标,从而提出一种改进的玉米雄蕊识别模型。针对雄蕊尺寸较小的特点,去除CenterNet网络中对图像尺度缩小的特征提取模块,在降低模型参数的同时,提高检测速度。在CenterNet特征提取模型中添加位置信息,提高定位精度,降低雄蕊漏检率。试验结果表明,与有锚框的YOLO v4、Faster R-CNN模型相比,改进的CenterNet雄蕊检测模型对无人机遥感影像的玉米雄蕊识别精度达到92.4%,分别高于Faster R-CNN和YOLO v4模型26.22、3.42个百分点;检测速度为36f/s,分别比Faster R-CNN和YOLO v4模型高32、23f/s。本文方法能够准确地检测无人机遥感图像中尺寸较小的玉米雄蕊,为玉米抽雄期的农情监测提供参考。 相似文献