首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   11篇
  免费   1篇
  国内免费   6篇
基础科学   10篇
  5篇
综合类   3篇
  2023年   4篇
  2022年   2篇
  2021年   3篇
  2018年   1篇
  2013年   1篇
  2011年   2篇
  2010年   1篇
  2006年   1篇
  2005年   1篇
  2004年   2篇
排序方式: 共有18条查询结果,搜索用时 15 毫秒
1.
基于Harris算子的籽粒尖端识别方法   总被引:3,自引:0,他引:3  
通过籽粒尖端形态特征分析,提出了一种基于Harris角点检测的籽粒尖端识别方法。Harris算子在一个局部区域中检测角特征,作为籽粒最明显的角结构,尖端在Harris角点检测中具有最大的响应值,使其对尖端不明显的籽粒也有良好的响应。通过对玉米、南瓜和西葫芦等具有尖端特征的750粒籽粒的测试结果表明,提出算法的尖端检测综合准确率为95.6%。  相似文献   
2.
基于融合坐标信息的改进YOLO V4模型识别奶牛面部   总被引:3,自引:2,他引:1  
为实现奶牛个体的准确识别,基于YOLO V4目标检测网络,提出了一种融合坐标信息的奶牛面部识别模型。首先,采集71头奶牛面部图像数据集,并通过数据增强扩充提高模型的泛化性能。其次,在YOLO V4网络的特征提取层和检测头部分分别引入坐标注意力机制和包含坐标通道的坐标卷积模块,以增强模型对目标位置的敏感性,提高识别精度。试验结果表明,改进的YOLO V4模型能够有效提取奶牛个体面部特征,平均精度均值(mAP)为93.68%,平均帧率为18帧/s,虽然检测速度低于无锚框的CenterNet,但mAP提高了10.92%;与Faster R-CNN和SSD模型相比,在检测速度提高的同时,精度分别提高了1.51%和16.32%;与原始YOLO V4相比,mAP提高0.89%,同时检测速度基本不变。该研究为奶牛精准养殖中的牛脸图像识别提供了一种有效的技术支持。  相似文献   
3.
为准确实时跟踪羊只目标,进行疾病异常预警,实现奶山羊精细化养殖,本文基于DiMP跟踪模型,利用奶山羊跟踪对象单一且图像样本丰富的特点,结合迁移学习和类特定融合方法,设计了一种类特定的奶山羊目标跟踪模型,能够有效克服DiMP算法在跟踪类特定目标时定位精度不足的缺点。利用构建的奶山羊视频跟踪数据训练集对跟踪算法进行迁移训练,加快模型收敛速度,使评估网络预测出的边界框更贴合奶山羊真实框的位置和尺寸。在线跟踪阶段,针对目标模板仅采用第1帧特征制作整个序列的调制向量,导致该调制向量相对整个跟踪阶段特征不具代表性,与后续帧差异大的缺点,使用训练集制作包含奶山羊各种姿态的类调制向量,以指数消融方式更新奶山羊类调制向量与第1帧调制向量间的比重,增强边界框回归任务中的奶山羊特征与背景的判别性。提出的算法在测试集上的AUC(Area under curve)和精准度(Precision)分别为76.20%和60.19%,比DiMP方法分别提升6.17、14.18个百分点,跟踪速度为30 f/s,满足实时跟踪的要求。实验结果表明,提出的类特定奶山羊目标跟踪方法可用于监测复杂场景下奶山羊的运动,为奶山羊精细化...  相似文献   
4.
连接大米籽粒图像的自动分割算法研究   总被引:2,自引:0,他引:2  
分析了单个大米籽粒和连接大米籽粒的轮廓特征,提出了一种基于曲率的分割算法。该算法能够有效地反映边界点尖锐程度的曲率及其方向,根据曲率大小和曲率方向能准确判别图像中大米籽粒是否接触并快速找到分割点。用最短距离配对法对3种接触的大米籽粒进行分割。算法对判别籽粒是否接触的准确率达99%以上,对接触籽粒的准确分割率达95%以上。  相似文献   
5.
分析了GSM/SMS传递信息的优点,研究了应用GSMModemME1203A模块进行了移动模块软件和硬件的设计与实现。针对当前监测系统故障时,检测信息不可返回、难于分离故障点的问题,提供了构建备份网络提高监测系统可靠性的解决方案。  相似文献   
6.
倒伏是影响小麦产量和质量的重要因素之一,及时准确获取倒伏信息有利于小麦良种选育中的倒伏损失鉴定。本文以小麦灌浆期和成熟期两个生长阶段的可见光无人机遥感影像为依据,构建多生长阶段小麦倒伏数据集,通过在DeepLab v3+模型中添加不同的注意力模块进行比较分析,提出一种基于多头自注意力(MHSA)的DeepLab v3+小麦倒伏检测模型。试验结果表明,提出的MHSA+DeepLab v3+模型的平均像素精度(Mean pixel accuracy, mPA)和均交并比(Mean intersection over union, mIoU),灌浆期分别为93.09%和87.54%,成熟期分别为93.36%和87.49%。与代表性的SegNet、PSPNet和DeepLab v3+模型相比,在灌浆期mPA提高了25.45、7.54、1.82个百分点和mIoU提高了36.15、11.37、2.49个百分点,在成熟期mPA提高了15.05、6.32、0.74个百分点,mIoU提高了23.36、9.82、0.95个百分点。其次,相比于CBAM和SimAM两种注意力模块,在灌浆期及成熟期基于多头自注意力的DeepLab v3+表现均为最优,在灌浆期其mPA和mIoU分别提高了1.6、2.07个百分点和1.7、2.45个百分点,成熟期提高了0.27、0.11个百分点和0.26、0.15个百分点。研究表明提出的改进的DeepLab v3+模型能够有效地捕获灌浆期和成熟期的无人机小麦遥感图像中的倒伏特征,准确识别不同生育期的倒伏区域,具有良好的适用性,为利用无人机遥感技术鉴定小麦倒伏灾害等级和良种选育等提供了参考。  相似文献   
7.
单位面积麦穗数是估算小麦产量的重要指标,对于作物表型参数计算、产量预测和大田管理都具有重要的意义。目前的研究均未以单位面积麦穗图像为研究对象,为准确获取单位面积麦穗数,该研究提出了基于改进YOLOX的单位面积麦穗检测方法,利用采样框直接实现单位面积麦穗计数。首先,设计了一种简单的单位面积采样框,通过训练角点检测网络识别采样框,以提取单位面积小麦区域;其次,针对麦穗检测中存在的目标密集和相互遮挡问题,在麦穗检测网络的特征融合层,采用上下文信息进行特征重组的上采样方法(Content-Aware ReAssembly of Features,CARAFE)代替YOLOX-m模型中的上采样算法,同时结合迭代注意力特征融合模块(iterative Attentional Feature Fusion,iAFF),增加对麦穗空间信息和语义信息的提取。试验结果表明,改进的YOLOX-m模型明显改善了对密集麦穗和遮挡麦穗的检测效果,其精确率、召回率、平均精确度和F1值分别为96.83%、91.29%、92.29%和93.97%,与SSD、CenterNet和原YOLOX-m模型相比,平均精确度分别提升了10.26、8.2和1.14个百分点。该研究方法能够直接对复杂大田场景下的单位面积麦穗进行准确检测和计数,为实际生产小麦产量预测中的麦穗智能化计数提供了一种方法参考。  相似文献   
8.
为准确高效地实现无接触式奶山羊个体识别,以圈养环境下奶山羊面部图像为研究对象,提出一种基于改进YOLO v5s的奶山羊个体识别方法。首先,从网络上随机采集350幅羊脸图像构成羊脸面部检测数据集,使用迁移学习思想预训练YOLO v5s模型,使其能够检测羊脸位置。其次,构建包含31头奶山羊3 844幅不同生长期的面部图像数据集,基于预训练的YOLO v5s,在特征提取层中引入SimAM注意力模块,增强模型的学习能力,并在特征融合层引入CARAFE上采样模块以更好地恢复面部细节,提升模型对奶山羊个体面部的识别精度。实验结果表明,改进YOLO v5s模型平均精度均值为97.41%,比Faster R-CNN、SSD、YOLO v4模型分别提高6.33、8.22、15.95个百分点,比YOLO v5s模型高2.21个百分点,改进模型检测速度为56.00 f/s,模型内存占用量为14.45 MB。本文方法能够准确识别具有相似面部特征的奶山羊个体,为智慧养殖中的家畜个体识别提供了一种方法支持。  相似文献   
9.
基于改进CenterNet的玉米雄蕊无人机遥感图像识别   总被引:2,自引:0,他引:2  
为准确识别抽雄期玉米雄蕊实现监测玉米长势、植株计数和估产,基于无锚框的CenterNet目标检测模型,通过分析玉米雄蕊的尺寸分布,并在特征提取网络中添加位置坐标,从而提出一种改进的玉米雄蕊识别模型。针对雄蕊尺寸较小的特点,去除CenterNet网络中对图像尺度缩小的特征提取模块,在降低模型参数的同时,提高检测速度。在CenterNet特征提取模型中添加位置信息,提高定位精度,降低雄蕊漏检率。试验结果表明,与有锚框的YOLO v4、Faster R-CNN模型相比,改进的CenterNet雄蕊检测模型对无人机遥感影像的玉米雄蕊识别精度达到92.4%,分别高于Faster R-CNN和YOLO v4模型26.22、3.42个百分点;检测速度为36f/s,分别比Faster R-CNN和YOLO v4模型高32、23f/s。本文方法能够准确地检测无人机遥感图像中尺寸较小的玉米雄蕊,为玉米抽雄期的农情监测提供参考。  相似文献   
10.
基于深度语义分割的无人机多光谱遥感作物分类方法   总被引:5,自引:0,他引:5  
为精准获取农田作物种植分布信息以满足农业精细化管理需求,基于Deep Lab V3+深度语义分割网络提出了一种面向无人机多光谱遥感影像的农田作物分类方法。通过修改输入层结构、融合多光谱信息和植被指数先验信息、并采用Swish激活函数优化模型,使网络在响应值为负时仍能反向传播。基于2018—2019年连续2年内蒙古自治区河套灌区沙壕渠灌域的无人机多光谱遥感影像,在2018年数据集上构建并训练模型,在2019年数据集上测试模型的泛化性能。结果表明,改进的Deep Lab V3+模型平均像素精度和平均交并比分别为93.06%和87.12%,比基于人工特征的支持向量机(Support vector machine,SVM)方法分别提高了17.75、20.8个百分点,比Deep Lab V3+模型分别提高了2.56、2.85个百分点,获得了最佳的分类性能,且具有较快的预测速度。采用本文方法能够从农田作物遥感影像中学习到表达力更强的语义特征,从而获得准确的作物分类结果,为利用无人机遥感影像解译农田类型提供了一种新的方法。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号