全文获取类型
收费全文 | 186篇 |
免费 | 33篇 |
国内免费 | 73篇 |
专业分类
林业 | 9篇 |
农学 | 3篇 |
基础科学 | 103篇 |
90篇 | |
综合类 | 67篇 |
农作物 | 5篇 |
水产渔业 | 1篇 |
畜牧兽医 | 10篇 |
园艺 | 1篇 |
植物保护 | 3篇 |
出版年
2024年 | 30篇 |
2023年 | 81篇 |
2022年 | 57篇 |
2021年 | 35篇 |
2020年 | 7篇 |
2019年 | 6篇 |
2018年 | 1篇 |
2017年 | 1篇 |
2016年 | 8篇 |
2015年 | 3篇 |
2014年 | 11篇 |
2013年 | 6篇 |
2012年 | 16篇 |
2011年 | 8篇 |
2010年 | 6篇 |
2009年 | 5篇 |
2007年 | 2篇 |
2006年 | 4篇 |
2004年 | 1篇 |
2003年 | 1篇 |
2001年 | 1篇 |
2000年 | 1篇 |
1994年 | 1篇 |
排序方式: 共有292条查询结果,搜索用时 31 毫秒
201.
鉴于对大豆叶片虫洞进行识别有助于及时发现虫情并有针对性的防治虫害,提出了一种大豆叶片虫洞的识别方法:以YOLO v5s网络作为基础,在大豆叶片虫洞特征提取过程中引入空洞卷积代替3次池化处理,提取虫洞边缘不规则信息;将特征信息输入空间注意力机制,提取时空融合信息,进而捕获野外不同背景下的颜色信息;针对大豆叶片虫洞目标远近不一的问题,重构特征金字塔结构,增加了1层输出层,将80像素×80像素输出特征图经过上采样后得到160像素×160像素特征图,并将其与浅层同尺寸特征图进行拼接,提高虫洞目标识别定位的准确性;将融合后的总特征输入目标检测模块,输出单个对象的检测外框,得到大豆叶片虫洞识别模型。在大豆叶片虫洞样本数据集上对模型进行测试,结果对大豆叶片虫洞的平均识别准确率最高达95.24%,模型存储空间为15.1 MB,每秒传输91帧。所建立的方法与Faster R–CNN、YOLO v3、YOLO v5s对比,对大豆叶片虫洞识别的平均准确率分别提高2.50%、12.13%、2.81%。 相似文献
202.
为解决遥感图像河流精细化提取问题,提出一种改进LinkNet模型的分割网络(AFR-LinkNet)。AFR-LinkNet在LinkNet基础上引入了残差通道注意力结构、非对称卷积模块以及密集跳跃连接结构,并用视觉激活函数FReLU替换ReLU激活函数。残差通道注意力结构可以强化对分割任务有效的特征,以提高模型的分类能力,得到更多的细节信息。利用非对称卷积模块进行模型压缩和加速。使用FReLU激活函数提升网络提取遥感图像河流的精细空间布局。在寒旱区河流数据集上的实验结果表明,AFR-LinkNet网络相较于FCN、UNet、ResNet50、LinkNet、DeepLabv3+网络交并比分别提高了26.4、22.7、17.6、12.0、9.7个百分点,像素准确率分别提高了25.9、22.5、13.2、10.5、7.3个百分点;引入非对称卷积模块后,交并比提高了5.1个百分点,像素准确率提高了2.9个百分点,在此基础上引入残差通道注意力结构之后,交并比又提高了2.2个百分点,像素准确率提高了2.3个百分点,证明了其对河流细节识别效果更好。 相似文献
203.
针对羊只个体差异较小,相似度高难以辨别,远距离识别准确率不高等问题,本文基于MobileFaceNet网络提出了一种融合空间信息的高效通道注意力机制的羊脸识别模型,对羊只进行非接触式识别。该研究基于YOLO v4目标检测方法生成羊脸检测器,以构建羊脸识别数据库;在MobileFaceNet的深度卷积层和残差层中引入融合空间信息的高效通道注意力(ECCSA),以增加主干特征的提取范围,提高识别率,并采用余弦退火进行动态学习率调优,最终构建ECCSA-MFC模型,实现羊只个体识别。试验结果表明,在羊脸检测上,基于YOLO v4的羊脸检测模型准确率可达97.91%,可以作为脸部检测器;在羊脸识别上,ECCSA-MFC模型在开集验证中识别率可达88.06%,在闭集验证中识别率可达96.73%。该研究提出的ECCSA-MFC模型在拥有较高识别率的同时更加轻量化,模型所占内存仅为4.8 MB,可为羊场智慧化养殖提供解决方案。 相似文献
204.
基于多尺度融合模块和特征增强的杂草检测方法 总被引:1,自引:0,他引:1
针对单步多框检测器(Single shot multibox detector, SSD)网络模型参数多、小目标检测效果差、作物与杂草检测精度低等问题,提出一种基于多尺度融合模块和特征增强的杂草检测方法。首先将轻量网络MobileNet作为SSD模型的特征提取网络,并设计了一种多尺度融合模块,将浅层特征图先通过通道注意力机制增强图像中的关键信息,再将特征图经过不同膨胀系数的扩张卷积扩大感受野,最后将两条分支进行特征融合,对于检测小目标的浅层特征图,在包含较多小目标细节信息的同时,还包含丰富的语义信息。在此基础上对输出的6个特征图经过通道注意力机制进行特征增强。实验结果表明,本文提出的基于多尺度融合模块和特征增强的杂草检测模型,在自然环境下甜菜与杂草图像数据集中,平均检测精度可达88.84%,较标准SSD模型提高了3.23个百分点,参数量减少57.09%,检测速度提高88.44%,同时模型对小目标作物与杂草以及叶片交叠情况的检测能力均有提高。 相似文献
205.
为提高葡萄种植区遥感识别精度,基于高分二号卫星遥感影像,对U-Net网络进行改进:从空间和通道维度自适应校准特征映射,以增强有意义的特征,抑制不相关的特征,提升地物边缘分割精度;减少下采样次数,使用混合扩张卷积代替常规卷积操作,以增大卷积核感受野,降低图像分辨率的损失,提高对不同尺寸地物的识别能力。实验结果表明,本文模型在测试集上的像素准确率、平均交并比和频权交并比分别为96.56%、93.11%、93.35%,比FCN-8s网络分别提高了5.17、9.57、9.17个百分点,比U-Net网络提高了2.39、4.59、4.39个百分点。此外,本文通过消融实验和特征可视化证明了注意力模块和混合扩张卷积在精度提升上的可行性。本文模型结构简单、参数量少,能够识别不同面积的葡萄种植区,边缘分割效果良好。 相似文献
206.
相较于人工感官评审法,基于深度学习和计算机技术进行茶叶嫩芽分级可以降低时间成本并大幅提高精度,但常用的识别模型存在着冗余计算量多和模型规格大的问题。为此以采摘自贵州红枫山韵茶场的茶叶嫩芽为研究对象,根据人工经验将茶样划分为3个等级;在ShuffleNet-V2 0.5x基本单元中嵌入多尺度卷积块注意力模块(MCBAM)与多尺度深度捷径(MDS),提出一种茶叶嫩芽分级模型(ShuffleNet-V2 0.5x-SMAU),聚焦茶样中有利于分级的特征信息;以在两个不同源域上预训练后的模型作为教师和学生模型,提出一种结合双迁移和知识蒸馏的茶叶嫩芽分级方法,借助暗知识的传授进一步增强分级模型分类性能与抵抗过拟合的能力。结果表明,本文方法能在保证模型轻量性的条件下,对测试集各级样本的分级准确率达到100%、92.70%、89.89%,表现出优于采用复杂网络模型的综合性能,在储存资源有限和硬件水平低的生产场景中应用具有优越性。 相似文献
207.
为解决自然环境中番茄叶片病虫害检测场景复杂、检测精度较低,计算复杂度高等问题,提出一种SLP-YOLOv7-tiny的深度学习算法。首先,将主干特征提取网络中部分3×3的卷积Conv2D(2D convolution)改为分布偏移卷积DSConv2D(2D Depthwise Separable Convolution),以减少网络的计算量,并且使计算速度更快,占用内存更少;其次,将无参数注意力机制(parameter-free attention module, SimAM)融合到骨干特征提取网络中,加强模型对病虫害特征的有效提取能力和特征整合能力;最后,将原始YOLOv7-tiny的CIOU损失函数,更替为Focal-EIOU损失函数,加快模型收敛并降低损失值。试验结果表明,SLP-YOLOv7-tiny模型整体识别精准度、召回率、平均精度均值mAP0.5(IOU阈值为0.5时的平均精度)、mAP0.5~0.95(IOU阈值从0.5到0.95之间的所有值进行平均计算的平均精度)分别为95.9%、94.6%、98.0%、91.4%,与改进前YOLOv7-tiny相比,分别提升14.7、29.2、20.2、30个百分点,同时,计算量降低了62.6%,检测速度提升了13.2%。与YOLOv5n、YOLOv5s、YOLOv5m、YOLOv7、YOLOv7-tiny、Faster-RCNN、SSD目标检测模型相比,mAP0.5分别提升了2.0、1.6、2.0、2.2、20.2、6.1和5.3个百分点,而计算量大小仅为YOLOv5s、YOLOv5m、YOLOv7、Faster-RCNN、SSD的31.5%、10.6%、4.9%、4.3%、3.8%。结果表明SLP-YOLOv7-tiny可以准确快速地实现番茄叶片病虫害的检测,且模型较小,可为番茄叶片病虫害的快速精准检测的发展提供一定的技术支持。 相似文献
208.
209.
为实现对柑橘叶片病虫药害种类的快速精准识别,针对多种类柑橘病叶设计一种融合注意力机制(Attention mechanism)的双向门控循环单元-循环神经网络(Attention-bidirectional gate recurrent unit-recurrent nural network, Att-BiGRU-RNN)分类模型。该模型在编解码模块分别采用BiGRU和RNN结构,能够利用高光谱数据前后波段光谱信息的关联性,有效提取光谱信息的深层特征;根据不同波段光谱信息的差异性引入注意力机制动态分配权重信息,提高重要光谱特征对分类模型的贡献率,提升模型的分类准确率。获取6类柑橘叶片高光谱信息,构建实验样本集,利用Att-BiGRU-RNN、VGG16、SVM和XGBoost分别建立柑橘病叶分类模型,Att-BiGRU-RNN模型总体分类准确率(Overall accuracy, OA)平均可达98.21%,相较于其他3种模型分别提高4.71、10.95、3.89个百分点,对光谱曲线重合度高的除草剂危害和煤烟病叶片的分类准确率有显著提升。实验结果表明,深度学习方法可有效利用高光谱不同... 相似文献
210.
自动和准确地估计病害的严重度对病害管理和产量损失预测至关重要。针对传统病害严重度估算步骤复杂且低效,难以实现在田间场景下精准估算问题,提出了一种基于混合扩张卷积和注意力机制改进UNet(Mixed dilated convolution and attention mechanism optimized UNet,MA-UNet)的病害严重度估算方法。首先,针对病斑尺寸不一、形状不规则问题,提出混合扩张卷积块(Mixed dilation convolution block, MDCB)增加感受野并保持病斑信息的连续性,提升病斑分割精度。其次,为了克服复杂背景的影响,利用注意力机制(Attention mechanism)对空间维度和通道维度进行相关性建模,获得每个像素类内响应和通道间的依赖关系,缓解背景对网络学习带来的影响。最后,计算病害分割图中病斑像素与叶片像素的比率来获得严重度。基于田间条件下收集的黄瓜霜霉病和白粉病图像进行了验证,并与全卷积网络(Fully convolutional network,FCN)、SegNet、UNet、PSPNet、FPN、DeepLabV3+进行比较。结果表明,MA-UNet优于比较方法,能够满足复杂环境下健康叶片和病斑的分割需求,平均交并比为84.97%,频权交并比为93.95%。基于MA-UNet分割结果估计黄瓜叶部病害严重度的决定系数为0.9654,均方根误差为1.0837%。该研究可为人工智能在农业中快速估计和控制病害严重度提供参考。 相似文献