首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   2772篇
  免费   195篇
  国内免费   422篇
林业   230篇
农学   191篇
基础科学   452篇
  747篇
综合类   950篇
农作物   124篇
水产渔业   96篇
畜牧兽医   426篇
园艺   38篇
植物保护   135篇
  2024年   42篇
  2023年   170篇
  2022年   215篇
  2021年   199篇
  2020年   180篇
  2019年   168篇
  2018年   104篇
  2017年   105篇
  2016年   115篇
  2015年   112篇
  2014年   127篇
  2013年   144篇
  2012年   174篇
  2011年   179篇
  2010年   124篇
  2009年   131篇
  2008年   94篇
  2007年   139篇
  2006年   117篇
  2005年   119篇
  2004年   87篇
  2003年   69篇
  2002年   60篇
  2001年   62篇
  2000年   64篇
  1999年   37篇
  1998年   35篇
  1997年   37篇
  1996年   25篇
  1995年   34篇
  1994年   17篇
  1993年   20篇
  1992年   18篇
  1991年   15篇
  1990年   13篇
  1989年   9篇
  1988年   4篇
  1987年   5篇
  1986年   8篇
  1985年   1篇
  1984年   1篇
  1983年   1篇
  1982年   1篇
  1979年   1篇
  1976年   6篇
  1962年   1篇
排序方式: 共有3389条查询结果,搜索用时 375 毫秒
101.
针对实际稻田环境中水稻与杂草相互遮挡、难以准确区分的问题,提出一种基于改进DeepLabv3+的水稻杂草识别方法。以无人机航拍的复杂背景下稻田杂草图像为研究对象,在DeepLabv3+模型的基础上,选择轻量级网络MobileNetv2作为主干特征提取网络,以减少模型参数量和降低计算复杂度;融合通道和空间双域注意力机制模块,加强模型对重要特征的关注;提出一种基于密集采样的多分支感受野级联融合结构对空洞空间金字塔池化模块(ASPP)进行改进,扩大对全局和局部元素特征的采样范围;对模型解码器部分进行改进。设置消融试验验证改进方法的有效性,并与改进前DeepLabv3+、UNet、PSPNet、HrNet模型进行对比试验。试验结果表明,改进后模型对水稻田间杂草的识别效果最佳,其平均交并比(MIoU)、平均像素准确率(mPA)、F1值分别为90.72%、95.67%、94.29%,较改进前模型分别提高3.22、1.25、2.65个百分点;改进后模型内存占用量为11.15 MB,约为原模型的1/19,网络推算速度为103.91 f/s。结果表明改进后模型能够实现复杂背景下水稻与杂草分割,研究结果可...  相似文献   
102.
为从无人机遥感影像中准确识别烟草,实现植株定位与计数,以雪茄烟草植株为研究对象,提出一种新的深度学习模型。区别于传统的利用检测框识别目标,本文模型利用少量的关键点学习烟草中心形态学特征,并采用轻量级的编、解码器从无人机遥感影像快速识别烟草并定位计数。首先,提出的模型针对烟草植物形态学特点,通过中心关键点标注的方法,使用高斯函数生成概率密度图,引入更多监督信息。其次,对比不同主干网络在模型中的效果,ResNet18作为主干网络时平均精度大于99.5%,精度和置信度都高于测试的其他主干网络。而MobileNetV2在CPU环境下达到运行效率最优,但平均置信度相对较低。使用损失函数Focal Loss与MSE Loss结合的Union Loss时,平均精度大于99.5%。最后,利用不同波段组合作为训练数据,对比结果发现使用红边波段更有助于模型快速收敛且能够很好地区分烟草和杂草。由于红边波段与植株冠层结构相关,使用红边、红、绿波段时平均精度达到99.6%。本文提出的深度学习模型能够准确地检测无人机遥感影像中的烟草,可为烟草的农情监测提供数据支持。  相似文献   
103.
针对红花采摘机器人田间作业时花冠检测及定位精度不高的问题,提出了一种基于深度学习的目标检测定位算法(Mobile safflower detection and position network, MSDP-Net)。针对目标检测,本文提出了一种改进的YOLO v5m网络模型C-YOLO v5m,在YOLO v5m主干网络和颈部网络插入卷积块注意力模块,使模型准确率、召回率、平均精度均值相较于改进前分别提高4.98、4.3、5.5个百分点。针对空间定位,本文提出了一种相机移动式空间定位方法,将双目相机安装在平移台上,使其能在水平方向上进行移动,从而使定位精度一直处于最佳范围,同时避免了因花冠被遮挡而造成的漏检。经田间试验验证,移动相机式定位成功率为93.79%,较固定相机式定位成功率提升9.32个百分点,且在X、Y、Z方向上移动相机式定位方法的平均偏差小于3 mm。将MSDP-Net算法与目前主流目标检测算法的性能进行对比,结果表明,MSDP-Net的综合检测性能均优于其他5种算法,其更适用于红花花冠的检测。将MSDP-Net算法和相机移动式定位方法应用于自主研发的红花采摘机器人上进行...  相似文献   
104.
硬度是确定猕猴桃成熟度的重要指标之一,对其贮藏周期与销售节点均具有重要指导意义。针对现阶段缺乏使用简易、成本低且精度高的猕猴桃无损硬度检测方法的问题,提出了一种基于视触觉与深度学习的猕猴桃硬度检测方法,通过分析柔性触觉传感层与猕猴桃接触时的形变,获取猕猴桃的动态触觉信息,并据此推断其硬度。以树莓派开发板为机电控制平台,制作了猕猴桃视触觉序列图像采集装置,并对装置按压猕猴桃间隔3h后接触面果肉与非接触面果肉的CIELAB颜色分量平均数进行差异显著性检验,随后采集了猕猴桃视触觉序列图像数据集600组,分别搭建了CNN网络、CNN-LSTM迁移学习网络、CNN-LSTM联合学习网络对视触觉序列图像进行分析及硬度预测。研究结果表明,接触面果肉与非接触面果肉颜色L*、a*、b*三通道分量下平均值无显著差异;深度学习模型LSTM引入长时和短时信息可以动态关联CNN提取的单帧图像特征,从而有效推断猕猴桃硬度,其中CNN-LSTM联合学习模型预测效果最优,其均方根误差(RMSE)、平均绝对误差(MAE)、决定系数R2分别为 1.611N、1.360N、0.856,优于现阶段光谱技术检测猕猴桃硬度的结果,随后将模型嵌入树莓派中制作了猕猴桃硬度自动检测装置,可实现短时间内猕猴桃硬度的较为准确检测。因此,结合视触觉传感方法与联合学习模型可以实现对单个猕猴桃硬度的准确无损测量。  相似文献   
105.
针对番茄病害识别模型参数量大、计算成本高、准确率低等问题,本文提出一种基于多尺度特征融合和坐标注意力机制的轻量级网络(Multi scale feature fusion and coordinate attention MobileNet, MCA-MobileNet)模型。采集10类番茄叶片图像,采用基于Wasserstein距离的生成对抗网络(Wasserstein generative adversarial networks, WGAN)进行数据增强,解决了样本数据不足和不均衡的问题,提高模型的泛化能力。在原始模型MobileNet-V2的基础上,引入改进后的多尺度特征融合模块对不同尺度的特征图进行特征提取,提高模型对不同尺度的适应性;将轻量型的坐标注意力机制模块(Coordinate attention, CA)嵌入倒置残差结构中,使模型更加关注叶片中的病害特征,提高对病害种类的识别准确率。试验结果表明,MCA-MobileNet对番茄叶片病害的识别准确率达到94.11%,较原始模型提高2.84个百分点,且参数量仅为原始模型的1/6。该方法较好地平衡了模型的识别准确率和计算成本,为番茄叶片病害的现场部署和实时检测提供了思路和技术支撑。  相似文献   
106.
为了满足田间作物长势快速检测与指导变量管理的需求,以玉米为例设计了基于多光谱成像的田间作物植株叶绿素检测系统,包括可见光(RGB)和近红外(Near-infrared, NIR)图像采集模块、主控处理器模块、模型加速模块、显示及电源模块,用于实现玉米植株智能识别与叶绿素指标一体化检测。首先,采集玉米苗期和拔节期冠层图像数据集,比较了植株冠层实例分割与株心目标检测两种深度学习模型,构建了基于MobileDet+SSDLite(Single shot multibox detector lite)轻量化网络的玉米植株定位检测模型,实现玉米植株识别。其次,提取被识别的植株株心RGB-NIR图像,开展RGB和NIR图像匹配与分割,提取R、G、B和NIR灰度值计算植被指数,使用SPXY算法(Sample set portioning based on joint X-Y distances)和连续投影算法(Successive projections algorithm, SPA)分别对数据集进行样本划分及特征变量筛选,选择高斯过程回归(Gaussian process regression, ...  相似文献   
107.
针对当前生猪规模化养殖过程中基于热红外技术的生猪体温测量效率低的问题,提出了一种基于改进YOLO v7的生猪群体体温检测方法。改进YOLO v7算法在Head层引入VoV-GSCSP结构,降低网络结构复杂度;使用内容感知特征重组(Content-aware reassembly of features,CARAFE)替换模型原始上采样算子,提高特征图放大后的品质,强化生猪头部区域有效特征;引入感受野增强模块(Receptive field enhancement module,RFE),增强特征金字塔对生猪头部特征的提取能力。本文改进YOLO v7算法对于生猪头部的检测精确率为87.9%,召回率为92.5%,平均精度均值(Mean average precision,mAP)为94.7%。与原始YOLO v7相比,精确率提高3.6个百分点,召回率提高7.0个百分点,mAP提高3.6个百分点。该方法首先自动检测生猪头部区域,再利用头部最大温度与耳根温度的高相关性,最终自动获取生猪体温。温度提取平均绝对误差仅为0.16℃,检测速度为222f/s,实现了生猪群体体温的实时精准检测。综合上述试验结果表明,该方法能够自动定位生猪群体的头部区域,满足生猪群体体温测定的高效和高精度要求,为群养生猪体温自动检测提供了有效的技术支撑。  相似文献   
108.
为实现非接触、高精度个体识别,本文提出了一种基于牛只脸部RGB-D信息融合的个体身份识别方法。以108头28~30月龄荷斯坦奶牛作为研究对象,利用Intel RealSense D455深度相机采集2334幅牛脸彩色/深度图像作为原始数据集。首先,采用冗余图像剔除方法和自适应阈值背景分离算法进行图像预处理,经增强共得到8344幅牛脸图像作为数据集;然后,分别选取Inception ResNet v1、Inception ResNet v2和SqueezeNet共3种特征提取网络进行奶牛脸部特征提取研究,通过对比分析,确定FaceNet模型的最优主干特征提取网络;最后,将提取的牛脸图像特征L2正则化,并映射至同一特征空间,训练分类器实现奶牛个体分类。测试结果表明,采用Inception ResNet v2作为FaceNet模型的主干网络特征提取效果最优,在经过背景分离数据预处理的数据集上测试牛脸识别准确率为98.6%,验证率为81.9%,误识率为0.10%。与Inception ResNet v1、SqueezeNet网络相比,准确率分别提高1、2.9个百分点;与未进行背景分离的数据集相比,准确率提高2.3个百分点。  相似文献   
109.
锦鲤选美的不同等级之间具有高相似度的特点,目前都是人工进行选美分级。为解决人工选美所存在的效率低、主观性强、成本高的问题,提出了一种基于迁移学习和改进ResNeXt50残差网络的锦鲤选美方法。本文首先构建了红白、大正、昭和3种锦鲤的选美等级数据集。其次,采用迁移学习策略提高训练速度,并从SE注意力模块、Hardswish激活函数和Ranger优化器3方面对ResNeXt50模型进行了改进,构建了SH-ResNeXt50锦鲤选美分级模型。试验结果表明:SH-ResNeXt50模型有效提升了锦鲤选美的等级分选能力,模型准确率达95.6%,损失值仅0.074,优于常用的AlexNet、GoogLeNet、ResNet50和ResNeXt50网络模型。最后,采用Grad-CAM分析SH-ResNeXt50模型的可解释性,结果表明SH-ResNeXt50模型和人工识别的感兴趣区域基本一致。本文所提出的方法实现了具有高相似度的锦鲤不同等级的智能分选,对其它具有高相似度的生物等级分选具有借鉴意义。  相似文献   
110.
基于EfficientDet-D1的草莓快速检测及分类   总被引:1,自引:1,他引:0  
为了快速识别自然环境下的成熟草莓与未成熟草莓,本研究提出了基于EfficientDet-D1的草莓快速检测及分类方法。该方法具有EfficientNet 网络中快速归一化特征加权融合特点,应用该方法与YOLOv3、YOLOv4、Faster-RCNN以及EfficientDet-D0模型进行对比试验,结果显示,YOLOv3、YOLOv4、Faster-RCNN、EfficientDet-D0和EfficientDet-D1等5种算法的平均精度均值(PmA)分别为 89.51%、69.02%、96.54%、96.71%、97.50%。试验结果表明,EfficientDet-D1在成熟草莓与未成熟草莓的检测性能均优于其他4种目标检测算法,有较好的泛化性和鲁棒性,且使用模型参数量较小的EfficientNet网络,更适合作用于移动端识别,可实现草莓快速识别中的速度与精度要求。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号