首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   2831篇
  免费   168篇
  国内免费   976篇
林业   368篇
农学   240篇
基础科学   650篇
  1128篇
综合类   1213篇
农作物   70篇
水产渔业   43篇
畜牧兽医   127篇
园艺   29篇
植物保护   107篇
  2024年   57篇
  2023年   136篇
  2022年   197篇
  2021年   226篇
  2020年   181篇
  2019年   170篇
  2018年   136篇
  2017年   199篇
  2016年   195篇
  2015年   175篇
  2014年   180篇
  2013年   204篇
  2012年   235篇
  2011年   214篇
  2010年   205篇
  2009年   169篇
  2008年   165篇
  2007年   206篇
  2006年   152篇
  2005年   146篇
  2004年   102篇
  2003年   68篇
  2002年   57篇
  2001年   36篇
  2000年   21篇
  1999年   23篇
  1998年   23篇
  1997年   9篇
  1996年   13篇
  1995年   10篇
  1994年   8篇
  1993年   18篇
  1992年   11篇
  1991年   7篇
  1990年   7篇
  1989年   6篇
  1988年   4篇
  1987年   1篇
  1984年   1篇
  1982年   1篇
  1978年   1篇
排序方式: 共有3975条查询结果,搜索用时 46 毫秒
41.
为提高鱼类表型分割精度和准确度,实现鱼类表型智能监测,该研究基于深度学习算法构建了VED-SegNet模型用于鱼类表型分割和测量。该模型将cross stage partial network和GSConv结合作为编码器(VoV-GSCSP),保持足够精度的同时降低网络结构复杂性。另一方面,该模型采用EMA(efficient multi-scale attention module with cross-spatial learning)建立强化结构,加强编码器和解码器之间的信息传递,提高模型精度,并实现了8个表型类别的输出。采用自建的鱼类表型分割数据集对VED-SegNet模型进行了测试,测量结果中鱼类各表型比例与实际测量值相接近,表型最大平均绝对和平均相对误差为0.39%、11.28%,能实现无接触式提取水产养殖中鱼类表型比例。对比其他常见语义分割模型,平均交并比mean intersection over union,mIoU和平均像素准确率mean pixel accuracy,m PA最高,分别到达了87.92%、92.83%。VED-SegNet模型在环境复杂、多鱼重叠的...  相似文献   
42.
为了快速检测和统计杨梅树的数量,该研究提出了一种基于改进YOLOv7的杨梅树单木检测模型:YOLOv7-ACGDmix。首先,对YOLOv7的可扩展高效长程注意力网络(extended-efficient long-range attention networks, E-ELAN)进行改进,通过融合兼具卷积和注意力机制优势的ACmix(a mixed model that enjoys the benefit of both self-attention and convolution)结构得到AC-E-ELAN模块,提升模型的学习和推理能力,引入可变形卷积(deformable convolutional networks version 2, DCNv2)结构得到DCNv2-E-ELAN模块,增强模型对不同尺寸目标的提取能力;其次,采用内容感知特征重组(content-aware reassembly of features, CARAFE)上采样模块,提高模型对重要特征的提取能力;然后,在主干和头部网络部分添加全局注意力机制(global-attention mechanism, GAM),强化特征中的语义信息和位置信息,提高模型特征融合能力;最后,采用WIoU(wise intersection over union)损失函数减少因正负样本数据不平衡造成的干扰,增强模型的泛化性。在公开数据集上的试验结果表明,YOLOv7-ACGDmix模型的精确率达到89.1%,召回率达到89.0%,平均精度均值(mean average precision, mAP)达到95.1%,F1-score达到89.0%,相比于原YOLOv7模型分别提高1.8、4.0、2.3和3.0个百分点。与Faster R-CNN、SSD、YOLOv8模型相比,改进模型的平均精度均值(mAP0.5)分别提高了9.8、2.2、0.7个百分点。实地采集杨梅树样本数据的检测精确率87.3%、召回率85.7%。试验表明,改进模型为基于无人机影像的杨梅树单木检测提供了一种有效的解决方案,对果园精准管理的发展具有重要意义。  相似文献   
43.
针对雪茄烟叶晾制过程含水率人工判断主观性强、准确度低等不足,以及对影响雪茄烟叶晾制过程含水率预测的重要表观特征尚不明确等问题,该研究基于图像特征提取以及机器学习技术实现雪茄烟叶晾制过程含水率的预测。试验以雪茄烟品种“云雪2号”为试验材料,获取晾制过程的烟叶图像的颜色、轮廓、纹理以及部位四类特征并筛选出雪茄烟叶含水率预测的优选图像特征子集。在此基础上,构建了随机森林(random forest, RF)、支持向量机(support vector regression, SVR)与反向传播神经网络(back propagation neural network, BPNN)模型,并利用遗传算法(genetic algorithm, GA)对各模型超参数进行优化,将原始图像特征集与优选图像特征集输入3个机器学习模型,构建出6种模型-特征组合方案,依据晾制时期对原始数据集进行划分,并对测试集进行预测。最终结果显示:GA-SVR模型+优选图像特征子集的组合方案在测试集上表现最优,其决定系数(coefficient of determination,r2)与均方误差(mean square error,MSE)分别为0.980和0.001,且运行时间最短(运行时长=0.128 s)。研究结果可为雪茄烟叶晾制过程智能化控制提供理论依据。  相似文献   
44.
为了有效地弥补猪B超图像人工手绘背膘厚的不足,为生猪育种工作提供更精准和稳定的背膘厚测定新方法。该研究将全卷积神经网络(Fully Convolutional Networks,FCN)模型应用于猪B超图像的背膘分割和背膘厚测定上,开发出一套使用Python调用FCN模型对猪B超图像背膘厚进行自动测定的系统。通过开展验证集验证试验、屠宰比对试验和人员比对试验,发现模型测定结果和标注结果之间差异不显著(P>0.05),两者相关系数达0.92(P<0.01);B超标准测定背膘厚和FCN分割测定背膘厚的相关系数达到0.97(P<0.01);专家组组内标准差为0.17 mm(最小),行业外组组内标准差为1.67 mm(最大),而FCN分割结果稳定性强,不受人员因素的影响。因此,该方法可以实现对外种猪B超背膘厚的精准、快速、稳定测量,减少猪场对专业人员的依赖,降低测定人员培训成本,减少工作人员工作量。  相似文献   
45.
本文以1989年和2000年TM影像为基础,结合部分统计资料,分析了准噶尔盆地西南缘沙湾-石河子-玛纳斯人工绿洲近20年的变化特点。分析结果表明:该研究区人工绿洲面积增加显著,由1989的6077.62km2增至2000年的6995.02km2,且主要增长期为1995年以后,1998-2002年增长尤为明显;绿洲内部存在一定程度的弃荒现象,1989-2000年间有365.29km2农用地被荒弃;绿洲的增长以外延式增长为主,开发原有绿洲内部空地为辅;同时,北部莫索湾绿洲土地盐碱化现象明显。  相似文献   
46.
采用改进CenterNet模型检测群养生猪目标   总被引:5,自引:4,他引:1  
为实现对群养环境下生猪个体目标快速精准的检测,该研究提出了一种针对群养生猪的改进型目标检测网络MF-CenterNet(MobileNet-FPN-CenterNet)模型,为确保目标检测的精确度,该模型首先以无锚式的CenterNet为基础结构,通过引入轻量级的MobileNet网络作为模型特征提取网络,以降低模型大小和提高检测速度,同时加入特征金字塔结构FPN(Feature Pyramid Networks)以提高模型特征提取能力,在保证模型轻量化、实时性的同时,提高遮挡目标和小目标的检测精度。该研究以某商业猪场群养生猪录制视频作为数据源,采集视频帧1 683张,经图像增强后共得到6 732张图像。试验结果表明,MF-CenterNet模型大小仅为21 MB,满足边缘计算端的部署,同时对生猪目标检测平均精确度达到94.30%,检测速度达到69 帧/s,相较于Faster-RCNN、SSD、YOLOv3、YOLOv4目标检测网络模型,检测精度分别提高了6.39%、4.46%、6.01%、2.74%,检测速度分别提高了54、47、45、43 帧/s,相关结果表明了该研究所提出的改进型的轻量级MF-CenterNet模型,能够在满足目标检测实时性的同时提高了对群养生猪的检测精度,为生产现场端的群养生猪行为实时检测与分析提供了有效方法。  相似文献   
47.
基于轻量型残差网络的自然场景水稻害虫识别   总被引:4,自引:3,他引:1  
准确识别水稻害虫对水稻及时采取防护和治理措施具有重要意义,该研究以自然场景中水稻害虫图像为研究对象,针对水稻害虫图像的颜色纹理与背景相近以及同类害虫形态差异较大等特点,设计了一个由特征提取、全局优化以及局部优化模块构成的轻量型残差网络(Light Weight Residual Network,LW-ResNet)用于水稻害虫识别。在特征提取模块通过增加卷积层数以及分支数对残差块进行改进,有效提取自然场景中水稻害虫图像的深层全局特征并使用全局优化模块进行优化;局部优化模块通过设计轻量型注意力子模块关注害虫的局部判别性特征。LW-ResNet网络在特征提取模块减少了残差块的数量,在注意力子模块中采用深度可分离卷积减少了浮点运算量,从而实现了模型的轻量化。试验结果表明,所设计的LW-ResNet网络在13类水稻害虫图像的测试数据集上达到了92.5%的识别准确率,高于VGG16、ResNet、AlexNet等经典卷积神经网络模型,并且LW-ResNet网络的参数量仅为1.62×106个,浮点运算量仅为0.34×109次,低于MobileNetV3轻量级卷积神经网络模型。该研究成果可用于移动端水稻害虫的自动识别。  相似文献   
48.
针对番茄早期缺素性状不明显及各生长期特征差异较大所导致的特征区域尺寸不一致、难提取、难辩别等问题,提出了一种基于注意力机制及多尺度特征融合卷积神经网络的番茄叶片缺素图像分类方法(Multi-Scale Feature Fusion Convolutional Neural Networks Based On Atte ntion Mechanism,MSFF-AM-CNNs)。首先根据番茄叶片缺素特点提出了多尺度特征融合结构(Multi-Scale Feature Fusion Module,MSFF Module);其次在DenseNet基础上,结合浅层网络主要提取纹理、细节特征,深层网络主要提取轮廓、形状特征的特点分别提出具有针对性的特征提取方法,通过不同形式引入注意力机制及多尺度特征融合结构,使全局多尺度信息融合多个特征通道、选择性地强调信息特征并达到对特征精准定位的功能;同时引入Focal Loss函数以减少易分类样本的权重。试验结果表明,MSFF-AM-CNNs的平均召回率、平均F1得分、平均准确率较原模型DenseNet-121均大幅提升,其中缺氮和缺钾叶片的准确率分别提高了8.06和6.14个百分点,召回率分别提高了6.31和5.00个百分点,F1得分分别提高了7.25和5.55个百分点,平均识别准确率可达95.92%,具有较高的识别准确率及广泛的适用性,能够满足番茄叶片缺素图像的高精度分类需求,可为植物叶片缺素识别提供参考。  相似文献   
49.
缺株玉米行中心线提取算法研究   总被引:1,自引:1,他引:0  
无人驾驶农机自主进行行驶路径检测和识别系统需要具备环境感知能力。作物行的中心线识别是环境感知的一个重要方面,已有的作物行中心线识别算法在缺株作物行中心线提取中存在检测精度低的问题。该研究提出了一种能够在缺株情况下提取玉米作物行中心线的算法。首先采用限定HSV颜色空间中颜色分量范围的方法将作物与背景分割,通过形态学处理对图像进行去噪并填补作物行空洞;然后分别在图像底部和中部的横向位置设置条状感兴趣区(Region of Interest,ROI),提取ROI内的作物行轮廓重心作为定位点。在图像顶端间隔固定步长设置上端点,利用定位点和上端点组成的扫描线扫描图像,通过作物行区域最多的扫描线即为对应目标作物行的最优线;将获取的最优线与作物行区域进行融合填充作物行中的缺株部位;最后设置动态ROI,作物行区域内面积最大轮廓拟合的直线即为目标作物行中心线。试验结果表明,对于不同缺株情况下的玉米图像,该算法的平均准确率达到84.2%,每帧图像的平均检测时间为0.092 s。该研究算法可提高缺株情况下的作物行中心线识别率,具有鲁棒性强、准确度高的特点,可为无人驾驶农机在作物行缺株的农田环境下进行作业提供理论依据。  相似文献   
50.
基于轻量级神经网络MobileNetV3-Small的鲈鱼摄食状态分类   总被引:1,自引:1,他引:0  
在集约化水产养殖过程中,饲料投喂是控制养殖成本,提高养殖效率的关键。室外环境复杂多变且难以控制,适用于此环境的移动设备计算能力较弱,通过识别鱼类摄食状态实现智能投喂仍存在困难。针对此种现象,该研究选取了轻量级神经网络MobileNetV3-Small对鲈鱼摄食状态进行分类。通过水上摄像机采集水面鲈鱼进食图像,根据鲈鱼进食规律选取每轮投喂后第80~110秒的图片建立数据集,经训练后的MobileNetV3-Small网络模型在测试集的准确率达到99.60%,召回率为99.40%,精准率为99.80%,F1分数为99.60%。通过与ResNet-18, ShuffleNetV2和MobileNetV3-Large深度学习模型相比,MobileNetV3-Small模型的计算量最小为582 M,平均分类速率最大为39.21帧/s。与传统机器学习模型KNN(K-Nearest Neighbors)、SVM(Support Vector Machine)、GBDT(Gradient Boosting Decision Tree)和Stacking相比,MobileNetV3-Small模型的综合准确率高出12.74、23.85、3.60和2.78个百分点。为进一步验证该模型有效性,在室外真实养殖环境进行投喂试验。结果显示,与人工投喂相比,基于该分类模型决策的鲈鱼投喂方式的饵料系数为1.42,质量增加率为5.56%。在室外真实养殖环境下,MobileNetV3-Small模型对鲈鱼摄食状态有较好的分类效果,基于该分类模型决策的鲈鱼投喂方式在一定程度上能够代替养殖人员进行决策,为室外集约化养殖环境下的高效智能投喂提供了参考。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号