全文获取类型
收费全文 | 1211篇 |
免费 | 361篇 |
国内免费 | 163篇 |
专业分类
林业 | 49篇 |
农学 | 57篇 |
基础科学 | 366篇 |
353篇 | |
综合类 | 713篇 |
农作物 | 18篇 |
水产渔业 | 35篇 |
畜牧兽医 | 95篇 |
园艺 | 11篇 |
植物保护 | 38篇 |
出版年
2024年 | 17篇 |
2023年 | 200篇 |
2022年 | 225篇 |
2021年 | 170篇 |
2020年 | 136篇 |
2019年 | 91篇 |
2018年 | 53篇 |
2017年 | 36篇 |
2016年 | 45篇 |
2015年 | 40篇 |
2014年 | 54篇 |
2013年 | 56篇 |
2012年 | 73篇 |
2011年 | 80篇 |
2010年 | 67篇 |
2009年 | 62篇 |
2008年 | 67篇 |
2007年 | 53篇 |
2006年 | 34篇 |
2005年 | 37篇 |
2004年 | 27篇 |
2003年 | 26篇 |
2002年 | 16篇 |
2001年 | 18篇 |
2000年 | 11篇 |
1999年 | 8篇 |
1998年 | 9篇 |
1997年 | 6篇 |
1996年 | 1篇 |
1995年 | 4篇 |
1994年 | 3篇 |
1993年 | 3篇 |
1991年 | 2篇 |
1990年 | 2篇 |
1988年 | 1篇 |
1987年 | 1篇 |
1962年 | 1篇 |
排序方式: 共有1735条查询结果,搜索用时 109 毫秒
1.
基于机器学习的棉花叶面积指数监测 总被引:2,自引:1,他引:1
为实现基于机器学习和无人机高光谱影像进行棉花全生育期叶面积指数(Leaf Area Index, LAI)监测,该研究基于大田种植滴灌棉花,在不同品种及不同施氮处理的小区试验基础上,对无人机获取的高光谱数据分别采用一阶导(First Derivative, FDR)、二阶导(Second Derivative, SDR)、SG(Savitzky-Golay)平滑和多元散射校正(Multiplicative Scatter Correction, MSC)进行预处理,并结合Pearson相关系数法、连续投影(Successive Projections Algorithm, SPA)、随机蛙跳(Shuffled Frog Leaping Algorithm, SFLA)和竞争性自适应重加权(Competitive Adaptive Reweighting, CARS)筛选敏感波段,将筛选出的波段,使用偏最小二乘回归(Partial Least Squares Regression, PLSR)、支持向量回归(Support Vector Regression, SVR)和随机森林回归(Random Forest Regression, RFR)3种机器学习算法构建棉花LAI监测模型。结果表明:棉花冠层LAI敏感响应波段集中在可见光(400~780 nm)和近红外(900 nm之后)波段;对比3种机器学习算法,各预处理下RFR建立的LAI监测模型精度最高,稳定性最好,其中以FDR-SFLA-RFR模型最佳,在建模集的决定系数为0.74,均方根误差为1.648 3,相对均方根误差为26.39%;验证集的决定系数、均方根误差分别为0.67和1.622 0,相对均方根误差为25.97%。该研究基于无人机获取的棉花冠层光谱反射率,从不同光谱预处理、波段筛选及建模方法建立的模型中筛选出最佳估算模型用于棉花全生育期LAI监测,研究结果可为棉花大田精准管理及变量施肥提供依据。 相似文献
2.
采用双模态联合表征学习方法识别作物病害 总被引:1,自引:1,他引:0
基于深度卷积神经网络的视觉识别方法在病害诊断中表现出色,逐渐成为了研究热点。但是,基于深度卷积神经网络建立的视觉识别模型通常只利用了图像模态的数据,导致模型的识别准确率和鲁棒性,都依赖训练数据集的规模和标注的质量。构建开放环境下大规模的病害数据集并完成高质量的标注,通常需要付出巨大的经济和技术代价,限制了基于深度卷积神经网络的视觉识别方法在实际应用中的推广。该研究提出了一种基于图像与文本双模态联合表征学习的开放环境下作物病害识别模型(bimodalNet)。该模型在病害图像模态的基础上,进行了病害文本模态信息的嵌入,利用两种模态病害信息间的相关性和互补性,实现了病害特征的联合表征学习。最终bimodalNet在较小的数据集上取得了优于单纯的图像模态模型和文本模态模型的效果,最优模型组合在测试集的准确率、精确率、灵敏度、特异性和F1值分别为99.47%、98.51%、98.61%、99.68%和98.51%。该研究证明了利用病害图像和病害文本的双模态表征学习是解决开放环境下作物病害识别的有效方法。 相似文献
3.
吴雁程 《农业图书情报学刊》2021,33(12):29-36
[目的/意义]数字素养是终身学习能力的一部分,开展数字素养教育是满足社会和个人发展的需要。然而,中国大学生数字素养教育仍处于起步阶段,尤其在以数字化方式开展相关教育方面仍缺乏较好的实践案例。[方法/过程]文章以英国开放大学图书馆的“数字化生存”项目为研究对象,介绍项目的主要内容和基本思路,总结其主要特点:以简短且吸引人的活动为起点;以深刻且渐进式的路径为纵深;以边界且反思型的自评为节点。[结果/结论]英国开放大学图书馆的“数字化生存”项目简单而有效,为中国数字素质教育的开展提供可行思路:起点较低却富有层次的内容建设;科学合理且循序渐进的设计思路;平易近人且随时反馈的学习体验。 相似文献
4.
5.
6.
7.
随着深度学习技术与农业的密切融合,越来越多的研究将深度学习技术用于农业病虫害检测,提高农产品产量和质量。本文提出一种新颖的基于Xception模型的植物病害识别方法。了解到植物病害图像会受到不确定环境因素的干扰而减小图像信息。在Xception的基础上,提出一种新的通道扩增模块,采用带有通道分配权重的多尺度深度卷积与组卷积结合,增强空间和通道的特征提取效率;在网络中采用通道扩张-保持-再扩张-压缩的新策略,进一步优化通道特征提取;引入密集连接方式,提高在同尺寸的特征图之间特征重用。试验数据集由10种不同植物的50类图像组成,分别包括10种健康植物和27种病害,其中对13种病害进行了两种程度的分类。本文的方法在这些类别上可以获得91.9%的准确率,88.7%的精确率,82.45%的召回率以及85.33%的F1值。本文的算法有更小的模型复杂度和参数量,计算量为29.33 M,为Xception的66.4%。参数量为14.05 M,为Xception的66.9%。因此,Xception-CEMs能够有效对病虫害进行识别,有利于农业智能化发展。 相似文献
8.
基于机器学习融合多源遥感数据模拟SPEI监测山东干旱 总被引:1,自引:0,他引:1
以山东省为研究区,选择偏差校正随机森林BRF(Bias-corrected random forest),支持向量回归SVR(Support vector regression)和Cubist模型三种机器学习方法融合多影响因子模拟3个月时间尺度的标准化降水蒸散指数SPEI-3,以期为精确监测山东地区干旱提供一种方法。将2001−2017年23个站点的SPEI-3值作为因变量,多源遥感数据包括降水量、地表温度、蒸散发、潜在蒸散发、归一化植被指数以及土壤湿度六类7个影响因子作为自变量,自变量和因变量构成数据集的80%作为训练集,20%作为测试集。根据BRF模型得到研究区各个站点的模拟值以及各影响因子的相对重要性,绘制SPEI-3的空间分布图,并进行验证。结果表明,综合因子比单一因子模拟效果好,BRF模型测试集中的模拟值和观测值的决定系数R2达到了0.856,均方根误差RMSE为0.359,BRF模型能较好模拟站点SPEI-3值。大部分站点模拟值与观测值反映的干旱趋势一致,反映站点不同程度旱情的月份个数基本相同。此外,BRF模型模拟的SPEI-3的空间分布与站点SPEI-3观测值表现的干旱程度基本一致,且SPEI-3空间分布站点之外栅格数据也可以较准确地反映旱情,说明根据BRF模型可在站点和空间尺度上较精确地监测山东地区干旱情况。 相似文献
9.
便携式柑橘虫害实时检测系统的研制与试验 总被引:3,自引:2,他引:1
为实现柑橘虫害的快速、准确识别,帮助果农及时掌握果园内虫害的危害程度和分布情况,该研究结合嵌入式图像处理技术设计了一套基于深度卷积神经网络的柑橘虫害实时检测系统。优选MoblieNet作为虫害图像特征提取网络,区域候选网络生成害虫的初步位置候选框,快速区域卷积神经网络(Faster Region Convolutional Neural Networks,Faster R-CNN)实现候选框的分类和定位。检测系统根据目标图像中虫害数量计算危害程度,按照正常、轻度、中度、重度4个等级判定柑橘虫害的严重程度,形成虫害识别与级别定量化测评软件。最后引入北斗模块获取采样点位置信息,进一步处理成可视化的虫害热力图。结果表明,该方法可实现对柑橘红蜘蛛和蚜虫的快速准确检测,识别准确率分别达到91.0%和89.0%,单帧图像平均处理速度低至286ms。该系统实现了柑橘虫害的精准识别与定位,可为农药喷洒作业提供精准信息服务。 相似文献
10.
基于极化分解和集成学习的PolSAR影像分类 总被引:1,自引:1,他引:0
为实现Pol SAR数据极化信息的充分利用,以进一步改善分类效果,该研究提出了一种基于极化分解和集成学习的Pol SAR影像分类方法。该方法首先利用多种极化分解方法从Pol SAR影像中提取极化参数;将提取的极化参数组合成一幅多通道影像;然后对多通道影像进行分割和特征提取,分别提取出各目标极化分解方法所对应的特征;并进行特征选择和分类,得到各目标极化分解方法的分类结果;最后利用集成学习技术对各分类结果进行集成。该研究以吉林省长春市部分区域为研究区,Radarsat2影像为数据源,将提出的方法应用于土地覆被分类中,取得了较好的分类效果,总体精度和Kappa系数分别达到了92.49%和0.90。此外,该研究还将提出方法与其他基于多种极化分解的分类方法进行比较,对比方法的总体精度和Kappa系数分别为90.74%和0.88,比提出方法分别低1.75%和0.02,对比结果进一步证明了提出方法的优越性。 相似文献