全文获取类型
收费全文 | 1211篇 |
免费 | 361篇 |
国内免费 | 163篇 |
专业分类
林业 | 49篇 |
农学 | 57篇 |
基础科学 | 366篇 |
353篇 | |
综合类 | 713篇 |
农作物 | 18篇 |
水产渔业 | 35篇 |
畜牧兽医 | 95篇 |
园艺 | 11篇 |
植物保护 | 38篇 |
出版年
2024年 | 17篇 |
2023年 | 200篇 |
2022年 | 225篇 |
2021年 | 170篇 |
2020年 | 136篇 |
2019年 | 91篇 |
2018年 | 53篇 |
2017年 | 36篇 |
2016年 | 45篇 |
2015年 | 40篇 |
2014年 | 54篇 |
2013年 | 56篇 |
2012年 | 73篇 |
2011年 | 80篇 |
2010年 | 67篇 |
2009年 | 62篇 |
2008年 | 67篇 |
2007年 | 53篇 |
2006年 | 34篇 |
2005年 | 37篇 |
2004年 | 27篇 |
2003年 | 26篇 |
2002年 | 16篇 |
2001年 | 18篇 |
2000年 | 11篇 |
1999年 | 8篇 |
1998年 | 9篇 |
1997年 | 6篇 |
1996年 | 1篇 |
1995年 | 4篇 |
1994年 | 3篇 |
1993年 | 3篇 |
1991年 | 2篇 |
1990年 | 2篇 |
1988年 | 1篇 |
1987年 | 1篇 |
1962年 | 1篇 |
排序方式: 共有1735条查询结果,搜索用时 15 毫秒
1.
便携式柑橘虫害实时检测系统的研制与试验 总被引:3,自引:2,他引:1
为实现柑橘虫害的快速、准确识别,帮助果农及时掌握果园内虫害的危害程度和分布情况,该研究结合嵌入式图像处理技术设计了一套基于深度卷积神经网络的柑橘虫害实时检测系统。优选MoblieNet作为虫害图像特征提取网络,区域候选网络生成害虫的初步位置候选框,快速区域卷积神经网络(Faster Region Convolutional Neural Networks,Faster R-CNN)实现候选框的分类和定位。检测系统根据目标图像中虫害数量计算危害程度,按照正常、轻度、中度、重度4个等级判定柑橘虫害的严重程度,形成虫害识别与级别定量化测评软件。最后引入北斗模块获取采样点位置信息,进一步处理成可视化的虫害热力图。结果表明,该方法可实现对柑橘红蜘蛛和蚜虫的快速准确检测,识别准确率分别达到91.0%和89.0%,单帧图像平均处理速度低至286ms。该系统实现了柑橘虫害的精准识别与定位,可为农药喷洒作业提供精准信息服务。 相似文献
2.
针对传统计算机视觉技术在苹果外部品质分级中准确率较低、鲁棒性较差等问题,提出了基于深度学习的苹果外观分级方法(多卷积神经网络融合DXNet模型)。首先,在延安市超市、果园等场所实地拍摄不同外观等级的苹果图像15000幅,并进行人工标记,建立了外部品质信息覆盖度广、样本量大的苹果图像数据库;然后,在对比分析经典卷积网络模型的基础上,采用模型融合的方式对经典模型进行优化改进,抽取经典模型卷积部分进行融合,作为特征提取器,共享全连接层用作分类器,并采用批归一化和正则化技术防止模型过拟合。试验评估采用15000幅图像进行训练、4500幅图像进行测试,结果表明,DXNet模型的分级准确率高于经典模型,分级准确率达到97.84%,验证了本文方法用于苹果外部品质分级的有效性。 相似文献
3.
基于迁移学习和双线性CNN的细粒度菌菇表型识别 总被引:1,自引:0,他引:1
为了对细粒度菌菇进行表型识别,在双线性卷积神经网络细粒度图像识别框架基础上,提出了一种基于迁移学习和双线性Inception-ResNet-v2网络的菌菇识别方法。利用Inception-ResNet-v2网络的特征提取能力,结合双线性汇合操作,提取菌菇图像数据的细粒度特征,采用迁移学习将ImageNet数据集上预训练的模型参数迁移到细粒度菌类表型数据集上。试验表明,在开源数据集和个人数据集上,识别精度分别达到87.15%和93.94%。开发了基于Flask框架的在线菌类表型识别系统,实现了细粒度菌菇表型的在线识别与分析。 相似文献
4.
采用双模态联合表征学习方法识别作物病害 总被引:1,自引:1,他引:0
基于深度卷积神经网络的视觉识别方法在病害诊断中表现出色,逐渐成为了研究热点。但是,基于深度卷积神经网络建立的视觉识别模型通常只利用了图像模态的数据,导致模型的识别准确率和鲁棒性,都依赖训练数据集的规模和标注的质量。构建开放环境下大规模的病害数据集并完成高质量的标注,通常需要付出巨大的经济和技术代价,限制了基于深度卷积神经网络的视觉识别方法在实际应用中的推广。该研究提出了一种基于图像与文本双模态联合表征学习的开放环境下作物病害识别模型(bimodalNet)。该模型在病害图像模态的基础上,进行了病害文本模态信息的嵌入,利用两种模态病害信息间的相关性和互补性,实现了病害特征的联合表征学习。最终bimodalNet在较小的数据集上取得了优于单纯的图像模态模型和文本模态模型的效果,最优模型组合在测试集的准确率、精确率、灵敏度、特异性和F1值分别为99.47%、98.51%、98.61%、99.68%和98.51%。该研究证明了利用病害图像和病害文本的双模态表征学习是解决开放环境下作物病害识别的有效方法。 相似文献
5.
基于自监督学习的温室移动机器人位姿跟踪 总被引:1,自引:1,他引:0
为实现温室环境下机器人行进过程中的位置及姿态跟踪,该研究提出一种基于时序一致性约束的自监督位姿变换估计模型。模型用软遮罩,处理视频帧间静止造成的位姿预测值收缩现象,进一步用归一化遮罩,解决非刚体场景和目标遮挡问题。设计了一种星型扩张卷积,并基于该卷积,为模型构建自编码器。在采集自种植作物为番茄的日光温室视频数据上开展训练和测试试验。结果表明,与不采用遮罩处理的模型相比,采用软遮罩的模型,位置和姿态估计相对误差分别减少5.06个百分点和11.05个百分点,采用归一化遮罩的模型,这2项误差则分别减少4.15个百分点和3.86个百分点,2种遮罩均可显著提高模型精度;星型扩张卷积对降低模型误差是有效的,在网络参数不变的前提下,该卷积使姿态估计相对误差减少7.54个百分点;时序一致性约束使姿态估计均方根误差下降36.48%,每百帧累积姿态角误差降低54.75%,该约束可用于提高模型精度及稳定性;该研究的位置及姿态估计相对误差分别为8.29%和5.71%,与Monodepth2相比,减少了8.61%和6.83%。该研究可为温室移动机器人导航系统设计提供参考。 相似文献
6.
基于优化Transformer网络的绿色目标果实高效检测模型 总被引:7,自引:7,他引:0
果园环境中,检测目标果实易受复杂背景、果实姿态和颜色等因素影响,为提高绿色目标果实检测的精度与效率,满足果园智能测产和自动化采摘要求,本研究针对不同光照环境和果实姿态,提出一种适于样本数量不足的绿色目标果实高效检测模型。该模型采用优化Transformer结构,首先借助卷积神经网络(Convolutional Neural Network,CNN)网络提取图像特征;然后输入编码-解码器生成一组目标果实预测框,最后通过前馈神经网络(Feed-forward Network,FFN)结构预测检测结果。在训练过程中,引入重采样法扩充样本数量,解决样本数量不足问题;引入迁移学习,加速网络收敛。分别制作苹果、柿子数据集用于模型训练。试验结果表明,经迁移学习后该模型训练效率大幅提高;与流行的目标检测模型相比,优化后的模型在检测绿色柿子与绿色苹果时,精度分别为93.27%和91.35%。该方法可为其他果蔬绿色目标检测提供理论借鉴。 相似文献
7.
基于迁移学习的葡萄叶片病害识别及移动端应用 总被引:7,自引:6,他引:1
为解决已有的卷积神经网络在小样本葡萄病害叶片识别的问题中出现的收敛速度慢,易产生过拟合现象等问题,提出了一种葡萄叶片病害识别模型(Grape-VGG-16,GV),并针对该模型提出基于迁移学习的模型训练方式。将VGG-16网络在ImageNet图像数据集上学习的知识迁移到本模型中,并设计全新的全连接层。对收集到的葡萄叶片图像使用数据增强技术扩充数据集。基于扩充前后的数据集,对全新学习、训练全连接层的迁移学习、训练最后一个卷积层和全连接层的迁移学习3种学习方式进行了试验。试验结果表明,1)迁移学习的2种训练方式相比于全新学习准确率增加了10~13个百分点,并在仅训练25轮达到收敛,该方法有效提升了模型分类性能,缩短模型的收敛时间;2)数据扩充有助于增加数据的多样性,并随着训练次数的增加,训练与测试准确率同步上升,有效缓解了过拟合现象。在迁移学习结合数据扩充的方式下,所构建的葡萄叶片病害识别模型(GV)对葡萄叶片病害的识别准确率能达到96.48%,对健康叶、褐斑病、轮斑病和黑腐病的识别准确率分别达到98.04%、98.04%、95.83%和94.00%。最后,将最终的研究模型部署到移动端,实现了田间葡萄叶片病害的智能检测,为葡萄病害的智能诊断提供参考。 相似文献
8.
首先,介绍了水果收获机器人抓取系统的总体架构;然后,利用深度学习对水果目标识别进行了研究,实现了一套基于卷积神经网络的目标检测算法;接着,利用图像处理技术实现了对目标物体定位的功能,可以引导水果收获机器人完成对目标水果的采摘。实验结果表明:水果收获机器人抓取系统对水果坐标的计算误差较小,且具备较强的水果识别和定位能力。 相似文献
9.
及时准确的干旱评估对社会经济发展和农业生产具有重要的指导意义,当前的干旱评估指标通常仅考虑植被或降水等单方面影响因素,在实际干旱评估中存在一定的局限性。本研究综合考虑降水、温度、地形等多个干旱致灾因子,以主要产粮基地京津冀地区为例,基于2007-2017年地表温度(Land Surface Temperature,LST)、归一化植被指数(Normalized Difference Vegetation Index,NDVI)以及降水等多源数据,利用深度学习框架Tensorflow构建以标准化降水蒸散发指数(Standardized Precipitation Evapotranspiration Index,SPEI)为目标值的综合干旱评估模型。利用决定系数(R2)和均方根误差(RMSE)对模型进行测试;利用站点标准化降水指数(Standardized Precipitation Index,SPI)、土壤相对湿度数据以及2016年京津冀地区的气象灾害数据,从时间和空间上对模型的可靠性进行验证。结果表明:模型的训练集和测试集在不同月份上均表现较好(R2均大于0.5而RMSE均小于0.55)。模型输出的综合干旱指数(Comprehensive Drought Index,CDI)在密云站上与SPI和SPEI接近,变化趋势基本一致,并且与站点SPI和土壤相对湿度的相关系数分别大于0.7和0.4,均通过了0.01水平的显著性检验。空间上,相较于SPEI,CDI计算的2016年3-7月京津冀地区干旱事件结果与实际情况符合度更高,表明该模型适用于京津冀地区干旱评估。 相似文献
10.
基于机器学习的棉花叶面积指数监测 总被引:2,自引:1,他引:1
为实现基于机器学习和无人机高光谱影像进行棉花全生育期叶面积指数(Leaf Area Index, LAI)监测,该研究基于大田种植滴灌棉花,在不同品种及不同施氮处理的小区试验基础上,对无人机获取的高光谱数据分别采用一阶导(First Derivative, FDR)、二阶导(Second Derivative, SDR)、SG(Savitzky-Golay)平滑和多元散射校正(Multiplicative Scatter Correction, MSC)进行预处理,并结合Pearson相关系数法、连续投影(Successive Projections Algorithm, SPA)、随机蛙跳(Shuffled Frog Leaping Algorithm, SFLA)和竞争性自适应重加权(Competitive Adaptive Reweighting, CARS)筛选敏感波段,将筛选出的波段,使用偏最小二乘回归(Partial Least Squares Regression, PLSR)、支持向量回归(Support Vector Regression, SVR)和随机森林回归(Random Forest Regression, RFR)3种机器学习算法构建棉花LAI监测模型。结果表明:棉花冠层LAI敏感响应波段集中在可见光(400~780 nm)和近红外(900 nm之后)波段;对比3种机器学习算法,各预处理下RFR建立的LAI监测模型精度最高,稳定性最好,其中以FDR-SFLA-RFR模型最佳,在建模集的决定系数为0.74,均方根误差为1.648 3,相对均方根误差为26.39%;验证集的决定系数、均方根误差分别为0.67和1.622 0,相对均方根误差为25.97%。该研究基于无人机获取的棉花冠层光谱反射率,从不同光谱预处理、波段筛选及建模方法建立的模型中筛选出最佳估算模型用于棉花全生育期LAI监测,研究结果可为棉花大田精准管理及变量施肥提供依据。 相似文献