全文获取类型
收费全文 | 2832篇 |
免费 | 167篇 |
国内免费 | 974篇 |
专业分类
林业 | 369篇 |
农学 | 239篇 |
基础科学 | 647篇 |
1126篇 | |
综合类 | 1216篇 |
农作物 | 71篇 |
水产渔业 | 43篇 |
畜牧兽医 | 126篇 |
园艺 | 29篇 |
植物保护 | 107篇 |
出版年
2024年 | 56篇 |
2023年 | 135篇 |
2022年 | 196篇 |
2021年 | 224篇 |
2020年 | 181篇 |
2019年 | 170篇 |
2018年 | 134篇 |
2017年 | 199篇 |
2016年 | 196篇 |
2015年 | 175篇 |
2014年 | 182篇 |
2013年 | 206篇 |
2012年 | 235篇 |
2011年 | 212篇 |
2010年 | 206篇 |
2009年 | 169篇 |
2008年 | 165篇 |
2007年 | 206篇 |
2006年 | 153篇 |
2005年 | 146篇 |
2004年 | 102篇 |
2003年 | 68篇 |
2002年 | 57篇 |
2001年 | 36篇 |
2000年 | 21篇 |
1999年 | 23篇 |
1998年 | 23篇 |
1997年 | 9篇 |
1996年 | 13篇 |
1995年 | 10篇 |
1994年 | 8篇 |
1993年 | 18篇 |
1992年 | 11篇 |
1991年 | 7篇 |
1990年 | 7篇 |
1989年 | 6篇 |
1988年 | 4篇 |
1987年 | 1篇 |
1984年 | 1篇 |
1982年 | 1篇 |
1978年 | 1篇 |
排序方式: 共有3973条查询结果,搜索用时 375 毫秒
51.
为提高诱虫板图像蔬菜害虫检测精度,针对背景区域容易导致误检的问题基于显著图分析技术构建了一种注意力深度网络害虫智能视觉检测方法。首先通过显著图筛选出粗候选区域;然后在粗候选区域内用全卷积神经网络精选出细候选区域;接着用神经网络分类器识别细候选区域害虫种类,得到含有冗余的若干检测框;最后用改进的非极大值抑制消除冗余检测框,实现诱虫板图像中目标害虫的检测。针对小菜蛾和瓜实蝇展开试验,获得86.4%的平均精度均值和0.111只的平均绝对计数误差均值,所提方法平均精度均值比Faster R-CNN和YOLOv4分别高2.74和1.56个百分点,平均绝对计数误差均值比Faster R-CNN和YOLOv4分别低0.006和0.003只;同时,消融试验中移除显著图注意力模块后平均精度均值下降了4个百分点、平均绝对计数误差均值增加了0.207只。试验结果表明,所提方法有效提高了诱虫板图像蔬菜害虫检测精度,其中,引入显著图注意力模块对提升检测精度有重要作用。 相似文献
52.
匹配点云结合HSI色彩分量的无人机RGB影像信息提取方法 总被引:1,自引:0,他引:1
无人机通常搭载可见光波段传感器获取红-绿-蓝(Red-Green-Blue,RGB)影像,由于无人机RGB影像波段较少,影像的地物信息提取存在一定难度。该研究提出了一种匹配点云结合色调-饱和度-亮度(Hue-Saturation-Intensity,HSI)空间色彩分量的无人机RGB影像信息提取方法。首先以饱和度分量和红光波段构造了饱和度与红光比值指数,再结合可见光波段差异植被指数以及由匹配点云获得的地形特征对研究区正射影像进行分类。试验结果表明,本文方法的总体分类精度达到了91.11%,Kappa系数为0.895,证明匹配点云结合HSI空间色彩分量的方法提取无人机RGB影像信息是可行的,提取结果具有较高精度。相较于基于光谱特征的传统方法,本文方法引入匹配点云可以简单高效地提取影像中高程差异明显的地物,同时,结合HSI色彩分量能够有效弥补无人机RGB影像光谱特征较少的不足。 相似文献
53.
基于迁移学习的葡萄叶片病害识别及移动端应用 总被引:7,自引:6,他引:1
为解决已有的卷积神经网络在小样本葡萄病害叶片识别的问题中出现的收敛速度慢,易产生过拟合现象等问题,提出了一种葡萄叶片病害识别模型(Grape-VGG-16,GV),并针对该模型提出基于迁移学习的模型训练方式。将VGG-16网络在ImageNet图像数据集上学习的知识迁移到本模型中,并设计全新的全连接层。对收集到的葡萄叶片图像使用数据增强技术扩充数据集。基于扩充前后的数据集,对全新学习、训练全连接层的迁移学习、训练最后一个卷积层和全连接层的迁移学习3种学习方式进行了试验。试验结果表明,1)迁移学习的2种训练方式相比于全新学习准确率增加了10~13个百分点,并在仅训练25轮达到收敛,该方法有效提升了模型分类性能,缩短模型的收敛时间;2)数据扩充有助于增加数据的多样性,并随着训练次数的增加,训练与测试准确率同步上升,有效缓解了过拟合现象。在迁移学习结合数据扩充的方式下,所构建的葡萄叶片病害识别模型(GV)对葡萄叶片病害的识别准确率能达到96.48%,对健康叶、褐斑病、轮斑病和黑腐病的识别准确率分别达到98.04%、98.04%、95.83%和94.00%。最后,将最终的研究模型部署到移动端,实现了田间葡萄叶片病害的智能检测,为葡萄病害的智能诊断提供参考。 相似文献
54.
基于GF-1和Sentinel-2时序数据的茶园识别 总被引:1,自引:1,他引:0
由于茶园大多分布在地形复杂的山区,地块破碎,分布零散,形状差异大、植被混杂且茶园所处环境长期受到云雨的影响,增加了茶园遥感识别的难度与不确定性,针对这一问题,该研究提出了利用高分1号(GF-1)和哨兵2号(Sentinel-2)时序数据提取茶园的方法,以浙江省武义县王宅镇为研究区,采用GF-1号为主要数据源,并利用MODIS地表反射率产品和Sentinel-2反射率数据,基于时空融合算法得到时间分辨率5 d的10 m Sentinel-2完整的时序数据。综合利用GF-1在空间细节方面的优势和重建的Sentinel-2高观测频率时序数据在反映茶树生长过程方面的优势,分别基于GF-1的光谱和纹理特征及GF-1的光谱、纹理特征和Sentinel-2时序特征两种特征组合方式,采用随机森林算法提取茶园。结果表明,GF-1光谱、纹理信息结合Sentinel-2时序信息分类结果的准确率、错误率、精确率、召回率和F1分数分别为96.91%、3.09%、89.00%、83.09%和0.86,仅基于GF-1光谱和纹理信息的分类准确率、错误率、精确率、召回率和F1分数分别为94.72%、5.28%、73.09%、84.61%和0.78,添加时序信息分类结果总体优于未添加时序信息的分类结果。表明高空间分辨率结合高频率时序遥感数据是提高茶园分类精度的有效手段。 相似文献
55.
针对复杂环境下柑橘果实大量重叠、枝叶遮挡且现有模型参数量大、计算复杂度高等问题,提出了一种基于改进YOLOv8n的柑橘识别模型YOLOv8-MEIN。首先,该研究设计了ME卷积模块并使用它改进YOLOv8n的C2f模块。其次,为了弥补CIoU损失函数在检测任务中泛化性弱和收敛速度慢的问题,使用Inner-CIoU损失函数加速边界框回归,提高模型检测性能。最后,在自建数据集上进行模型试验对比,试验结果表明,YOLOv8-MEIN模型交并比阈值为0.5的平均精度均值mAP0.5值为96.9%,召回率为91.7%,交并比阈值为0.5~0.95的平均精度均值mAP0.5~0.95值为85.8%,模型大小为5.8MB,参数量为2.87M。与原模型YOLOv8n相比,mAP0.5值、召回率、mAP0.5~0.95值分别提高了0.4、1.0、0.6个百分点,模型大小和参数量相比于原模型分别降低了3.3%和4.3%,为柑橘的自动化采摘提供技术参考。 相似文献
56.
为改善在农田环境下无人机图像计算速度和效率,该研究提出了一种农田环境下无人机图像并行拼接识别算法。利用倒二叉树并行拼接识别算法,通过提取图像拼接中的变换矩阵,实现拼接识别同时进行。根据边缘设备的CPU核心数和图像数量自动将图像拼接识别任务划分为多个子进程,并分配到不同核心上执行,以提高在农田环境下的计算效率。试验结果表明:相同试验环境和数据集条件下,倒二叉树并行拼接算法的拼接耗时相较于商业软件平均减少了60%~90%左右;在农田环境下,倒二叉树并行拼接识别相较于串行拼接识别的耗时减少了70%,图像识别的平均像素交并比提升了10.17个百分点,说明在农田环境下采用多线程倒二叉树并行算法可以更好地利用农田环境下边缘设备的计算资源,大幅提升无人机图像的拼接和识别的速度,为无人机的快速实时监测提供技术支撑。 相似文献
57.
基于融合坐标信息的改进YOLO V4模型识别奶牛面部 总被引:1,自引:2,他引:1
为实现奶牛个体的准确识别,基于YOLO V4目标检测网络,提出了一种融合坐标信息的奶牛面部识别模型。首先,采集71头奶牛面部图像数据集,并通过数据增强扩充提高模型的泛化性能。其次,在YOLO V4网络的特征提取层和检测头部分分别引入坐标注意力机制和包含坐标通道的坐标卷积模块,以增强模型对目标位置的敏感性,提高识别精度。试验结果表明,改进的YOLO V4模型能够有效提取奶牛个体面部特征,平均精度均值(mAP)为93.68%,平均帧率为18帧/s,虽然检测速度低于无锚框的CenterNet,但mAP提高了10.92%;与Faster R-CNN和SSD模型相比,在检测速度提高的同时,精度分别提高了1.51%和16.32%;与原始YOLO V4相比,mAP提高0.89%,同时检测速度基本不变。该研究为奶牛精准养殖中的牛脸图像识别提供了一种有效的技术支持。 相似文献
58.
受部分容积效应影响,土壤计算机断层扫描(Computed Tomography,CT)图像存在孔隙边界模糊现象,影响土壤孔隙结构研究的准确性。针对该问题,该研究提出基于序列信息的生成式对抗网络(Sequence information Generative Adversarial Network,SeqGAN),实现土壤CT图像的超分辨率重建。针对土壤CT序列图像具有较高相似性的特点,SeqGAN法引入序列卷积块挖掘前后图像的序列信息,并将多重特征增强融合于目标图像中;利用多层残差块提取图像特征,构建残差块输入和输出的直接连接,以减少模型退化;利用对抗网络实现损失间接反馈,提高模型的特征学习能力。在序列相似性较高的土壤图像数据集验证了该方法性能。结果表明,SeqGAN法均方误差比次优方法GAN降低25%,峰值信噪比提升1.4 dB,结构相似性提升0.2%。重建的土壤图像具有较高准确率和清晰度,可为后续土壤物理学研究提供准确的数据基础。 相似文献
59.
针对奶牛养殖场复杂环境下多目标奶牛嘴部自动跟踪及反刍监测的困难,该研究提出了一种基于嘴部区域跟踪的多目标奶牛反刍行为智能监测方法。在YOLOv4模型识别奶牛嘴部上下颚区域的基础上,以Kalman滤波和Hungarian算法跟踪上颚区域,并对同一奶牛目标的上颚和下颚区域进行关联匹配获取嘴部咀嚼曲线,以此获取反刍相关信息,从而实现多目标奶牛个体的嘴部跟踪和反刍行为监测;为解决奶牛快速摆头运动和棚舍栏杆遮挡引发奶牛标号变化的问题,提出未匹配跟踪框保持及扩大的方法。采集并选择实际养殖场环境下的反刍奶牛视频66段,对其中58段视频采取分帧操作得到图像,制作YOLOv4模型数据集,以其余8段视频验证跟踪方法和反刍行为判定方法的有效性。试验结果表明,YOLOv4模型对奶牛嘴部上颚、下颚区域的识别准确率分别为93.92%和92.46%;改进的跟踪算法可实现复杂环境下多目标奶牛嘴部区域的稳定跟踪,且有效解决了栏杆遮挡、快速摆头运动造成的奶牛标号变化现象,上下颚匹配率平均为99.89%,跟踪速度平均为31.85帧/s;由反刍行为判定方法获取的咀嚼次数正确率的平均值为96.93%,反刍时长误差的平均值为1.48 s。该研究可为实际养殖中多目标奶牛反刍行为的智能监测和分析提供参考,也可供其他群体动物运动部位的跟踪和行为监测借鉴。 相似文献
60.
为提高RGB(Red, Green, Blue)图像方法在检测植物叶片叶绿素含量的预测精度、普适性和实用性,该研究提出了一种智能手机结合辅助拍照装置获取植物叶片RGB图像并即时检测叶绿素含量的低成本方法。设计了一种内置主动光源的低成本便携式拍照装置,用以降低环境光及拍照角度等因素对成像质量的影响;并采用了基于24色Macbeth标准色卡的二阶多项式回归法构建色差校正矩阵以减小不同手机所获取图像的色差;最后开发了基于微信小程序的远程诊断系统以实现植物叶片叶绿素含量的原地、实时及无损检测。以甘蔗叶片为例,采用了3款不同品牌的手机进行了试验,首先分析了叶片39种颜色特征与其叶绿素含量的相关性及色差校正方法对其的影响。结果表明,该方法获取的叶片颜色特征与叶绿素含量大多具有较强的相关性(相关系数>0.8),同时,色差校正可明显提升多手机混合数据集的颜色特征与叶绿素含量的相关系数,其中RGB色彩空间下三个颜色通道亮度值R、G、B的代数运算特征(B-G-R)/(B+G)的提升最明显,达到了0.842 4,比校正前提高了89%。进一步结合主成分分析构建了色差校正前与色差校正后的叶绿素含量多元线性回归(Multivariate Linear Regression,MLR)和支持向量机回归(Support Vector Regression,SVR)预测模型。针对多手机混合数据集的通用预测模型中,色差校正后的SVR通用预测模型精度和稳定性最高,相比校正前的SVR通用预测模型,五折交叉验证的R2均值达到了0.721 4,提高了14.6%,RMSE均值为0.328 8 mg/g,降低了13.3%;同时,该模型五折交叉验证的R2标准差仅为0.004 2,具有更高的稳定性。该研究为不同手机准确预测植物叶片叶绿素含量提供了一种通用方法。 相似文献