全文获取类型
收费全文 | 11674篇 |
免费 | 1445篇 |
国内免费 | 1261篇 |
专业分类
林业 | 598篇 |
农学 | 954篇 |
基础科学 | 2940篇 |
2720篇 | |
综合类 | 4969篇 |
农作物 | 610篇 |
水产渔业 | 144篇 |
畜牧兽医 | 377篇 |
园艺 | 170篇 |
植物保护 | 898篇 |
出版年
2024年 | 55篇 |
2023年 | 347篇 |
2022年 | 527篇 |
2021年 | 541篇 |
2020年 | 554篇 |
2019年 | 632篇 |
2018年 | 339篇 |
2017年 | 587篇 |
2016年 | 739篇 |
2015年 | 580篇 |
2014年 | 673篇 |
2013年 | 760篇 |
2012年 | 961篇 |
2011年 | 817篇 |
2010年 | 618篇 |
2009年 | 739篇 |
2008年 | 506篇 |
2007年 | 666篇 |
2006年 | 577篇 |
2005年 | 449篇 |
2004年 | 360篇 |
2003年 | 330篇 |
2002年 | 234篇 |
2001年 | 232篇 |
2000年 | 185篇 |
1999年 | 163篇 |
1998年 | 172篇 |
1997年 | 154篇 |
1996年 | 136篇 |
1995年 | 125篇 |
1994年 | 117篇 |
1993年 | 123篇 |
1992年 | 92篇 |
1991年 | 78篇 |
1990年 | 61篇 |
1989年 | 51篇 |
1988年 | 34篇 |
1987年 | 20篇 |
1986年 | 11篇 |
1985年 | 5篇 |
1984年 | 9篇 |
1983年 | 3篇 |
1982年 | 1篇 |
1981年 | 2篇 |
1980年 | 2篇 |
1979年 | 3篇 |
1978年 | 4篇 |
1977年 | 3篇 |
1976年 | 1篇 |
1955年 | 2篇 |
排序方式: 共有10000条查询结果,搜索用时 78 毫秒
1.
为满足大蒜定向播种的农艺要求,针对现有大蒜鳞芽调整方法对杂交蒜适应性差的问题,该研究设计了一种基于Jetson Nano处理器的大蒜鳞芽朝向自动调整装置。采用双卷积神经网络模型结构,其中一个神经网络模型对大蒜是否被喂入进行实时监测,检测到大蒜喂入调整装置后,一个ResNet-18网络模型对蒜种鳞芽朝向进行判断,当鳞芽朝上时大蒜鳞芽调整机构打开Y型料斗使大蒜以鳞芽朝上的姿态直接落下,当鳞芽朝下时大蒜鳞芽调整机构翻转180°带动大蒜一起翻转后以鳞芽朝上的姿态落下,实现大蒜鳞芽朝向实时调整。神经网络模型推理及舵机控制采用英伟达边缘计算处理器Jetson Nano进行处理。利用离散元分析软件EDEM结合正交试验方法对调整装置的关键结构参数进行优化,并以杂交大蒜为试验对象进行台架试验,试验结果表明:大蒜鳞芽调整成功率为96.25%,模型推理时间0.045 s,平均每粒大蒜调整时间为0.785 s,满足大蒜播种机播种要求。该文研究结果可为解决杂交大蒜直立播种问题及边缘计算在精密播种设备中的应用提供有益参考。 相似文献
2.
结合Sentinel-2影像和特征优选模型提取大豆种植区 总被引:6,自引:6,他引:0
准确获取大豆的空间分布对于产量估计、灾害预警和农业政策调整具有重要意义,目前针对种植结构复杂地区所开展的大豆遥感识别研究鲜有报道。该研究以安徽省北部平原的典型大豆产区——龙山、青疃镇为研究区,基于Sentinel-2数据提出一种分层逐级提取策略的大豆识别方法。该方法首先构建决策树筛选规则,剔除研究区内非农田地物,获得田间植被的总体分布;然后生成19个候选特征因子,包括分辨率小于等于20 m的10个波段反射率以及9个植被指数。在典型地物类型样本的支持下,将ReliefF特征权重评估算法与随机森林(RandomForest,RF),BP神经网络(Back-Propagation Neural Network,BPNN)和支持向量机(Support Vector Machine, SVM)相结合,分别构建ReliefF-RF、ReliefF-BPNN、ReliefF-SVM三种组合模型筛选出对于大豆识别最有效的特征,并基于布设在研究区内6个样方(大小为1 km×1 km)的无人机影像提取得到的大豆分布来评估3种模型在大豆制图中的表现。结果表明,ReliefF-RF模型表现最佳,基于该模型筛选出7个优选特征因子,大豆制图的总体精度介于85.92%~91.91%,Kappa系数在0.72~0.81之间,各个样方的提取效果均优于其他两种模型。此外,基于优选特征达到的提取精度明显高于原始波段反射率,虽然略低于全部19个特征的结果,但是数据量降低了63.16%。该研究可以为农田景观破碎、种植结构复杂地区的大豆种植区提取相关研究提供有价值的参考和借鉴。 相似文献
3.
最小二乘法与SVM组合的林果行间自主导航方法 总被引:1,自引:1,他引:0
为了提高作业装备在果园与树林行间的自主导航性能,该研究提出一种基于最小二乘法与支持向量机(Support Vector Machine,SVM)融合的树行识别与导航方法。研究采用履带式小型喷雾机为作业平台,通过低成本的单线激光雷达获取果园或树林环境点云数据,融合姿态传感器进行数据校正,利用最小二乘法拟合识别树行,结合SVM算法,预测果园行间中心线,作为作业平台的参考导航线。在桃园、柑橘园、松树林3种不同的行间环境对导航算法进行了测试验证,并以松树林导航为例进行分析。试验结果表明:该导航算法最大横向偏差为107.7 mm,横向偏差绝对平均值不超过17.8 mm,结合作业平台的行驶轨迹,说明该导航算法能够保证作业平台沿树行行间中心线自主导航行驶,能够满足作业装备在果园与树林行间自主导航作业的需求。 相似文献
4.
果实表型数据高通量、自动获取是果树新品种育种研究的基础,实现幼果精准检测是获取生长数据的关键。幼果期果实微小且与叶片颜色相近,检测难度大。为了实现自然环境下苹果幼果的高效检测,采用融合挤压激发块(Squeeze-and-Excitation block, SE block)和非局部块(Non-Local block, NL block)两种视觉注意机制,提出了一种改进的YOLOv4网络模型(YOLOv4-SENL)。YOLOv4模型的骨干网络提取高级视觉特征后,利用SE block在通道维度整合高级特征,实现通道信息的加强。在模型改进路径聚合网络(Path Aggregation Network, PAN)的3个路径中加入NL block,结合非局部信息与局部信息增强特征。SE block和NL block两种视觉注意机制从通道和非局部两个方面重新整合高级特征,强调特征中的通道信息和长程依赖,提高网络对背景与果实的特征捕捉能力。最后由不同尺寸的特征图实现不同大小幼果的坐标和类别计算。经过1 920幅训练集图像训练,网络在600幅测试集上的平均精度为96.9%,分别比SSD、Faster R-CNN和YOLOv4模型的平均精度提高了6.9百分点、1.5百分点和0.2百分点,表明该算法可准确地实现幼果期苹果目标检测。模型在480幅验证集的消融试验结果表明,仅保留YOLOv4-SENL中的SE block比YOLOv4模型精度提高了3.8百分点;仅保留YOLOv4-SENL中3个NL block视觉注意模块比YOLOv4模型的精度提高了2.7百分点;将YOLOv4-SENL中SE block与NL blocks相换,比YOLOv4模型的精度提高了4.1百分点,表明两种视觉注意机制可在增加少量参数的基础上显著提升网络对苹果幼果的感知能力。该研究结果可为果树育种研究获取果实信息提供参考。 相似文献
5.
基于机器学习的棉花叶面积指数监测 总被引:2,自引:1,他引:1
为实现基于机器学习和无人机高光谱影像进行棉花全生育期叶面积指数(Leaf Area Index, LAI)监测,该研究基于大田种植滴灌棉花,在不同品种及不同施氮处理的小区试验基础上,对无人机获取的高光谱数据分别采用一阶导(First Derivative, FDR)、二阶导(Second Derivative, SDR)、SG(Savitzky-Golay)平滑和多元散射校正(Multiplicative Scatter Correction, MSC)进行预处理,并结合Pearson相关系数法、连续投影(Successive Projections Algorithm, SPA)、随机蛙跳(Shuffled Frog Leaping Algorithm, SFLA)和竞争性自适应重加权(Competitive Adaptive Reweighting, CARS)筛选敏感波段,将筛选出的波段,使用偏最小二乘回归(Partial Least Squares Regression, PLSR)、支持向量回归(Support Vector Regression, SVR)和随机森林回归(Random Forest Regression, RFR)3种机器学习算法构建棉花LAI监测模型。结果表明:棉花冠层LAI敏感响应波段集中在可见光(400~780 nm)和近红外(900 nm之后)波段;对比3种机器学习算法,各预处理下RFR建立的LAI监测模型精度最高,稳定性最好,其中以FDR-SFLA-RFR模型最佳,在建模集的决定系数为0.74,均方根误差为1.648 3,相对均方根误差为26.39%;验证集的决定系数、均方根误差分别为0.67和1.622 0,相对均方根误差为25.97%。该研究基于无人机获取的棉花冠层光谱反射率,从不同光谱预处理、波段筛选及建模方法建立的模型中筛选出最佳估算模型用于棉花全生育期LAI监测,研究结果可为棉花大田精准管理及变量施肥提供依据。 相似文献
6.
为满足自主作业农机地头转弯的需求,解决单传感器检测获取信息不足的问题,该研究提出了将相机与毫米波雷达所获取数据融合的多传感前方田埂检测方案,利用视觉检测得到田埂形状后辅助滤除毫米波雷达中干扰点进而得到田埂的距离和高度信息。在视觉检测方面,根据前方田埂在图像中的分布特点,提出了基于渐变重采样选取部分点的加速处理方式,并在此基础上利用基于11维颜色纹理特征的支持向量机进行图像分割和基于等宽假设的几何模型特征进行误分类点剔除,然后拟合提取图像中田埂边界。在毫米波雷达检测方面,提出了竖直放置毫米波雷达的检测方式,以克服安装高度与地形颠簸的影响,并获得前方田埂的高度信息。将相机与毫米波雷达获取的数据进行时空对齐后,利用视觉检测结果滤除毫米波雷达干扰点,并将毫米波雷达获得的单点距离信息进行扩展,形成维度上的数据互补,获得前方田埂的形状、距离、高度等更加丰富准确的信息。测试结果表明,在Nvidia Jetson TX2主控制器上,基于视觉的检测平均用时40.83 ms,准确率95.67%,平均角度偏差0.67°,平均偏移量检测偏差2.69%;基于融合算法的检测平均距离检测偏差0.11 m,距离检测标准差6.93 cm,平均高度检测偏差0.13 m,高度检测标准差0.19 m,可以满足自主作业农机的实时性与准确性要求。 相似文献
7.
定甩刀防缠式香蕉秸秆粉碎还田机设计与试验 总被引:1,自引:1,他引:0
针对香蕉秸秆粉碎机具缠绕造成秸秆粉碎率不达标等问题,该研究设计了一种定甩刀防缠式香蕉秸秆粉碎还田机。在粉碎过程中,粉碎定刀与高速运转中的Y型甩刀对香蕉秸秆形成三点支撑,进而实现秸秆粉碎与避免秸秆缠绕。其中,Y型甩刀由2个L型刀片组合的Y型粉碎刀与甩刀构成。确定了各关键部件的结构参数、动定刀排列组合方式及香蕉秸秆粉碎过程受力分析,明确了影响粉碎效果的主要因素为机具前进速度、粉碎刀辊转速以及Y型甩刀折弯角。以前进速度、刀辊转速和甩刀折弯角为试验因素,以香蕉秸秆粉碎合格率和抛撒不均匀度为评价指标,进行三水平三因素正交田间试验,确定优化参数组合为前进速度1.85 m/s,刀辊转速1 500 r/min,Y型甩刀片折弯角140°,此时香蕉秸秆粉碎合格率为95.1%,抛撒不均匀度为14.6%,满足香蕉秸秆粉碎作业性能要求。与已有秸秆粉碎机进行性能对比试验,结果表明,该研究研制的定甩刀防缠式香蕉秸秆粉碎还田机秸秆粉碎合格率提高了1.7个百分点,防缠性能更优。该机具的研制对解决蕉区秸秆粉碎还田关键技术问题具有重要意义和应用价值。 相似文献
8.
缺株玉米行中心线提取算法研究 总被引:1,自引:1,他引:0
无人驾驶农机自主进行行驶路径检测和识别系统需要具备环境感知能力。作物行的中心线识别是环境感知的一个重要方面,已有的作物行中心线识别算法在缺株作物行中心线提取中存在检测精度低的问题。该研究提出了一种能够在缺株情况下提取玉米作物行中心线的算法。首先采用限定HSV颜色空间中颜色分量范围的方法将作物与背景分割,通过形态学处理对图像进行去噪并填补作物行空洞;然后分别在图像底部和中部的横向位置设置条状感兴趣区(Region of Interest,ROI),提取ROI内的作物行轮廓重心作为定位点。在图像顶端间隔固定步长设置上端点,利用定位点和上端点组成的扫描线扫描图像,通过作物行区域最多的扫描线即为对应目标作物行的最优线;将获取的最优线与作物行区域进行融合填充作物行中的缺株部位;最后设置动态ROI,作物行区域内面积最大轮廓拟合的直线即为目标作物行中心线。试验结果表明,对于不同缺株情况下的玉米图像,该算法的平均准确率达到84.2%,每帧图像的平均检测时间为0.092 s。该研究算法可提高缺株情况下的作物行中心线识别率,具有鲁棒性强、准确度高的特点,可为无人驾驶农机在作物行缺株的农田环境下进行作业提供理论依据。 相似文献
9.
利用Kalman滤波和Hungarian算法的多目标奶牛嘴部跟踪及反刍监测 总被引:1,自引:1,他引:0
针对奶牛养殖场复杂环境下多目标奶牛嘴部自动跟踪及反刍监测的困难,该研究提出了一种基于嘴部区域跟踪的多目标奶牛反刍行为智能监测方法。在YOLOv4模型识别奶牛嘴部上下颚区域的基础上,以Kalman滤波和Hungarian算法跟踪上颚区域,并对同一奶牛目标的上颚和下颚区域进行关联匹配获取嘴部咀嚼曲线,以此获取反刍相关信息,从而实现多目标奶牛个体的嘴部跟踪和反刍行为监测;为解决奶牛快速摆头运动和棚舍栏杆遮挡引发奶牛标号变化的问题,提出未匹配跟踪框保持及扩大的方法。采集并选择实际养殖场环境下的反刍奶牛视频66段,对其中58段视频采取分帧操作得到图像,制作YOLOv4模型数据集,以其余8段视频验证跟踪方法和反刍行为判定方法的有效性。试验结果表明,YOLOv4模型对奶牛嘴部上颚、下颚区域的识别准确率分别为93.92%和92.46%;改进的跟踪算法可实现复杂环境下多目标奶牛嘴部区域的稳定跟踪,且有效解决了栏杆遮挡、快速摆头运动造成的奶牛标号变化现象,上下颚匹配率平均为99.89%,跟踪速度平均为31.85帧/s;由反刍行为判定方法获取的咀嚼次数正确率的平均值为96.93%,反刍时长误差的平均值为1.48 s。该研究可为实际养殖中多目标奶牛反刍行为的智能监测和分析提供参考,也可供其他群体动物运动部位的跟踪和行为监测借鉴。 相似文献
10.
为提高诱虫板图像蔬菜害虫检测精度,针对背景区域容易导致误检的问题基于显著图分析技术构建了一种注意力深度网络害虫智能视觉检测方法。首先通过显著图筛选出粗候选区域;然后在粗候选区域内用全卷积神经网络精选出细候选区域;接着用神经网络分类器识别细候选区域害虫种类,得到含有冗余的若干检测框;最后用改进的非极大值抑制消除冗余检测框,实现诱虫板图像中目标害虫的检测。针对小菜蛾和瓜实蝇展开试验,获得86.4%的平均精度均值和0.111只的平均绝对计数误差均值,所提方法平均精度均值比Faster R-CNN和YOLOv4分别高2.74和1.56个百分点,平均绝对计数误差均值比Faster R-CNN和YOLOv4分别低0.006和0.003只;同时,消融试验中移除显著图注意力模块后平均精度均值下降了4个百分点、平均绝对计数误差均值增加了0.207只。试验结果表明,所提方法有效提高了诱虫板图像蔬菜害虫检测精度,其中,引入显著图注意力模块对提升检测精度有重要作用。 相似文献