首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   2112篇
  免费   60篇
  国内免费   318篇
林业   83篇
农学   46篇
基础科学   1079篇
  347篇
综合类   640篇
农作物   24篇
水产渔业   41篇
畜牧兽医   188篇
园艺   31篇
植物保护   11篇
  2024年   58篇
  2023年   138篇
  2022年   169篇
  2021年   204篇
  2020年   169篇
  2019年   192篇
  2018年   38篇
  2017年   84篇
  2016年   83篇
  2015年   70篇
  2014年   104篇
  2013年   86篇
  2012年   117篇
  2011年   106篇
  2010年   97篇
  2009年   115篇
  2008年   112篇
  2007年   105篇
  2006年   71篇
  2005年   88篇
  2004年   65篇
  2003年   50篇
  2002年   16篇
  2001年   35篇
  2000年   18篇
  1999年   11篇
  1998年   7篇
  1997年   14篇
  1996年   4篇
  1995年   9篇
  1994年   6篇
  1993年   4篇
  1992年   9篇
  1991年   4篇
  1990年   6篇
  1989年   7篇
  1988年   1篇
  1986年   2篇
  1985年   2篇
  1982年   3篇
  1981年   2篇
  1980年   1篇
  1979年   1篇
  1978年   1篇
  1975年   1篇
  1974年   1篇
  1957年   4篇
排序方式: 共有2490条查询结果,搜索用时 15 毫秒
31.
果实表型数据高通量、自动获取是果树新品种育种研究的基础,实现幼果精准检测是获取生长数据的关键。幼果期果实微小且与叶片颜色相近,检测难度大。为了实现自然环境下苹果幼果的高效检测,采用融合挤压激发块(Squeeze-and-Excitation block, SE block)和非局部块(Non-Local block, NL block)两种视觉注意机制,提出了一种改进的YOLOv4网络模型(YOLOv4-SENL)。YOLOv4模型的骨干网络提取高级视觉特征后,利用SE block在通道维度整合高级特征,实现通道信息的加强。在模型改进路径聚合网络(Path Aggregation Network, PAN)的3个路径中加入NL block,结合非局部信息与局部信息增强特征。SE block和NL block两种视觉注意机制从通道和非局部两个方面重新整合高级特征,强调特征中的通道信息和长程依赖,提高网络对背景与果实的特征捕捉能力。最后由不同尺寸的特征图实现不同大小幼果的坐标和类别计算。经过1 920幅训练集图像训练,网络在600幅测试集上的平均精度为96.9%,分别比SSD、Faster R-CNN和YOLOv4模型的平均精度提高了6.9百分点、1.5百分点和0.2百分点,表明该算法可准确地实现幼果期苹果目标检测。模型在480幅验证集的消融试验结果表明,仅保留YOLOv4-SENL中的SE block比YOLOv4模型精度提高了3.8百分点;仅保留YOLOv4-SENL中3个NL block视觉注意模块比YOLOv4模型的精度提高了2.7百分点;将YOLOv4-SENL中SE block与NL blocks相换,比YOLOv4模型的精度提高了4.1百分点,表明两种视觉注意机制可在增加少量参数的基础上显著提升网络对苹果幼果的感知能力。该研究结果可为果树育种研究获取果实信息提供参考。  相似文献   
32.
基于轻量级神经网络MobileNetV3-Small的鲈鱼摄食状态分类   总被引:1,自引:1,他引:0  
在集约化水产养殖过程中,饲料投喂是控制养殖成本,提高养殖效率的关键。室外环境复杂多变且难以控制,适用于此环境的移动设备计算能力较弱,通过识别鱼类摄食状态实现智能投喂仍存在困难。针对此种现象,该研究选取了轻量级神经网络MobileNetV3-Small对鲈鱼摄食状态进行分类。通过水上摄像机采集水面鲈鱼进食图像,根据鲈鱼进食规律选取每轮投喂后第80~110秒的图片建立数据集,经训练后的MobileNetV3-Small网络模型在测试集的准确率达到99.60%,召回率为99.40%,精准率为99.80%,F1分数为99.60%。通过与ResNet-18, ShuffleNetV2和MobileNetV3-Large深度学习模型相比,MobileNetV3-Small模型的计算量最小为582 M,平均分类速率最大为39.21帧/s。与传统机器学习模型KNN(K-Nearest Neighbors)、SVM(Support Vector Machine)、GBDT(Gradient Boosting Decision Tree)和Stacking相比,MobileNetV3-Small模型的综合准确率高出12.74、23.85、3.60和2.78个百分点。为进一步验证该模型有效性,在室外真实养殖环境进行投喂试验。结果显示,与人工投喂相比,基于该分类模型决策的鲈鱼投喂方式的饵料系数为1.42,质量增加率为5.56%。在室外真实养殖环境下,MobileNetV3-Small模型对鲈鱼摄食状态有较好的分类效果,基于该分类模型决策的鲈鱼投喂方式在一定程度上能够代替养殖人员进行决策,为室外集约化养殖环境下的高效智能投喂提供了参考。  相似文献   
33.
针对奶牛养殖场复杂环境下多目标奶牛嘴部自动跟踪及反刍监测困难的情况,该研究提出了一种基于嘴部区域跟踪的多目标奶牛反刍行为智能监测方法。在YOLOv4模型识别奶牛嘴部上下颚区域的基础上,以Kalman滤波和Hungarian算法跟踪上颚区域,并对同一奶牛目标的上颚和下颚区域进行关联匹配获取嘴部咀嚼曲线,以此获取反刍相关信息,从而实现多目标奶牛个体的嘴部跟踪和反刍行为监测;为解决奶牛快速摆头运动和棚舍栏杆遮挡引发奶牛标号变化的问题,提出未匹配跟踪框保持及扩大的方法。采集并选择实际养殖场环境下的反刍奶牛视频66段,对其中58段视频采取分帧操作得到图像,制作YOLOv4模型数据集,以其余8段视频验证跟踪方法和反刍行为判定方法的有效性。试验结果表明,YOLOv4模型对奶牛嘴部上颚、下颚区域的识别准确率分别为93.92%和92.46%;改进的跟踪算法可实现复杂环境下多目标奶牛嘴部区域的稳定跟踪,且有效解决了栏杆遮挡、快速摆头运动造成的奶牛标号变化现象,上下颚匹配率平均为99.89%,跟踪速度平均为31.85帧/s;由反刍行为判定方法获取的咀嚼次数正确率的平均值为96.93%,反刍时长误差的平均值为1.48 s。该研究可为实际养殖中多目标奶牛反刍行为的智能监测和分析提供参考,也可供其他群体动物运动部位的跟踪和行为监测借鉴。  相似文献   
34.
为提高诱虫板图像蔬菜害虫检测精度,针对背景区域容易导致误检的问题基于显著图分析技术构建了一种注意力深度网络害虫智能视觉检测方法。首先通过显著图筛选出粗候选区域;然后在粗候选区域内用全卷积神经网络精选出细候选区域;接着用神经网络分类器识别细候选区域害虫种类,得到含有冗余的若干检测框;最后用改进的非极大值抑制消除冗余检测框,实现诱虫板图像中目标害虫的检测。针对小菜蛾和瓜实蝇展开试验,获得86.40%的平均精度均值和0.111只的平均绝对计数误差均值,所提方法平均精度均值比Faster R-CNN和YOLOv4分别高2.74和1.56个百分点,平均绝对计数误差均值比Faster R-CNN和YOLOv4分别低0.006和0.003只;同时,消融试验中移除显著图注意力模块后平均精度均值下降了4个百分点、平均绝对计数误差均值增加了0.207只。试验结果表明,所提方法有效提高了诱虫板图像蔬菜害虫检测精度,其中,引入显著图注意力模块对提升检测精度有重要作用。  相似文献   
35.
缺株玉米行中心线提取算法研究   总被引:1,自引:1,他引:0  
无人驾驶农机自主进行行驶路径检测和识别系统需要具备环境感知能力。作物行的中心线识别是环境感知的一个重要方面,已有的作物行中心线识别算法在缺株作物行中心线提取中存在检测精度低的问题。该研究提出了一种能够在缺株情况下提取玉米作物行中心线的算法。首先采用限定HSV颜色空间中颜色分量范围的方法将作物与背景分割,通过形态学处理对图像进行去噪并填补作物行空洞;然后分别在图像底部和中部的横向位置设置条状感兴趣区(Region of Interest,ROI),提取ROI内的作物行轮廓重心作为定位点。在图像顶端间隔固定步长设置上端点,利用定位点和上端点组成的扫描线扫描图像,通过作物行区域最多的扫描线即为对应目标作物行的最优线;将获取的最优线与作物行区域进行融合填充作物行中的缺株部位;最后设置动态ROI,作物行区域内面积最大轮廓拟合的直线即为目标作物行中心线。试验结果表明,对于不同缺株情况下的玉米图像,该算法的平均准确率达到84.2%,每帧图像的平均检测时间为0.092 s。该研究算法可提高缺株情况下的作物行中心线识别率,具有鲁棒性强、准确度高的特点,可为无人驾驶农机在作物行缺株的农田环境下进行作业提供理论依据。  相似文献   
36.
基于双目视觉的香蕉园巡检机器人导航路径提取方法   总被引:3,自引:3,他引:0  
为实现移动机器人香蕉园巡检自动导航,研究提出了一种基于双目视觉的香蕉园巡检路径提取方法。首先由机器人搭载的双目相机获取机器人前方点云,进行预处理后对点云感兴趣区域进行二维投影并将投影结果网格化,得到网格地图;然后采用改进的K-means算法将道路两侧香蕉树分离,其中初始聚类中心通过对网格地图进行垂直、水平投影以及一、二阶高斯拟合确定;最后基于最小包围矩形提取导航路径,将道路两侧网格以最小矩形框包围,提取两包围框中间线作为期望导航路径。测试结果表明,改进的K-means算法聚类成功率为93%,较传统方法提高了12个百分点;导航路径提取平均横向偏差为14.27 cm,平均航向偏差为4.83°,研究方法可为香蕉园巡检机器人自动导航提供支持。  相似文献   
37.
采用改进YoloV4模型检测复杂环境下马铃薯   总被引:7,自引:6,他引:1  
为解决马铃薯联合收获机在作业过程中分级清选的问题,并在收获作业过程中实时监测评估收获状态,该研究提出一种在光照亮度变化大、土壤与薯块遮挡、机器振动以及尘土干扰等情况下对马玲薯进行识别检测并快速准确获取马铃薯数量以及损伤情况的机器学习模型。在卷积神经残差网络中引入轻量级注意力机制,改进YoloV4检测网络,并将YoloV4结构中的CSP-Darknet53网络替换为MobilenetV3网络,完成特征提取。试验结果表明,基于卷积神经网络的深度学习方法相比于传统Open-CV识别提高了马铃薯识别精度,相比于其他传统机器学习模型,MobilenetV3-YoloV4识别速度更快,马铃薯识别的全类平均准确率达到91.4%,在嵌入式设备上的传输速度为23.01帧/s,模型鲁棒性强,能够在各种环境下完成对正常马铃薯和机械损伤马铃薯的目标检测,可为马铃薯联合收获机智能清选以及智能收获提供技术支撑。  相似文献   
38.
注意力与多尺度特征融合的水培芥蓝花蕾检测   总被引:4,自引:3,他引:1  
准确辨识水培芥蓝花蕾特征是区分其成熟度,实现及时采收的关键。该研究针对自然环境下不同品种与成熟度的水培芥蓝花蕾外形与尺度差异大、花蕾颜色与茎叶相近等问题,提出一种注意力与多尺度特征融合的Faster R-CNN水培芥蓝花蕾分类检测模型。采用InceptionV3的前37层作为基础特征提取网络,在其ReductionA、InceptionA和InceptionB模块后分别嵌入SENet模块,将基础特征提取网络的第2组至第4组卷积特征图通过FPN特征金字塔网络层分别进行叠加后作为特征图输出,依据花蕾目标框尺寸统计结果在各FPN特征图上设计不同锚点尺寸。对绿宝芥蓝、香港白花芥蓝及两个品种的混合数据集测试的平均精度均值mAP最高为96.5%,最低为95.9%,表明模型能实现不同品种水培芥蓝高准确率检测。消融试验结果表明,基础特征提取网络引入SENet或FPN模块对不同成熟度花蕾的检测准确率均有提升作用,同时融合SENet模块和FPN模块对未成熟花蕾检测的平均准确率AP为92.3%,对成熟花蕾检测的AP为98.2%,对过成熟花蕾检测的AP为97.9%,不同成熟度花蕾检测的平均准确率均值mAP为96.1%,表明模型设计合理,能充分发挥各模块的优势。相比VGG16、ResNet50、ResNet101和InceptionV3网络,模型对不同成熟度花蕾检测的mAP分别提高了10.8%、8.3%、 6.9%和12.7%,检测性能具有较大提升。在召回率为80%时,模型对不同成熟度水培芥蓝花蕾检测的准确率均能保持在90%以上,具有较高的鲁棒性。该研究结果可为确定水培芥蓝采收期提供依据。  相似文献   
39.
电气自动化技术是现代科学技术发展到一定阶段的产物,而随着科学技术的不断发展,电气自动化人工智能技术也得到了应用和发展,将人工智能技术融入电气自动化控制中,不但可以提高企业生产运行效率,而且智能自动化的实现可以有效提高电气控制的精确性,降低人工操作带来的失误,同时还能有效节约生产成本.为此,结合工作经验,就人工智能技术如...  相似文献   
40.
[目的 /意义]分析人工智能领域国际之间的合作情况及技术交流现状,为中国布局人工智能领域提供一些参考。[方法 /过程]以人工智能领域专利为研究对象,运用技术组合分析法和社会网络分析法予以系统分析。分别从技术组合、合作网络以及合作影响力3个方面分析人工智能领域的国际合作特征。[结果 /结论]发现遍布全球的国家/地区纷纷布局人工智能技术子领域及应用领域,并拥有非常相似的技术分布;参与国际合作的国家/地区间构成了紧密的合作集群;3个维度的综合影响力研究表明,66个国际合作国家/地区形成了强、稳定、边缘、保守、垄断以及弱合作6种主要合作类型。文末对中国提升国际影响力、加紧人工智能布局提出一些建议。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号