首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   3852篇
  免费   211篇
  国内免费   1209篇
林业   475篇
农学   337篇
基础科学   835篇
  1435篇
综合类   1610篇
农作物   149篇
水产渔业   64篇
畜牧兽医   196篇
园艺   40篇
植物保护   131篇
  2024年   66篇
  2023年   165篇
  2022年   239篇
  2021年   284篇
  2020年   222篇
  2019年   220篇
  2018年   184篇
  2017年   262篇
  2016年   271篇
  2015年   238篇
  2014年   268篇
  2013年   284篇
  2012年   360篇
  2011年   308篇
  2010年   274篇
  2009年   229篇
  2008年   200篇
  2007年   257篇
  2006年   195篇
  2005年   183篇
  2004年   121篇
  2003年   96篇
  2002年   68篇
  2001年   43篇
  2000年   30篇
  1999年   35篇
  1998年   32篇
  1997年   14篇
  1996年   18篇
  1995年   11篇
  1994年   12篇
  1993年   20篇
  1992年   16篇
  1991年   12篇
  1990年   11篇
  1989年   8篇
  1988年   6篇
  1987年   2篇
  1984年   4篇
  1983年   1篇
  1982年   1篇
  1978年   1篇
  1962年   1篇
排序方式: 共有5272条查询结果,搜索用时 62 毫秒
41.
为解决玉米籽粒透射图像由于对比度较低造成内部组分提取不精确的问题,提出一种基于色彩通道非线性变换的多通道重叠区域分割方法,对玉米籽粒图像在灰度、R通道及b通道下得到的二值图像使用重叠区域原理,实现玉米籽粒组分的精确分割。首先,采集不同玉米品种的籽粒透射图像,提取单粒玉米籽粒;其次,采用多通道重叠区域法分割单粒籽粒图像,得到玉米籽粒胚部、角质胚乳和粉质胚乳3部分的图像;最后,以查全率和查准率评价多通道重叠区域法与传统图像分割方法对不同品种玉米籽粒的分割效果。不同品种玉米籽粒的分割试验表明:多通道重叠区域分割方法的查全率、查准率及综合评价指标均达到98%以上,分割效果优于传统的图像分割方法,能够实现不同品种透明角质玉米籽粒透射图像的精确组分分割。  相似文献   
42.
背景分割是分析葡萄干其他特征的基础。为此,经研究提出一种改进的迭代算法,用来获取葡萄干灰度图像阈值;基于RGB阈值法与亮度阈值法,对葡萄干进行背景分割后的图像分析比较,证明亮度阈值法能较好地进行葡萄干彩色图像背景分割,保存图像的颜色信息。  相似文献   
43.
利用数码相机获取棒材端面的图像,通过对图像格式转化、灰度化处理得到灰度图像,再进行平滑处理抑制噪声、锐化处理突出目标、选择合适的闻值转换为二值图像,然后进行形态学腐蚀操作去掉棒材之间的粘连,最终得到分割效果较好的图像,为后续棒材的计数奠定了基础。  相似文献   
44.
动态图像处理技术在农业工程中的应用   总被引:3,自引:0,他引:3  
近年来图像处理技术的应用已越来越广泛,如何将动态图像处理技术应用到农业工程对农业的自动化研究具有着重要意义:本文主要讨论了动态图像处理技术及其在农业丁程中的应用概况与未来展望,并对应用中存在的问题提出了几点思考与建议。  相似文献   
45.
随着我国经济的高速发展,板形控制已成为当今冶金业迫切需要解决的问题。为此,对用于农机制造的钢板板形图像拼接和特征提取过程中进行了图像预处理,利用图像本身的特点,进行了特征提取后的拼接算法研究,并针对准确和快速的特点,对几种算法进行了对比分析,给出了典型算法的计算机框图和算法选用的建议。  相似文献   
46.
地表秸秆覆盖度图像识别技术的研究   总被引:1,自引:0,他引:1  
农田地表秸秆覆盖是防止水土流失的一项主要措施,研究秸秆覆盖度与土壤风蚀、水蚀的定量关系对农田采取合理的覆盖形式有重要的指导意义。针对当前主要靠手工测试秸秆覆盖度存在效率低的问题,研究了如何应用MATLAB语言强大的图像处理功能来识别、分析秸秆图像。通过对样本图像类型的转换、灰度的均衡化和中值滤波等一系列的处理,得出较准确的秸秆覆盖面积和秸秆覆盖百分比,为准确快速测量秸秆覆盖度提供了测试手段。  相似文献   
47.
基于K均值聚类的厚壁组织区域自动提取   总被引:1,自引:0,他引:1  
桉树是我国南方的速生丰产林,区域提取是定量分析各种组织抑制桉树茎生根原因的重要前提。为此,介绍了基于K均值聚类的在桉树茎切片图像中自适应提取厚壁组织区域的图像处理技术。将桉树茎切片彩色图像转换为CIEL*a*b*彩色空间,用K均值聚类分析算法对描述颜色的a*和b*通道进行聚类分析,提取细胞厚壁,然后填充其中白色的细胞腔,构成完整的厚壁组织区域。实验结果表明,在CIEL*a*b*空间使用该算法可以获得较准确的实验结果。  相似文献   
48.
针对名优茶智能采摘中茶叶嫩梢识别精度不足的问题,该研究对YOLOv8n模型进行优化。首先,在主干网络中引入动态蛇形卷积(dynamic snake convolution,DSConv),增强模型对茶叶嫩梢形状信息的捕捉能力;其次,将颈部的路径聚合网络(path aggregation network,PANet)替换为加权双向特征金字塔网络(bi-directional feature pyramid network,BiFPN),强化模型的特征融合效能;最后,在颈部网络的每个C2F模块后增设了无参注意力模块(simple attention module,SimAM),提升模型对茶叶嫩梢的识别关注度。试验结果表明,改进后的模型比原始模型的精确率(precision,P)、召回率(recall,R)、平均精确率均值(mean average precision,mAP)、F1得分(F1 score,F1)分别提升了4.2、2.9、3.7和3.3个百分点,推理速度为42 帧/s,模型大小为6.7 MB,满足低算力移动设备的部署条件。与Faster-RCNN、YOLOv5n、YOLOv7n和YOLOv8n目标检测算法相比,该研究提出的改进模型精确率分别高出57.4、4.4、4.7和4.2个百分点,召回率分别高出53.0、3.6、2.8和2.9个百分点,平均精确率均值分别高出58.9、5.0、4.6和3.7个百分点,F1得分分别高出了56.8、3.9、3.7和3.3个百分点,在茶叶嫩梢检测任务中展现出了更高的精确度和更低的漏检率,能够为名优茶的智能采摘提供算法参考。  相似文献   
49.
为了解决因梭梭和红柳等宿主遮挡、样本分布密集、样本大小不均衡等造成人工种植肉苁蓉检测精度低以及模型参数量过大难以向嵌入式设备移植等问题,该研究提出一种基于改进YOLOv5s的人工种植肉苁蓉轻量化检测方法。首先,将YOLOv5s的主干网络替换为EfficientNetv2网络,以减少模型参数量和计算复杂度进而实现模型轻量化,便于后期将模型向嵌入式设备部署;其次,为了增强模型对小目标肉苁蓉特征信息的提取能力,将C3模块与Swin Transformer Block进行整合,得到C3STR模块,将其引入主干网络,并将其输出的特征图与Neck网络中的特征图进行融合;最后,在检测头前端与颈项加强网络之间添加CA注意力机制,以弱化背景信息、聚焦目标特征,提高网络检测性能。试验结果表明,该模型对于肉苁蓉的检测精度和准确率分别为89.8%和92.3%,模型的参数量和计算量分别为5.69×106 MB和6.8 GB,权重文件大小为11.9 MB,单幅图像推理时间为8.9 ms,能够实现实时性检测。同其他主流模型相比,改进后的模型的检测精度分别比SSD、Faster R-CNN、YO...  相似文献   
50.
为提高鱼类表型分割精度和准确度,实现鱼类表型智能监测,该研究基于深度学习算法构建了VED-SegNet模型用于鱼类表型分割和测量。该模型将cross stage partial network和GSConv结合作为编码器(VoV-GSCSP),保持足够精度的同时降低网络结构复杂性。另一方面,该模型采用EMA(efficient multi-scale attention module with cross-spatial learning)建立强化结构,加强编码器和解码器之间的信息传递,提高模型精度,并实现了8个表型类别的输出。采用自建的鱼类表型分割数据集对VED-SegNet模型进行了测试,测量结果中鱼类各表型比例与实际测量值相接近,表型最大平均绝对和平均相对误差为0.39%、11.28%,能实现无接触式提取水产养殖中鱼类表型比例。对比其他常见语义分割模型,平均交并比mean intersection over union,mIoU和平均像素准确率mean pixel accuracy,m PA最高,分别到达了87.92%、92.83%。VED-SegNet模型在环境复杂、多鱼重叠的...  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号