全文获取类型
收费全文 | 2484篇 |
免费 | 89篇 |
国内免费 | 462篇 |
专业分类
林业 | 194篇 |
农学 | 50篇 |
基础科学 | 1096篇 |
476篇 | |
综合类 | 759篇 |
农作物 | 106篇 |
水产渔业 | 44篇 |
畜牧兽医 | 176篇 |
园艺 | 119篇 |
植物保护 | 15篇 |
出版年
2024年 | 74篇 |
2023年 | 153篇 |
2022年 | 188篇 |
2021年 | 185篇 |
2020年 | 176篇 |
2019年 | 161篇 |
2018年 | 59篇 |
2017年 | 189篇 |
2016年 | 164篇 |
2015年 | 112篇 |
2014年 | 152篇 |
2013年 | 124篇 |
2012年 | 156篇 |
2011年 | 120篇 |
2010年 | 155篇 |
2009年 | 163篇 |
2008年 | 127篇 |
2007年 | 106篇 |
2006年 | 87篇 |
2005年 | 104篇 |
2004年 | 66篇 |
2003年 | 46篇 |
2002年 | 34篇 |
2001年 | 37篇 |
2000年 | 27篇 |
1999年 | 17篇 |
1998年 | 14篇 |
1997年 | 10篇 |
1996年 | 7篇 |
1995年 | 11篇 |
1994年 | 4篇 |
1993年 | 2篇 |
1992年 | 1篇 |
1991年 | 1篇 |
1990年 | 1篇 |
1980年 | 1篇 |
1979年 | 1篇 |
排序方式: 共有3035条查询结果,搜索用时 15 毫秒
81.
采用改进CenterNet模型检测群养生猪目标 总被引:5,自引:4,他引:1
为实现对群养环境下生猪个体目标快速精准的检测,该研究提出了一种针对群养生猪的改进型目标检测网络MF-CenterNet(MobileNet-FPN-CenterNet)模型,为确保目标检测的精确度,该模型首先以无锚式的CenterNet为基础结构,通过引入轻量级的MobileNet网络作为模型特征提取网络,以降低模型大小和提高检测速度,同时加入特征金字塔结构FPN(Feature Pyramid Networks)以提高模型特征提取能力,在保证模型轻量化、实时性的同时,提高遮挡目标和小目标的检测精度。该研究以某商业猪场群养生猪录制视频作为数据源,采集视频帧1 683张,经图像增强后共得到6 732张图像。试验结果表明,MF-CenterNet模型大小仅为21 MB,满足边缘计算端的部署,同时对生猪目标检测平均精确度达到94.30%,检测速度达到69 帧/s,相较于Faster-RCNN、SSD、YOLOv3、YOLOv4目标检测网络模型,检测精度分别提高了6.39%、4.46%、6.01%、2.74%,检测速度分别提高了54、47、45、43 帧/s,相关结果表明了该研究所提出的改进型的轻量级MF-CenterNet模型,能够在满足目标检测实时性的同时提高了对群养生猪的检测精度,为生产现场端的群养生猪行为实时检测与分析提供了有效方法。 相似文献
82.
环境信息感知是智能农业装备系统自主导航作业的关键技术之一。农业田间道路复杂多变,快速准确地识别可通行区域,辨析障碍物类别,可为农业装备系统高效安全地进行路径规划和决策控制提供依据。该研究以非结构化农业田间道路场景为研究对象,根据环境对象动、静态属性进行类别划分,提出一种基于通道注意力结合多尺度特征融合的轻量化语义分割模型。首先采用Mobilenet V2轻量卷积神经网络提取图像特征,将混合扩张卷积融入特征提取网络最后2个阶段,在保证特征图分辨率的基础上增加感受野并保持信息的连续性与完整性;然后引入通道注意力模块对特征提取网络各阶段特征通道依据重要程度重新标定;最后通过空间金字塔池化模块将多尺度池化特征进行融合,获取更加有效的全局场景上下文信息,增强对复杂道路场景识别的准确性。语义分割试验表明,不同道路环境下本文模型可以对场景对象进行有效识别解析,像素准确率和平均像素准确率分别为94.85%、90.38%,具有准确率高、鲁棒性强的特点。基于相同测试集将本文模型与FCN-8S、SegNet、DeeplabV3+、BiseNet模型进行对比试验,本文模型的平均区域重合度为85.51%,检测速度达到8.19帧/s,参数数量为,相比于其他模型具有准确性高、推理速度快、参数量小等优点,能够较好地实现精度与速度的均衡。研究成果可为智能农业装备在非结构化道路环境下安全可靠运行提供技术参考。 相似文献
83.
为解决机器视觉对早期玉米苗带在多环境变量下导航线提取耗时长、准确率低的问题,该研究提出了一种基于中值点Hough变换作物行检测的导航线提取算法。首先,改进了传统的2G-R-B算法,再结合中值滤波、最大类间方差法和形态学操作实现土壤背景与玉米苗带的分割。其次,通过均值法提取玉米苗带特征点,然后采用中值点Hough变换拟合垄间两侧玉米苗列线,最后将检测出的双侧玉米苗列线为导航基准线,利用夹角正切公式提取导航线。试验结果表明:改进的灰度化算法能够正确分割玉米苗带与土壤,处理一幅640×480像素彩色图像平均耗时小于160 ms,基于中值点Hough变换检测玉米苗列再提取导航线的最大误差为0.53°,相比于传统Hough变换时间上平均快62.9 ms,比最小二乘法平均精确度提高了7.12°,在农田早期玉米苗带多环境变量影响因素下导航线提取准确率均达92%以上,具有较强的可靠性和准确性。 相似文献
84.
基于K-means聚类的柑橘红蜘蛛图像目标识别 总被引:3,自引:3,他引:3
为快速检测红蜘蛛虫害,该研究采用基于Lab颜色模型中a(红/绿)、b(黄/蓝)层信息的K-means聚类法识别彩色图像中的红蜘蛛。试验选取8幅具有不同清晰度的柑橘红蜘蛛图像,采用基于Sobel边缘检测算子的评价函数计算图像清晰度评价值以评价图像清晰度,对比采用灰度法和包含2、3、4或5个聚类中心的K-means聚类法的目标识别效果和识别效率。结果表明,灰度法对8幅图像中红蜘蛛目标识别率平均值为29%,误判率平均值为201%,无法应用于复杂背景图像中的红蜘蛛目标识别。包含5个聚类中心的K-means聚类法对清晰度较高的图像识别率为100%,误判率为0,对清晰度较低的图像识别率为88%,误判率为0;当图像尺寸较小时,包含4个聚类中心的K-means聚类法识别效率与灰度法相当;当图像尺寸较大时,重复计算聚类中心导致识别耗时较长;基于Lab颜色空间的识别算法无法有效识别其他颜色的红蜘蛛,继续研究的方向为引入红蜘蛛形态信息以提高识别准确率和优化聚类中心的选取以降低识别耗时。 相似文献
85.
基于数据融合的玉米种子内部机械裂纹检测方法 总被引:2,自引:3,他引:2
为深入研究玉米种子脱粒和输送等环节中产生的内部裂纹机理和检测技术,该文在体视显微检测基础上提出了基于融合技术的边缘检测方法。该方法采用改进的数学形态学方法和传统Sobel边缘检测算子对损伤玉米种子图像进行边缘检测,建立相应的融合规则,将2种方法检测出来的图像边缘进行基于小波变换的融合处理,并从新图像中提取玉米种子内部机械损伤的特征信息。结果表明,该检测方法结合了2种边缘检测方法的优点,有效提高了边缘检测准确性,在准确提取玉米种子内部裂纹特征同时能有效降低噪声,较单一边缘检测算法有更好的效果。 相似文献
86.
摘要:为准确识别棉花异性纤维中较难识别的羽毛和麻绳异性纤维,采用机器视觉技术,通过图像处理方法采集异性纤维目标,对羽毛和麻绳异性纤维的色彩和纹理特征进行有效的特征提取,形成异性纤维目标的特征向量。再通过一种自底向上的凝聚型层次聚类算法对提取的羽毛和麻绳的色彩与纹理特征进行层次聚类分析,选择最优特征向量。将8个特征向量进行降维分析并比较各维数下的层次聚类效果,试验结果表明,选取红色(R_ave)、绿色(G_ave)、蓝色(B_ave)、能量、熵、惯性矩等6个特征进行层次聚类效果最好,羽毛识别率达到94%,麻绳识别率达到95%, 说明选择的特征向量对这2种异性纤维具有理想的区分性。该研究可为棉花异性纤维的正确识别提供参考。 相似文献
87.
基于机器视觉的玉米果穗参数的图像测量方法 总被引:1,自引:12,他引:1
在玉米育种和品质研究中,经常需要对玉米的果穗长度、果穗宽度、穗行数、穗粒数等参数进行测量。该研究提出了一种基于机器视觉的玉米果穗参数图像测量方法。使用PC摄像头连续采集旋转台上的玉米果穗图像,经过图像处理,获得玉米穗的图像区域,进而得到玉米果穗的穗长和穗宽参数;通过对玉米果穗局部区域的x方向和y方向累计像素值曲线进行分析,提取出玉米穗行,获得每一穗行的穗粒数和穗行宽度;通过图像匹配,获得玉米果穗的穗行数。试验表明,使用该研究方法对玉米果穗的长度、宽度和穗行数的参数测量准确率可达98%以上,对穗行宽及总穗粒数测量准确率达95%以上,整穗的平均检测时间约102 s/穗。该研究实现了玉米果穗参数快速有效的自动检测,相对于目前采用的人工检测,大大提供检测效率,降低劳动强度,可应用于玉米千粒质量检测、产量预测、育种和品质分析等场合。 相似文献
88.
中国盆花销售量随着消费水平的提高而迅速攀升,四大盆花之一的红掌在规模化生产中存在分级标准掌控不统一、分级结果不稳定以及效率低下等问题,制约了红掌产品的规模化生产,影响了红掌的出品质量。该研究提出基于机器视觉技术的红掌分级检测方法,对90株红掌的水平和竖直方向图像采集,经过二值化等处理,从侧视轮廓、俯视轮廓及佛焰苞轮廓特征三方面获取红掌植株的高度、冠幅、佛焰苞片数、苞片横径4项指标的信息, 针对每一项指标提出检测方法。试验结果表明,该方法对植株高度测量误差小于5.4 mm;针对植株冠幅提出了当量直径测量方法,佛焰苞片数测量正确率可达98.9%,苞片横径相对误差最大为6.52%。针对试验所选90盆红掌分级成功率达到97.8%。研究表明,利用机器视觉技术能够很好地实现对红掌盆花的在线检测分级。 相似文献
89.
针对未知室内环境下移动机器人的定位问题,提出了一种基于单目视觉和自然信标融合的移动机器人定位算法。该方法采用普通摄像头和全景摄像头结合的方式进行定位。采用普通摄像头提取天花板特征,进行视觉里程计定位。全景普通摄像头提取周边环境及天花板信息,采用Harris-SIFT构建自然信标库,并且进行自然信标检测与识别。在两者的基础上,移动机器人进行实时定位。利用自然信标定位时,提出方向滤波器结合视觉里程计和惯导系统估计旋转角度,利用自然信标求取定位特征点,两者结合进行定位。该方法有效地结合了相对定位的快速性和绝对定位的准确性。在室内环境进行试验,其中自然信标定位在x,y方向的平均误差分别为38.66和31.54 mm。相比视觉里程计而言,结合自然信标定位的平均误差分别减小了32.53%和68.68%。融合视觉里程计的自然信标定位运算速度相比仅靠自然信标定位而言提高了约6倍左右,同时与视觉里程计定位处于同一数量级。试验结果表明相对于视觉里程计而言,所提算法大大提高了定位精度,同时不影响算法的实时性。 相似文献
90.
针对传统鱼眼瞳孔直径测量方法耗时、耗力,且数据主观性强的问题,该文提出基于权重约束AdaBoost和改进Hough圆变换的鱼眼瞳孔直径智能测量方法。首先,利用工业相机采集实验板上的鱼图像,从正负鱼眼图像样本中训练出基于权重约束AdaBoost算法的鱼眼分类器;然后,采用该分类器对试验图像进行检测,将检测到的鱼眼局部图从整体图中分离出来;最后,采用改进的Hough圆变换检测出鱼眼的瞳孔,并计算得到瞳孔直径。对100条金鲳鱼进行试验,鱼眼分类精度达97.1%,瞳孔正确检测率达94.2%,相比改进前分别提升了1.7个百分点和10.5个百分点,与人工测量瞳孔直径值的平均偏差为6.5%,比改进前低了5.9个百分点,总的平均测量时间为324.371 ms,比改进前减少了10.707 ms。试验证明:该文提出的方法能够精确、实时、自动地测量出鱼眼瞳孔的直径,有效避免了传统测量方式的复杂性和测量数据的主观性,可为鱼体生长状况评估、良种选育提供重要参考。 相似文献