全文获取类型
收费全文 | 1552篇 |
免费 | 102篇 |
国内免费 | 224篇 |
专业分类
林业 | 111篇 |
农学 | 20篇 |
基础科学 | 409篇 |
265篇 | |
综合类 | 854篇 |
农作物 | 15篇 |
水产渔业 | 11篇 |
畜牧兽医 | 163篇 |
园艺 | 13篇 |
植物保护 | 17篇 |
出版年
2024年 | 31篇 |
2023年 | 94篇 |
2022年 | 103篇 |
2021年 | 103篇 |
2020年 | 85篇 |
2019年 | 78篇 |
2018年 | 61篇 |
2017年 | 72篇 |
2016年 | 93篇 |
2015年 | 63篇 |
2014年 | 92篇 |
2013年 | 95篇 |
2012年 | 112篇 |
2011年 | 101篇 |
2010年 | 101篇 |
2009年 | 109篇 |
2008年 | 90篇 |
2007年 | 71篇 |
2006年 | 61篇 |
2005年 | 44篇 |
2004年 | 51篇 |
2003年 | 33篇 |
2002年 | 15篇 |
2001年 | 30篇 |
2000年 | 16篇 |
1999年 | 13篇 |
1998年 | 8篇 |
1997年 | 4篇 |
1996年 | 8篇 |
1995年 | 5篇 |
1994年 | 1篇 |
1993年 | 3篇 |
1992年 | 11篇 |
1991年 | 2篇 |
1990年 | 6篇 |
1989年 | 9篇 |
1988年 | 1篇 |
1987年 | 2篇 |
1985年 | 1篇 |
排序方式: 共有1878条查询结果,搜索用时 32 毫秒
11.
针对前处理工序造成的羊肉智能精细分割目标肌肉区图像识别准确度低的问题,以羊后腿自动去骨分割工序为研究对象,提出一种基于R2U-Net和紧凑空洞卷积的羊后腿分割目标肌肉区识别方法。对传统的U-Net语义分割网络进行改进,以U-Net为骨架网络,采用残差循环卷积块替换原始U-Net的特征编码模块和解码模块中的卷积块以避免U-Net的梯度消失,在特征编码模块和特征解码模块之间增加一个紧凑的四分支空洞卷积模块对语义特征进行多尺度编码,实现缝匠肌图像分割模型的构建。一方面,针对缝匠肌这一核心目标肌肉区,采集羊后腿图像构建数据集训练与测试本文模型,以验证该方法的准确性与实时性;另一方面,通过旋量法标定夹爪坐标系、相机点云坐标系、机器人坐标系的齐次变换矩阵以计算分割路径,并采用主动柔顺的力/位混合控制方法操纵分割机器人进行目标切削运动,验证基于本文方法得到的目标图像开展目标肌肉分割的可行性。相关试验结果表明:当交并比为0.8588时,本文方法平均精确度为0.9820,优于R2U-Net的(0.8324,0.9775);单样本检测时间平均为82ms,说明本文方法可快速、准确分割出缝匠肌图像,满足机器人自主分割系统的实时性要求,优于U-Net、R2U-Net、AttU-Net算法。最后,在本文方法得到的缝匠肌图像基础上开展机器人实机分割试验,机器人对5条羊后腿的平均切削时间为7.9s,平均偏移距离为4.36mm,最大偏移距离不大于5.9mm,满足羊后腿去骨分割的精度要求。 相似文献
13.
基于FCN的无人机玉米遥感图像垄中心线提取 总被引:1,自引:1,他引:0
为解决农业机器人在玉米田行间行走的全局路径规划问题,该研究提出一种基于全卷积神经网络(Fully ConvolutionalNetworks,FCN)的无人机玉米遥感图像垄中心线提取方法。基于无人机获取的高精度可见光遥感图像,设计了针对农田垄中心线提取的数据集标注方法,采用滑动窗口法进行图像分块,利用深度学习语义分割网络FCN对垄中心线附近7~17像素宽度范围的垄线区域进行提取,模型在测试田块上精确率达66.1%~83.4%,召回率达51.1%~73.9%,调和平均值为57.6%~78.4%;对拼接后的图像使用影像分割投影法提取中心线,探究了垄线区域宽度对垄中心线提取精度的影响,训练采用9像素的垄区域宽度,可得到垄中心线在77 mm左右偏差范围准确率为91.2%,在31.5 mm左右偏差范围内为61.5%。结果表明,基于FCN对无人机玉米遥感图像进行处理,可得到整片田地的垄中心线栅格地图,方便农业机器人进行全局路径规划。 相似文献
14.
基于DOM及LiDAR的多尺度分割与面向对象林隙分类 总被引:1,自引:0,他引:1
为研究分割尺度对航空正射影像(DOM)与LiDAR数据协同面向对象林隙分割与分类的影响,以东北典型的天然次生林帽儿山实验林场东林施业区为试验区,对DOM与LiDAR数据进行多尺度分割与面向对象林隙分类。分割过程中,采用基于DOM分割、基于LiDAR数据分割、DOMLiDAR协同分割3种分割方案。每种分割方案采用10种尺度。在每种尺度应用两种数据提取的光谱和高度两种特征,采用支持向量机分类器(SVM)进行林隙分类。研究结果表明:3种分割与分类方案分类精度随尺度的增大整体呈现下降的趋势,与ED3(Modified)趋势相反。基于LiDAR数据在尺度参数10获得了最优分割结果。在所有尺度上(10~100),基于LiDAR数据分割与分类精度高于其他两种数据源的分类精度,相比单独使用DOM优势更加明显。基于LiDAR数据分割与分类方案在尺度参数10时获得了最高分类精度(Kappa系数为80%)。3种分割与分类方案最优尺度的分类精度显著高于其他尺度分类精度。分割尺度对面向对象林隙分类结果有重要影响。 相似文献
15.
雾滴在靶标上常出现粘连的情况,为准确测量雾滴尺寸、掌握雾滴分布规律,需要判断雾滴是否粘连,并用图像处理技术将粘连雾滴分开。首先提出判断雾滴是否粘连的改进方法,该方法结合雾滴的形状因子和面积阈值对粘连雾滴进行判断和特征提取,并用极限腐蚀法和迭代开运算法对粘连雾滴进行计数处理,其次调用迭代开运算标记的分水岭算法分割,最后对分割后雾滴的连通域进行标记及形状圆整。试验结果表明:该方法可实现粘连雾滴的自动判断和特征提取,弱粘连准确率100%,强粘连可达97.2%以上。该算法获得的雾滴粒径参数与激光粒度仪试验测量结果接近,其尺寸测量准确度较Deposit Scan软件计算平均提高了7.67%。基于相同的样本,与人工计数标定结果对比表明,该方法获得的雾滴个数快速且精准度达97.06%以上。 相似文献
16.
植株叶片中叶绿素浓度的高低与植株进行的光合作用效率、植株的整体生长状况息息相关,在农业生产过程中,常常根据叶片中叶绿素含量(SPAD)的多少来精确的判断植物的生长状态,也是控制植株长势的依据。传统的叶绿素含量检测方式分光光度法,存在耗时长、步骤多、操作要求高等问题,而采用计算机视觉技术处理图像的过程更加准确、高效,不会像人眼分析时受到主观因素的影响导致偏差。为此,基于计算机视觉技术来检测玉米叶片中叶绿素含量,利用扫描仪采集玉米叶片的图像,将图像输送至计算机,然后通过软件处理图像,分割出图像中有效像素的颜色特征值,将特征值转换就可以得到玉米叶片中叶绿素。试验结果显示:利用计算机视觉技术可以准确地测定玉米叶片中叶绿素含量,进而进行合理施肥,避免浪费,对增加玉米的产量具有极大的价值。 相似文献
17.
本文主要介绍了基于边缘检测的图像分割的相关技术,首先分析了研究目的和研究意义,然后综合国内外的研究近况,分析了当前对于图像分割技术的前景和不足。 相似文献
18.
为了准确识别并分割套袋苹果,对影像中的套袋苹果及其背景在RGB颜色空间模式下,分析各目标物的R(红)、G(绿)及B(蓝)值分布特征,根据各目标物所呈现的R、G及B值差异选取适合于套袋苹果的分割条件,对套袋苹果进行分割,将分割结果与多阈值分割法以及K均值聚类法分割结果进行比较。结果表明:分割法优于以上2种方法,同时,根据该试验提出的分割方法计算苹果识别率,识别率可达93.4%,表明该试验算法对套袋苹果的分割准确率高。 相似文献
19.
20.
基于红外热成像的夜间农田实时语义分割 总被引:3,自引:3,他引:0
农田环境实时语义分割是构成智能农机的视觉环境感知的重要环节,夜间农田语义分割可以使智能农机在夜间通过视觉感知农田环境进行全天候作业,而夜间无光环境下,可见光摄像头成像效果较差,将造成语义分割精度的下降。为保证夜间农田环境下红外图像语义分割的精度与实时性,该研究提出了一种适用于红外图像的红外实时双边语义分割网络(Infrared Real-time Bilateral Semantic Segmentation Network,IR-BiSeNet),根据红外图像分辨率低,细节模糊的特点该网络在实时双边语义分割网络(Bilateral Semantic Segmentation Net,BiSeNet)结构基础上进行改进,在其空间路径上,进一步融合红外图像低层特征,在该网络构架中的注意力提升模块、特征融合模块上使用全局最大池化层替换全局平均池化层以保留红外图像纹理细节信息。为验证提出方法的有效性,通过在夜间使用红外热成像采集的农田数据集上进行试验,数据集分割目标包括田地、行人、植物、障碍物、背景。经试验验证,提出方法在夜间农田红外数据集上达到了85.1%的平均交并比(Mean Intersection over Union,MIoU),同时达到40帧/s的处理速度,满足对夜间农田的实时语义分割。 相似文献