首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   335篇
  免费   19篇
  国内免费   81篇
林业   37篇
农学   29篇
基础科学   88篇
  96篇
综合类   162篇
农作物   3篇
水产渔业   4篇
畜牧兽医   12篇
植物保护   4篇
  2024年   18篇
  2023年   43篇
  2022年   42篇
  2021年   27篇
  2020年   12篇
  2019年   10篇
  2018年   10篇
  2017年   12篇
  2016年   13篇
  2015年   3篇
  2014年   10篇
  2013年   6篇
  2012年   15篇
  2011年   17篇
  2010年   11篇
  2009年   17篇
  2008年   17篇
  2007年   17篇
  2006年   16篇
  2005年   15篇
  2004年   12篇
  2003年   21篇
  2002年   15篇
  2001年   9篇
  2000年   8篇
  1999年   8篇
  1998年   10篇
  1997年   2篇
  1996年   5篇
  1995年   5篇
  1994年   1篇
  1993年   3篇
  1992年   1篇
  1991年   1篇
  1990年   2篇
  1989年   1篇
排序方式: 共有435条查询结果,搜索用时 31 毫秒
351.
配电网络地理信息系统GIS与配电管理系统DMS的其他部分有着密切的联系。在配电系统中引人GIS是配电管理系统发展的需要。GIS的主要功能体现在与设备管理FM/自动成图AM、监视控制和数据采集SCADA系统、管理信息系统MIS、用户信息系统CIS 等各个系统的有机结合,可以为DMS提供强有力的数据和图形平台。基于现代化全面信息实时管理、建立公共服务平台、优化系统性能的需要,有必要进行跨平台集成开发。利用VC++和MapInfo集成开发为例,在Windows环境下,生成一个集成地图的应用程序,使地理信息系统的空间数据与其他属性数据相结合,实现集成开发的部分功能。  相似文献   
352.
介绍了基于MAPGIS平台的农村土地数据入库前的数据质量控制的技术方案,根据MAPGIS软件强大的图形编辑等功能探讨了全国二调数据质量控制的有效方法,分析了数据库建立过程当中所存在的问题并提出了相应建议。  相似文献   
353.
对公司控制权的判断标准实质上有主体判断标准和客体判断标准之分。主体判断标准是指公司控制权归属于股东、管理层、债权人等主体。客体判断标准是指通过是否拥有行使公司控制权的基础性权利———表决权,来判断公司控制权的归属,而无需考虑行使表决权的主体是谁。对于公司控制权归属的判断标准应由主体判断标准向客体判断标准转变,因此,表决权也就成为公司控制权争夺的核心。在以表决权为核心的控制权争夺过程中,通过对表决权行使方式的完善,继而规范公司控制权的争夺行为,为控制权争夺的主体创造一个公平的竞争环境。  相似文献   
354.
基于实例分割的柑橘花朵识别及花量统计   总被引:9,自引:8,他引:1  
柑橘隔年结果现象严重,花量统计有助于果园的规划管理,并对产量预测有重要意义,但是柑橘单一植株花量巨大,花朵紧凑密集,花期树叶遮挡覆盖,对花量计算造成很大的阻碍。对此该研究提出基于实例分割的柑橘花朵识别与花量统计方法,以花期的柑橘树冠图像为样本进行花朵实例的识别及分割,通过对Mask R-CNN主体卷积部分和掩膜分支部分的优化,实现对复杂结构图像中密集小尺度柑橘花朵目标的高效检测、获取图像中可见花数量。结果显示,该方法花量识别神经网络的平均精度为36.3,花量计算误差为11.9%,对比未优化Mask R-CNN网络在训练和识别的时间效率上均有显著提升。该研究解决了柑橘花量统计难度高的问题,有助于柑橘早期测产和落花监测,并为花量控制提供决策依据。  相似文献   
355.
基于MF-SSD卷积神经网络的玉米穗丝目标检测方法   总被引:1,自引:0,他引:1  
目的 玉米穗丝是玉米的授粉器官,生长发育状况会影响玉米的产量。为了在玉米生长状态监测和产量预测工作中实时准确识别玉米穗丝,提出一种基于多特征融合SSD (MF-SSD)卷积神经网络的玉米穗丝检测模型。方法 基于特征图对玉米穗丝进行检测,在VGG16-SSD的基础上,用MobileNet替换特征提取器,加入多层特征融合结构,得到MF-SSD网络模型;通过网络优化调整,试验了MF-SSD-cut-3、MF-SSD和MF-SSD-add-3共3种网络结构,优选出检测性能最好的网络结构用于玉米穗丝检测。基于玉米穗丝图像数据集,应用0~180°随机旋转原始图像和水平翻转、平移原始图像2种数据增广技术提升模型训练效果。对是否使用二次训练策略和是否使用Focal loss解决样本不平衡问题进行了试验,并对比分析Loss的下降过程。结果 通过加入多层特征融合结构对SSD模型改进后能够提高网络的检测能力,提升识别速度。与VGG16-SSD相比,MF-SSD在交并比指标方面的平均精度提高7.2%,对玉米穗丝小目标检测的平均召回率提高19.6%,检测速度最高能提升18.7%。在存储空间和运行时间有较高要求的嵌入式环境下,MF-SSD-cut-3模型在满足检测效果的前提下,以较小的空间代价获得了相对较短的运行时间;在不考虑空间和时间因素的情况下,MF-SSD模型获得更好的检测效果。二次训练策略提高了网络的收敛速度和模型的稳定性;Focal loss有效解决了SSD算法中正负样本数量不平衡问题,使网络模型的训练更容易收敛。结论 MF-SSD模型对小目标的检测能力能满足农业生产中对玉米穗丝的实时检测需要,可以用于玉米生长状态的自动监控和产量的精准预测。  相似文献   
356.
Grain number is crucial for analysis of yield components and assessment of effects of cultivation measures. The grain number per spike and thousand-grain weight can be measured by counting grains manually, but it is time-consuming, tedious and error-prone. Previous image processing algorithms cannot work well with different backgrounds and different sizes. This study used deep learning methods to resolve the limitations of traditional image processing algorithms. Wheat grain image datasets were collected in the scenarios of three varieties, six background and two image acquisition devices with different heights, angles and grain numbers, 1 748 images in total. All images were processed through color space conversion, image flipping and rotation. The grain was manually annotated, and the datasets were divided into training set, validation set and test set. We used the TensorFlow framework to construct the Faster Region-based Convolutional Neural Network Model. Using the transfer learning method, we optimized the wheat grain detection and enumeration model. The total loss of the model was less than 0.5 and the mean average precision was 0.91. Compared with previous grain counting algorithms, the grain counting error rate of this model was less than 3% and the running time was less than 2 s. The model can be effectively applied under a variety of backgrounds, image sizes, grain sizes, shooting angles, and shooting heights, as well as different levels of grain crowding. It constitutes an effective detection and enumeration tool for wheat grain. This study provides a reference for further grain testing and enumeration applications.  相似文献   
357.
在崩岗侵蚀研究中,为了高效精准的对高陡崩壁土体侵蚀沉积运移进行准确监测,运用无人机贴近摄影测量技术对崩岗研究区进行数字影像采集,通过运动恢复结构-多视点匹配(Structure From Motion-Multi View Stereo,SFM-MVS)技术,生成点云数据及研究区数字表面模型(Digital Surface Model,DSM),利用ArcMap进行叠加分析监测周期内研究区侵蚀沉积变化。从定位精度、测量精度、重现性分析3个方面对贴近摄影测量技术进行误差及可行性分析。最终验证结果贴近摄影测量技术总平均重投影误差为0.19 mm,侵蚀沉积量总平均绝对误差为0.006 m~3,较传统倾斜摄影测量技术误差降低了了45.45%。高程精度较倾斜摄影测量技术总体提升了162.5%。重复点云数据高程误差的平均值仅为0.36 mm,识别图像及控制点误差均达到毫米级,因此利用无人机贴近摄影测量技术精度满足崩岗高陡崩壁监测需求,该技术可提取崩岗研究区侵蚀地貌特征信息,是较为高效精准的研究侵蚀沉积过程的监测技术。  相似文献   
358.
基于改进FCOS网络的自然环境下苹果检测   总被引:1,自引:1,他引:0  
为了快速识别和准确定位自然环境下苹果果实目标,提出了一种改进全卷积单阶段无锚框(Fully Convolutional One-Stage Object Detection,FCOS)网络的苹果目标检测方法。该网络在传统FCOS网络基础上,使用模型体积较小的darknet19作为骨干网络,将center-ness分支引入到回归分支上。同时提出了一种融合联合交并比(GIoU)和焦点损失(Focal loss)的损失函数,在提高检测性能的同时降低正负样本比例失衡带来的误差。首先,对田间采集的自然环境下的苹果图像进行数据增强和标注,使用darknet骨干网络提取图像特征,然后将不同尺度待检测目标分配到不同的网络层中进行预测,最后进行分类和回归,实现苹果目标的检测。该研究在计算机工作站上对不同光照条件、不同密集程度和不同遮挡程度的苹果果实进行检测试验,并与传统FCOS网络的检测结果进行对比分析。基于改进FCOS网络的检测准确率为96.0%,检测精度均值(mean Average Precision,mAP)为96.3%。试验结果表明,改进FCOS网络比传统FCOS网络的苹果检测方法在检测准确度上有提高,具有较强的鲁棒性。  相似文献   
359.
通过识别水稻开花张开颖花内外颖与吐出颖花花药的特征,进而准确判断颖花开花时间,是及时进行杂交水稻制种授粉的前提。该研究通过可见光相机获取水稻颖花图像,基于可见光蓝色通道串联大津法(SeriesOtsu,SOtsu)提取颖花花药,同时使用深度学习算法基于区域的快速卷积神经网络(FasterRegionalConvolutionalNeuralNetwork,FasterRCNN)及YOLO-v3识别颖花花药与张开颖花内外颖,通过对比不同算法识别精确率、召回率、F1系数以及皮尔逊相关性系数,研究适用于识别颖花开花状态的特征与方法。结果显示,FasterRCNN算法检测张开颖花内外颖精确率达1,召回率达0.97,F1系数为0.98,皮尔逊相关系数为0.993,串联大津法检测吐出花药精确率达0.92,召回率达0.93,F1系数为0.93,皮尔逊相关系数为0.936。这表明串联大津法与FasterRCNN算法适用于水稻颖花开花状态检测,且张开颖花内外颖比吐出花药更适合作为水稻开花状态特征应用于深度学习算法检测。串联大津法可代替FasterRCNN算法在模型构建完成前进行检测,保证水稻颖花开花状态检测连续性。  相似文献   
360.
为了能够快速、准确地对农作物病斑进行图像检测,该文根据病斑的形态特点,提出一种基于边缘检测与改进Hough变换的病斑目标检测方法。该研究根据不同种类的病害图像,采用R、G、B或者之间的差值分量确定病斑的特征图像,采用边缘提取、修复、过滤等方法获取病斑轮廓。对Hough变换的应用策略进行改进,采用边缘线编码,每个病斑根据自身形态确定变换的参数,并采用对应的圆形对病斑边界进行拟合,从而对病斑进行检测,同时对病斑边界进行有效识别。以90幅不同种类农作物病害图像为研究对象,对病斑进行类圆目标检测,检测圆拟合精度为87.01%,圆心定位误差为4.44%。结果表明,该方法能够快速、准确地对类圆病斑进行检测,同时对病斑边界有较好的识别效果。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号