首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   351篇
  免费   19篇
  国内免费   195篇
林业   17篇
农学   10篇
基础科学   154篇
  204篇
综合类   153篇
农作物   5篇
水产渔业   3篇
畜牧兽医   9篇
园艺   5篇
植物保护   5篇
  2024年   29篇
  2023年   59篇
  2022年   77篇
  2021年   75篇
  2020年   46篇
  2019年   37篇
  2018年   21篇
  2017年   21篇
  2016年   24篇
  2015年   13篇
  2014年   18篇
  2013年   19篇
  2012年   30篇
  2011年   8篇
  2010年   20篇
  2009年   19篇
  2008年   12篇
  2007年   8篇
  2006年   3篇
  2005年   4篇
  2004年   5篇
  2003年   6篇
  2002年   6篇
  2001年   3篇
  2000年   1篇
  1996年   1篇
排序方式: 共有565条查询结果,搜索用时 15 毫秒
1.
2.
远程视频监控系统被利用到动物疫情监测的领域来,能够对所有的疫情监控点进行监测预警。但是长时间的人工监控也会使工作人员产生疲劳感,降低工作效率。针对这样的情况,本文从图像的预处理、病变区域的提取和病变区域的识别三个方面阐述了如何利用计算机图像学理论来提升动物疫情监测预警的能力。  相似文献   
3.
1应用背景随着生态环境的逐步改善,鸟类数量渐渐增多,鸟类在配电线路杆塔上的活动越来越频繁。传统的应用驱鸟稻草人、驱鸟剂、驱鸟枪与驱鸟车等驱鸟都起到一定的驱鸟效果,但是并不理想。因此,随着鸟类危害的加重智能驱鸟装置也被研制出来,主要是通过雷达、红外技术探测到鸟类后使用超声波进行驱离,准确率和实效性高,但是配套的设备成本也比较高。笔者现介绍一种基于图像识别的驱鸟技术和装置,既有与主流驱鸟技术一样精确、高效的效果,又能保证其使用的成本相对较低。  相似文献   
4.
远程视频监控系统被利用到动物疫情监测的领域来,能够对所有的疫情监控点进行监测预警。但是,长时间的人工监控也会使工作人员产生疲劳感,降低工作效率。针对这样的情况,文章将从图像的预处理、病变区域的提取和病变区域的识别3 个方面阐述如何利用计算机图像学理论来提升动物疫情监测预警的能力。  相似文献   
5.
依据家蚕限性卵色差异的遗传特征,结合基于线阵型电荷耦合元件(CCD)的色选技术,研制了彩色CCD雌雄蚕卵卵色分选机。该机利用平移式电磁振动器,使蚕卵在双层供卵装置中有序排列成64路直线移行,沿V形槽向下高速滑至分选室,经彩色CCD图像传感和计算机图像识别处理,指令64路高速电磁气阀将各靶卵吹入收集箱,同时使非靶卵自落至振动装置输出,由此完成对卵色不同的雌雄蚕卵分选。该机在生产应用中表现出性能可靠的靶卵颜色选择功能,在雌雄蚕卵分离过程中不损伤蚕卵,分选效率(超过1×10~6粒/h)是人工分选的230倍,单选准确率超过96%,复选准确率超过99.5%,且操作简便,故障率低。该机作为雄蚕品种的杂交种生产自动化技术设备,有效解决了人工分选雌雄蚕卵效率低的难题。  相似文献   
6.
针对自然环境下马铃薯叶片病害识别率低和晚疫病斑定位难的问题,基于大田环境中采集的马铃薯叶片图像,首先对马铃薯叶片病害进行识别,对比AlexNet、VGG16、InceptionV3、ResNet50、MobileNet五种神经网络模型,结果表明InceptionV3模型的识别效果准确率最高,可达98.00%。其次对马铃薯叶片的晚疫病斑进行检测,提出一种改进型的CenterNet-SPP模型,该模型通过特征提取网络获取对象的中心点,再通过中心点回归获得中心点偏移量、目标大小等图像信息,训练后的模型在验证集下的mAP可达90.03%,以F1为评价值分析对比其它目标检测模型,CenterNet-SPP模型的效果最好,准确率为94.93%,召回率为90.34%,F1值为92.58%,平均检测一张图像耗时0.10 s。为自然环境下马铃薯叶片病害识别和检测提供较为全面的深度学习算法和模型研究基础。  相似文献   
7.
针对名优茶智能采摘中茶叶嫩梢识别精度不足的问题,该研究对YOLOv8n模型进行优化。首先,在主干网络中引入动态蛇形卷积(dynamic snake convolution,DSConv),增强模型对茶叶嫩梢形状信息的捕捉能力;其次,将颈部的路径聚合网络(path aggregation network,PANet)替换为加权双向特征金字塔网络(bi-directional feature pyramid network,BiFPN),强化模型的特征融合效能;最后,在颈部网络的每个C2F模块后增设了无参注意力模块(simple attention module,SimAM),提升模型对茶叶嫩梢的识别关注度。试验结果表明,改进后的模型比原始模型的精确率(precision,P)、召回率(recall,R)、平均精确率均值(mean average precision,mAP)、F1得分(F1 score,F1)分别提升了4.2、2.9、3.7和3.3个百分点,推理速度为42 帧/s,模型大小为6.7 MB,满足低算力移动设备的部署条件。与Faster-RCNN、YOLOv5n、YOLOv7n和YOLOv8n目标检测算法相比,该研究提出的改进模型精确率分别高出57.4、4.4、4.7和4.2个百分点,召回率分别高出53.0、3.6、2.8和2.9个百分点,平均精确率均值分别高出58.9、5.0、4.6和3.7个百分点,F1得分分别高出了56.8、3.9、3.7和3.3个百分点,在茶叶嫩梢检测任务中展现出了更高的精确度和更低的漏检率,能够为名优茶的智能采摘提供算法参考。  相似文献   
8.
为了快速检测和统计杨梅树的数量,该研究提出了一种基于改进YOLOv7的杨梅树单木检测模型:YOLOv7-ACGDmix。首先,对YOLOv7的可扩展高效长程注意力网络(extended-efficient long-range attention networks, E-ELAN)进行改进,通过融合兼具卷积和注意力机制优势的ACmix(a mixed model that enjoys the benefit of both self-attention and convolution)结构得到AC-E-ELAN模块,提升模型的学习和推理能力,引入可变形卷积(deformable convolutional networks version 2, DCNv2)结构得到DCNv2-E-ELAN模块,增强模型对不同尺寸目标的提取能力;其次,采用内容感知特征重组(content-aware reassembly of features, CARAFE)上采样模块,提高模型对重要特征的提取能力;然后,在主干和头部网络部分添加全局注意力机制(global-attention mechanism, GAM),强化特征中的语义信息和位置信息,提高模型特征融合能力;最后,采用WIoU(wise intersection over union)损失函数减少因正负样本数据不平衡造成的干扰,增强模型的泛化性。在公开数据集上的试验结果表明,YOLOv7-ACGDmix模型的精确率达到89.1%,召回率达到89.0%,平均精度均值(mean average precision, mAP)达到95.1%,F1-score达到89.0%,相比于原YOLOv7模型分别提高1.8、4.0、2.3和3.0个百分点。与Faster R-CNN、SSD、YOLOv8模型相比,改进模型的平均精度均值(mAP0.5)分别提高了9.8、2.2、0.7个百分点。实地采集杨梅树样本数据的检测精确率87.3%、召回率85.7%。试验表明,改进模型为基于无人机影像的杨梅树单木检测提供了一种有效的解决方案,对果园精准管理的发展具有重要意义。  相似文献   
9.
为了有效地弥补猪B超图像人工手绘背膘厚的不足,为生猪育种工作提供更精准和稳定的背膘厚测定新方法。该研究将全卷积神经网络(Fully Convolutional Networks,FCN)模型应用于猪B超图像的背膘分割和背膘厚测定上,开发出一套使用Python调用FCN模型对猪B超图像背膘厚进行自动测定的系统。通过开展验证集验证试验、屠宰比对试验和人员比对试验,发现模型测定结果和标注结果之间差异不显著(P>0.05),两者相关系数达0.92(P<0.01);B超标准测定背膘厚和FCN分割测定背膘厚的相关系数达到0.97(P<0.01);专家组组内标准差为0.17 mm(最小),行业外组组内标准差为1.67 mm(最大),而FCN分割结果稳定性强,不受人员因素的影响。因此,该方法可以实现对外种猪B超背膘厚的精准、快速、稳定测量,减少猪场对专业人员的依赖,降低测定人员培训成本,减少工作人员工作量。  相似文献   
10.
基于轻量型残差网络的自然场景水稻害虫识别   总被引:4,自引:3,他引:1  
准确识别水稻害虫对水稻及时采取防护和治理措施具有重要意义,该研究以自然场景中水稻害虫图像为研究对象,针对水稻害虫图像的颜色纹理与背景相近以及同类害虫形态差异较大等特点,设计了一个由特征提取、全局优化以及局部优化模块构成的轻量型残差网络(Light Weight Residual Network,LW-ResNet)用于水稻害虫识别。在特征提取模块通过增加卷积层数以及分支数对残差块进行改进,有效提取自然场景中水稻害虫图像的深层全局特征并使用全局优化模块进行优化;局部优化模块通过设计轻量型注意力子模块关注害虫的局部判别性特征。LW-ResNet网络在特征提取模块减少了残差块的数量,在注意力子模块中采用深度可分离卷积减少了浮点运算量,从而实现了模型的轻量化。试验结果表明,所设计的LW-ResNet网络在13类水稻害虫图像的测试数据集上达到了92.5%的识别准确率,高于VGG16、ResNet、AlexNet等经典卷积神经网络模型,并且LW-ResNet网络的参数量仅为1.62×106个,浮点运算量仅为0.34×109次,低于MobileNetV3轻量级卷积神经网络模型。该研究成果可用于移动端水稻害虫的自动识别。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号