全文获取类型
收费全文 | 408篇 |
免费 | 16篇 |
国内免费 | 107篇 |
专业分类
林业 | 22篇 |
农学 | 5篇 |
基础科学 | 159篇 |
107篇 | |
综合类 | 171篇 |
农作物 | 4篇 |
水产渔业 | 6篇 |
畜牧兽医 | 52篇 |
园艺 | 3篇 |
植物保护 | 2篇 |
出版年
2024年 | 68篇 |
2023年 | 155篇 |
2022年 | 84篇 |
2021年 | 44篇 |
2020年 | 9篇 |
2019年 | 3篇 |
2018年 | 1篇 |
2017年 | 3篇 |
2016年 | 2篇 |
2015年 | 2篇 |
2014年 | 8篇 |
2013年 | 6篇 |
2012年 | 26篇 |
2011年 | 19篇 |
2010年 | 20篇 |
2009年 | 21篇 |
2008年 | 21篇 |
2007年 | 9篇 |
2006年 | 11篇 |
2005年 | 12篇 |
2004年 | 1篇 |
2001年 | 1篇 |
2000年 | 2篇 |
1997年 | 1篇 |
1988年 | 1篇 |
1975年 | 1篇 |
排序方式: 共有531条查询结果,搜索用时 15 毫秒
2.
(1)突然信息。外界信息来得比较突然,如前车突然紧急刹车;行人、自行车突然调头拐弯、摔倒;自己的车转向、制动突然失灵等。对这些不易提防的突然信息,驾驶员要保持高度警惕,注意观察,以防万一。 相似文献
3.
精准检测茶叶嫩芽是茶叶机械智能采摘的重要前提。针对茶叶大小不一、遮挡造成的小尺度嫩芽特征显著性弱、漏检率高等问题,提出一种基于改进YOLOv4-tiny的茶叶嫩芽检测模型。该模型在颈部网络添加52×52的浅层特征层以提高YOLOv4-tiny网络对小目标嫩芽的关注度,通过引入卷积块注意力机制(Convolutional block attention module,CBAM)以抑制背景噪声,提高嫩芽特征的显著性,采用双向特征金字塔网络(Bidirectional feature pyramid network,BiFPN)以融合不同尺度的特征信息,从而提出一个高性能轻量化的茶叶嫩芽检测模型YOLOv4-tiny-Tea。对同一训练集与测试集进行模型训练与性能测试,结果表明YOLOv4-tiny-Tea模型检测精确率和召回率分别为97.77%和95.23%,相比改进之前分别提高了5.58个百分点和23.14个百分点。消融试验验证了网络结构改进对不同尺度嫩芽检测的有效性,并将改进后的YOLOv4-tiny-Tea模型与3种YOLO系列算法进行对比,发现改进后的YOLOv4-tiny-Tea模型F1值比YOLOv3、YOLOv4、YOLOv5l模型分别提高了12.11、11.66和6.76个百分点,参数量仅为3种网络模型的13.57%、13.06%和35.05%。试验结果表明,YOLOv4-tiny-Tea模型能有效提高不同尺度下嫩芽检测的精确率,大幅度减少小尺寸或遮挡嫩芽的漏检情况,在保持轻量化计算成本的基础上获得较为明显的检测精度,能够满足农业机器人的实时检测和嵌入式开发的需求,可以为茶叶嫩芽智能采摘方法提供参考。 相似文献
4.
为解决现有的田间杂草识别方法无法兼顾高准确率与实时性的问题,该研究提出了一种基于改进MobileViT网络的轻量化杂草识别方法。首先,该方法使用高效的MobileViT网络构建杂草特征提取网络,在保证特征提取能力的同时实现更少的模型参数量与计算量;其次,通过高效通道注意力机制加强下采样后特征图中的重要特征,进一步提升模型的特征提取能力;最后,特征提取网络中的MobileViT模块被用于同时学习局部语义信息和全局语义信息,仅通过少量模块的组合便能够准确地捕捉到不同类别杂草与作物间细微差异。为验证该方法的有效性,该研究以农田环境下采集的玉米幼苗及其4类伴生杂草图像为数据进行了模型训练,试验结果表明,该方法的识别准确率、精准度、召回率和F1分数分别为99.61%、99.60%、99.58%和99.59%,优于VGG-16、ResNet-50、DenseNet-161、MobileNetv2等常用卷积神经网络;同时,可视化结果表明该方法能够有效提取杂草图像中的关键特征,并抑制背景区域对识别结果的影响。该研究提出的方法能够精准、快速地区分出农田环境下形态相似的多种杂草与作物,可为智能除草设备中的杂草识别系统设计提供参考。 相似文献
5.
该研究旨在解决桑蚕养殖过程中对蚕虫计数的难题,特别是针对蚕虫目标小、分布密集且易被遮挡的特点,通过改进的目标检测算法,实现对蚕虫数量的高效、准确检测与计数,以支持蚕虫的科学喂养与健康成长管理。本文提出了一种基于YOLOv8模型改进的蚕虫检测与计数新方法(SDM-YOLO)。该方法的核心创新包括:1) 引入RCS-OSA模块作为残差模块,替代原YOLOv8中的C2f模块,以增强网络的多尺度特征提取能力并融合不同感受野的信息,提升对密集分布蚕虫的识别能力;2) 改造检测头为动态预测头(dynamic prediction head),结合尺寸、空间和通道三个维度的特征信息,提高蚕虫识别的精确度,减少误检;3) 优化损失函数,采用EIOU LOSS作为边界框回归的损失函数,以改善密集场景下蚕虫目标的漏检问题。经过试验验证,SDM-YOLO方法在多个评估指标上均表现出色。具体而言,该方法在精确度上达到了88.2%,召回率为87.2%,平均准确度mAP@0.5为93.2%,而mAP@0.5:0.95也达到了74.7%。这些结果充分证明了与一阶段检测模型YOLO系列相比,SDM-YOLO在蚕虫检测与计数方面具有比较明显的优势。 相似文献
6.
我们经常在街边或是一些旅游景区内会见到一些"硬气功"的表演,比如"腹上开石""银枪刺喉""刀砍不入""汽车过身""头撞石碑""手指钻砖"等等,可谓花样繁多。其实了解内情的人都知道,所谓"硬气功"不过是一些人靠力气、胆量和窍门来迷惑不知内情的人的一种杂耍表演,谈不上表演者有什么超人的能力。下面举几个例子来说明。银枪刺喉:两人相对,分别用喉部顶住木杆两头的枪尖,只见木杆被两人顶弯了,但喉部却安然无 相似文献
7.
当前,犬注意力的训『练培养在警犬训练中越来越受到重视,虽然在一些教科书中有所涉及,但没有形成系统性的体系。在国外,犬注意力的训练与培养受到了足够的重视,有大量的文献资料涉及犬的注意力培养,并在日常的警犬训练中把其作为训练的前提条件。随着注意力在警犬训练中的应用及其重要作用,我们应该在警犬训练中高度重视犬的注意力的培养,犬的注意力提高了,警犬训练就会轻松,使我们在训练中达到事半功倍的效果。 相似文献
8.
为解决活体黄羽鸡表皮层黑色素分级方法成本高、效率低下、分级环境易受环境光干扰等问题,该研究探索一种基于ConvNeXt模型的黄羽鸡表皮层黑色素智能分级方法 ConvNeXt-WPCA,用于实现活体黄羽鸡表皮层黑色素智能分级。ConvNeXt-WPCA模型通过以下3点改进提高模型对黄羽鸡黑色素的识别效果:1)针对黄羽鸡黑色素图像RGB三通道内黑色素信息分布不均衡问题,改变输入图片通道权重来增强模型对黑色素特征的提取能力;2)使用部分卷积代替深度可分离卷积,减少模型计算量和内存访问次数提高对计算资源的利用率;3)引入坐标注意力机制,引导模型关注黄羽鸡胸腹部及肛门附近皮肤提升模型精度。同时,该研究还设计一种双光源图像获取装置,分别在自然光和偏振光条件下拍摄黄羽鸡样本,以减小分级结果受环境光干扰的影响,并探索偏振光在黑色素分级任务中的应用潜力。结果表明ConvNeXt-WPCA模型相较标准ConvNeXt模型,针对自然光下黄羽鸡黑色素图像数据集分级准确率提升9.68个百分点,最终达到89.03%的识别准确率,针对偏振光下黄羽鸡黑色素图像数据集分级准确率提升15.26个百分点,最终达到98.87... 相似文献
9.
为了解决因梭梭和红柳等宿主遮挡、样本分布密集、样本大小不均衡等造成人工种植肉苁蓉检测精度低以及模型参数量过大难以向嵌入式设备移植等问题,该研究提出一种基于改进YOLOv5s的人工种植肉苁蓉轻量化检测方法。首先,将YOLOv5s的主干网络替换为EfficientNetv2网络,以减少模型参数量和计算复杂度进而实现模型轻量化,便于后期将模型向嵌入式设备部署;其次,为了增强模型对小目标肉苁蓉特征信息的提取能力,将C3模块与Swin Transformer Block进行整合,得到C3STR模块,将其引入主干网络,并将其输出的特征图与Neck网络中的特征图进行融合;最后,在检测头前端与颈项加强网络之间添加CA注意力机制,以弱化背景信息、聚焦目标特征,提高网络检测性能。试验结果表明,该模型对于肉苁蓉的检测精度和准确率分别为89.8%和92.3%,模型的参数量和计算量分别为5.69×106 MB和6.8 GB,权重文件大小为11.9 MB,单幅图像推理时间为8.9 ms,能够实现实时性检测。同其他主流模型相比,改进后的模型的检测精度分别比SSD、Faster R-CNN、YO... 相似文献
10.
为解决传统小肠绒毛需要专业人员手动检测耗时耗力且存在主观性和不稳定性等问题,同时提高在复杂病理学图像中小肠绒毛检测的准确率和效率,该研究提出基于改进YOLOv5s检测复杂病理学图像下猪只小肠绒毛的方法。首先,采用串联形式的混合池化对空间金字塔进行优化,增强特征提取与特征表达,提升检测精度;然后引入一种基于注意力机制的网络模块(simpleattentionmechanism,SimAM)与Bottleneck中的残差连接相结合,使用SimAM对Bottleneck中的特征图进行加权,得到加权后的特征表示,利用注意力机制加强模型对目标的感知。试验结果表明,该研究算法的平均精度(average precision)和每秒传输帧数(frame per second,FPS)达到92.43%和40帧/s。改进后的YOLOv5s在召回率和平均精度上相较改进前提高2.49和4.62个百分点,在不增加模型参数量的情况下,每帧图片的推理时间缩短1.04 ms。与经典的目标检测算法SSD、Faster R-CNN、YOLOv6s、YOLOX相比,平均精度分别提高15.16、10.56、2.03和4.07... 相似文献