首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   10篇
  免费   1篇
  国内免费   4篇
林业   1篇
基础科学   3篇
  2篇
综合类   4篇
农作物   1篇
水产渔业   2篇
园艺   1篇
植物保护   1篇
  2024年   1篇
  2023年   3篇
  2022年   3篇
  2021年   5篇
  2020年   3篇
排序方式: 共有15条查询结果,搜索用时 20 毫秒
1.
针对自然环境下马铃薯叶片病害识别率低和晚疫病斑定位难的问题,基于大田环境中采集的马铃薯叶片图像,首先对马铃薯叶片病害进行识别,对比AlexNet、VGG16、InceptionV3、ResNet50、MobileNet五种神经网络模型,结果表明InceptionV3模型的识别效果准确率最高,可达98.00%。其次对马铃薯叶片的晚疫病斑进行检测,提出一种改进型的CenterNet-SPP模型,该模型通过特征提取网络获取对象的中心点,再通过中心点回归获得中心点偏移量、目标大小等图像信息,训练后的模型在验证集下的mAP可达90.03%,以F1为评价值分析对比其它目标检测模型,CenterNet-SPP模型的效果最好,准确率为94.93%,召回率为90.34%,F1值为92.58%,平均检测一张图像耗时0.10 s。为自然环境下马铃薯叶片病害识别和检测提供较为全面的深度学习算法和模型研究基础。  相似文献   
2.
缺陷识别是人造板检测的重要环节,目前大多采用人工检测方法。将一种轻量级的深层神经网络MobileNet与SSD算法结合,使用Inception网络附加到多个特征映射上,构建SSD-MobileNet算法模型用于人造板的缺陷检测,以提高区分不同缺陷的能力。从人造板工厂生产现场获取主要包括粗刨花、水印、砂痕、杂物、胶斑5种缺陷类型的表面缺陷图,制成一个包含3216张人造板表面缺陷图像的数据集。利用该数据集对SSD-MoblieNet模型进行训练、测试,并与其他特征提取网络(ResNet18、VoVNet39、ESPNetV2)的检测精度和检测速度的影响结果进行对比,发现其检测速度最快达到75帧/s,相对其他特征提取网络的平均精度均值提升2.26%~3.52%。该研究为实现人造板表面实时在线检测提供良好的技术支撑。  相似文献   
3.
为提高植物叶片识别的准确率及减少计算代价,在Pytorch框架下提出一种融合了深度卷积生成式对抗网络(DCGAN)和迁移学习(TL)的新型卷积神经网络叶片识别方法。首先,对植物叶片图像进行预处理,通过DCGAN对样本数据库扩充;其次,利用迁移学习将Inception v3模型应用于图像数据处理上,以提高植物叶片识别的准确率;最后,通过对比实验对该方法的有效性进行验证。结果表明:该方法可以获得96.57%的植物叶片识别精度,同时参数训练的迭代次数由4000次缩短到560次。  相似文献   
4.
热熔堆积(FDM)型3D打印时易受外部环境和参数设置的影响而发生故障,造成打印件的失败.为避免成型过程失败后继续打印,造成材料和时间的浪费,提出热熔堆积型3D打印故障自动诊断方法.该系统基于卷积神经网络(Convolutional Neural Network,CNN)的图像识别技术,通过监视、分析打印成型中零部件表面...  相似文献   
5.
为了提高水稻病害计算机视觉识别的准确性,研究提出针对水稻白叶枯病、赤枯病、胡麻斑病和纹枯病4种病害进行分类识别的模型。利用计算机视觉和机器学习软件库opencv对病斑图像进行随机旋转、随机翻转、随机亮度变换及随机对比度等处理方式扩充样本,应用区域生长、基于水平集的CV模型、显著性检测3种算法对图像进行分割。通过Tensorflow深度学习平台,构建网络层分别为6层(输入层32×32×3,卷积核大小为5×5)和8层(输入层227×227×3,卷积核大小为11×11、5×5、3×3)的卷积神经网络,将图像分割后得到的3组数据,均以8∶2的比例分别作为卷积神经网络的训练数据和测试数据,训练后得到6个模型,并结合召回率、F1评价指标对模型进行评估。结果表明,6个模型中训练识别准确率最低为97.66%,测试识别准确率最低为95.31%,其中以显著性检测分割算法和8层网络层的卷积神经网络结合得到的模型效果最佳,其训练识别准确率为99.99%,测试识别准确率为99.88%,相较于端到端的卷积神经网络水稻病害识别结果也有所提升。  相似文献   
6.
随着人工智能、大数据、机器学习、计算机视觉等技术的发展,卷积神经网络(CNN)越来越多地应用于图像识别领域,图像数据集的丰富性以及多样性对CNN模型的性能和表达能力至关重要,但现有的鱼类图像公共数据集资源较匮乏,严重缺少训练集以及测试集样本,难以满足深度CNN模型优化及性能提升的需要。实验以大黄鱼、鲤、鲢、秋刀鱼和鳙为对象,采用网络爬虫以及实验室人工拍照采集相结合的方式,构建了供鱼种分类的基础图片数据集,针对网络爬虫手段获取到的鱼类图像存在尺度不一、格式不定等问题,采用图像批处理的方式对所有获取到的图像进行了统一的数据预处理,并通过内容变换以及尺度变换对基础数据集做了数据增强处理,完成了7 993个样本的图像采集与归纳;在权值共享和局部连接的基础上,构建了一个用于鱼类识别的CNN模型,采用ReLU函数作为激活函数,通过dropout和正则化等方法避免过度拟合。结果显示,所构建的CNN鱼种识别模型具有良好的识别精度和泛化能力。随着迭代次数的增加,CNN模型的性能也逐步提高,迭代1 000次达到最佳,模型的准确率为96.56%。该模型采用监督学习的机器学习方式,基于CNN模型,实现了5种常见鱼类的鱼种分类,具有较高的识别精度和良好的稳定性,并且模型本身具有一定程度的鱼种推广可能性,为养殖鱼类的品种识别提供了一种新的理论计算模型。  相似文献   
7.
微藻在生态系统的结构和功能中具有极为重要的作用,而传统光学人工镜检方法对微藻种类鉴别具有较大的难度。本研究将微藻的光学图像进行了采样,并结合国内外专家对微藻鉴定的经验知识,制作了微藻图像数据集,并进行了数据增强处理。借助深度学习的原理和方法,构建了基于卷积神经网络结构的深度学习模型(AlexNet),对模型进行了训练,并利用5折交叉验证方法确保模型的稳定性。结果表明,模型的训练精度可达到98.78±0.98%,测试精度达85.46±0.23%,达到了预期效果。利用AlexNet模型训练得到的参数,对预留的280个样本图像进行实际测试,7个藻种的平均精确度、平均召回率和平均F1 Score分别为0.832,0.844和0.833。表明深度学习方法是鉴定微藻的一种有效方法。  相似文献   
8.
【目的】通过无人机获取荔枝冠层的遥感图像,评估每棵荔枝的开花率,以期为后续荔枝花期疏花保果、精准施肥施药提供决策依据。【方法】以遥感图像为研究对象,利用实例分割的方法分割每棵荔枝冠层后,结合园艺专家的综合判断,按开花率为0、10%~20%、50%~60%、80%及以上将开花率分为4类,使用ResNet、ResNeXt、ShuffleNetv2进行开花率分类比较,试验过程中发现ShuffleNetv2在识别准确率、参数量、训练和验证时间都有很大优势;在ShuffleNetv2上引入了空间注意力模块(Spatial attention module,SAM)后,增加了模型对位置信息的学习,在不显著增加参数量的情况下,提升荔枝冠层花期分类的精度。【结果】通过对多个主流深度神经网络的比较分析,ResNet50、ResNeXt50、ShuffleNetv2的分类精度分别达到85.96%、87.01%和86.84%,而改进后的ShuffleNetv2分类精度更高,达到88.60%;ResNet50、ResNeXt50、ShuffleNetv2和改进后的ShuffleNetv2对测试集单张冠层图像验...  相似文献   
9.
Lesions of tea (Camellia sinensis) leaves are detrimental to the growth of tea crops. Their adverse effects include further disease of tea leaves and a direct reduction in yield and profit. Therefore, early detection and on-site monitoring of tea leaf lesions are necessary for effective management to control infections and prevent further yield loss. In this study, 1,822 images of tea leaves with lesions caused by three diseases (brown blight, Colletotrichum camelliae; blister blight, Exobasidium vexans; and algal leaf spot, Cephaleuros virescens) and four pests (leaf miner, Tropicomyia theae; tea thrip, Scirtothrips dorsalis; tea leaf roller, Homona magnanima; and tea mosquito bug, Helopeltis fasciaticollis) were collected from northern and central Taiwan. A faster region-based convolutional neural network (Faster R-CNN) was then trained to detect the locations of the lesions on the leaves and to identify the causes of the lesions. The trained Faster R-CNN detector achieved a precision of 77.5%, recall of 70.6%, an F1 score of 73.91%, and a mean average precision of 66.02%. An overall accuracy of 89.4% was obtained for identification of the seven classes of tea diseases and pests. The developed detector could assist tea farmers in identifying the causes of lesions in real time.  相似文献   
10.
This paper presents a novel method to evaluate fish feeding intensity for aquaculture fish farming. Determining the level of fish appetite helps optimize fish production and design more efficient aquaculture smart feeding systems. Given an aquaculture surveillance video, our goal is to improve fish feeding intensity evaluation by proposing a two-stage approach: an optical flow neural network is first applied to generate optical flow frames, which are then inputted to a 3D convolution neural network (3D CNN) for fish feeding intensity evaluation. Using an aerial drone, we capture RGB water surface images with significant optical flows from an aquaculture site during the fish feeding activity. The captured images are inputs to our deep optical flow neural network, consisting of the leading neural network layers for video interpolation and the last layer for optical flow regression. Our optical flow detection model calculates the displacement vector of each pixel across two consecutive frames. To construct the training dataset of our CNNs and verify the effectiveness of our proposed approach, we manually annotated the level of fish feeding intensity for each training image frame. In this paper, the fish feeding intensity is categorized into four, i.e., ‘none,’ ‘weak,’ ‘medium’ and ‘strong.’ We compared our method with other state-of-the-art fish feeding intensity evaluations. Our proposed method reached up to 95 % accuracy, which outperforms the existing systems that use CNNs to evaluate the fish feeding intensity.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号