首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   33篇
  免费   2篇
  国内免费   29篇
基础科学   30篇
  26篇
综合类   6篇
畜牧兽医   2篇
  2024年   4篇
  2023年   11篇
  2022年   7篇
  2021年   5篇
  2020年   5篇
  2019年   5篇
  2018年   4篇
  2017年   3篇
  2015年   7篇
  2014年   5篇
  2013年   1篇
  2012年   6篇
  2011年   1篇
排序方式: 共有64条查询结果,搜索用时 15 毫秒
11.
为了更好地实现不同光照条件下的农作物图像融合,在Contourlet变换(contourlet transform,CT)的基础上采用了适合农作物图像的融合规则进行了融合处理。首先,采用Contourlet变换对源图像进行多尺度、多方向分解,得到低频子带系数和带通方向子带系数。然后,针对低频子带系数的选择,采用了一种改进的线性加权融合方法,以期减小噪声对融合结果的影响;针对带通方向子带系数的选择,结合人眼视觉特性,采用了一种基于梯度最大化规则的系数选择方案,得到待融合图像的系数。最后,经过Contourlet逆变换得到融合图像。与小波变换方法(wavelet transform,WT)进行了融合结果的比较,结果表明,与WT方法相比,该文方法在互信息量(mutual information,MI)、空间频率(spatial frequency,SF)、均方差(mean square error,MSE)、信息熵(entropy,Ent)、相关系数(correlation coefficient,CC)、平均梯度(average gradient,G’)和峰值信噪比(peak signal to noise ratio,PSNR)指标上均有了较大提升,表明利用该方法可以取得优于WT的融合效果;在此基础上,利用CT常见融合规则与文中融合规则进行了比较,同样表明CT方法可以有效提高图像融合的效果。研究表明,将文中所采用的融合规则应用于不同光照条件下的农作物图像融合是有效的、可行的。该研究可为变光照条件下的作物图像融合技术提供参考。  相似文献   
12.
基于SVM的小麦叶部病害识别方法研究   总被引:2,自引:0,他引:2  
为了准确识别小麦叶部常见病害,为小麦病情诊断和发展状况判断提供科学依据,设计并实现了一种基于SVM(Support Vector Machine)的小麦叶部常见病害识别方法。该方法可以实现对小麦白粉病、条锈病和叶锈病的准确识别。首先,基于中值滤波法和K均值聚类算法,实现了图像的去噪及病斑分割;然后,提取了病斑区域形状特征和纹理特征;最后,利用SVM算法对小麦叶部病害进行了分类识别。随机试验结果表明,利用所提取的特征可以有效地实现小麦叶部常见病害的识别,基于形状特征的综合识别率可达99.33%;利用SVM算法进行小麦病害叶片识别是有效的、可行的。该方法对于农作物病害智能识别的推广具有较好的借鉴意义。  相似文献   
13.
苹果采摘机器人视觉系统研究进展   总被引:4,自引:10,他引:4  
视觉系统是苹果采摘机器人最重要的组成部分之一,它在一定程度上决定了苹果采摘机器人完成采摘任务的质量及速度。为明确苹果采摘机器人视觉系统所面临的挑战及未来研究方向,该文首先对世界各国现有苹果采摘机器人的研究情况从视觉传感器类型、视觉系统硬件组成、采摘成功率及作业时间等方面进行了概述,然后分别对现有苹果采摘机器人视觉系统中苹果图像分割方法、受着色度、光照、表面阴影、振荡、重叠及遮挡等影响下的苹果目标的识别与定位方法、苹果采摘机器人视觉系统对枝干等障碍物的识别方法以及视觉系统中双目视觉技术立体匹配问题进行了综述,进一步分析了苹果采摘机器人视觉系统中存在的问题,指出视觉系统结构的优化、视觉系统中智能算法的优化、提高视觉系统的实时性、振荡苹果目标的识别与定位、视觉系统受振动影响时苹果目标的识别与定位及提高视觉系统的性价比等方面将成为未来重点研究方向,为深入研究苹果采摘机器人视觉系统提供参考。  相似文献   
14.
【目的】构建融合高级与低级视觉特征的农业图像(果实、农作物及畜禽目标)显著性区域预测算法,为农作物生长状态的监测、动物的体况评估提供支持。【方法】提出一种整合高级和低级视觉特征的农业图像显著性区域预测深度学习框架及其预训练方案。在MSRA10k数据集上按照6∶2∶2的比例进行训练、验证和测试,并采用F-Measure作为评价指标,在6种公共数据集(SOD、ASD、SED2、ECSSD、HKU-IS和THUR)及农业图像典型数据集上,将预测算法与4种显著性预测算法(MWS、IMS、FSN、P-Net)进行对比。【结果】所建立的预测算法在6种公共数据集上的平均F-Measure分数最高,为0.823,平均MAE分数最低,为0.099,显著性可视化结果边界完整,与人工标记的基准图像更接近。在农业图像典型数据集上的平均F-Measure为0.826,表明该算法可有效应对复杂农业场景的干扰,实现更为准确的目标轮廓信息提取。【结论】融合高级与低级视觉特征的图像显著性区域预测算法,可以实现对复杂农业场景下农作物及畜禽图像显著性区域的快速、准确预测。  相似文献   
15.
奶牛身体部位的精准分割广泛应用于奶牛体况评分、姿态检测、行为分析及体尺测量等领域。受奶牛表面污渍和遮挡等因素的影响,现有奶牛部位精准分割方法实用性较差。本研究在YOLO v8n-seg模型的基础上,加入多尺度融合模块与双向跨尺度加权特征金字塔结构,提出了YOLO v8n-seg-FCA-BiFPN奶牛身体部位分割模型。其中,多尺度融合模块使模型更好地提取小目标几何特征信息,双向跨尺度加权特征金字塔结构实现了更高层次的特征融合。首先在奶牛运动通道处采集奶牛侧面图像作为数据集,为保证数据集质量,采用结构相似性算法剔除相似图像,共得到1452幅图像。然后对目标奶牛的前肢、后肢、乳房、尾部、腹部、头部、颈部和躯干8个部位进行标注并输入模型训练。测试结果表明,模型精确率为96.6%,召回率为94.6%,平均精度均值为97.1%,参数量为3.3×106,检测速度为6.2f/s。各部位精确率在90.3%~98.2%之间,平均精度均值为96.3%。与原始YOLO v8n-seg相比,YOLO v8n-seg-FCA-BiFPN的精确率提高3.2个百分点,召回率提高2.6个百分点,平均精度均值提高3.1个百分点,改进后的模型在参数量基本保持不变的情况下具有更强的鲁棒性。遮挡情况下该模型检测结果表明,精确率为93.8%,召回率为91.67%,平均精度均值为93.15%。结果表明,YOLO v8n-seg-FCA-BiFPN网络可以准确、快速地实现奶牛身体部位精准分割。  相似文献   
16.
为实现作物干旱胁迫状态无损识别,该研究提出了基于叶绿素荧光动力学参数的苗期番茄干旱胁迫状态识别方法.首先利用叶绿素荧光成像系统采集不同干旱胁迫程度的植株冠层叶绿素荧光图像,并将顶层叶片图像像素均值作为该植株的叶绿素荧光参数值;然后,采用连续投影法(Successive Projections Algorithm,SPA...  相似文献   
17.
为了实现非结构化道路检测与障碍物的识别,提出了一种基于最小错误率贝叶斯决策与Hough变换相结合的非结构化道路检测与障碍物识别算法。算法首先将Otsu多阈值理论引入到最小错误率贝叶斯决策中并进行图像分割,然后利用Hough变换进行道路检测、提取出纯路面区域并再次进行路面分割,最后根据分割结果进行路面障碍物定位。结果表明,该算法能够有效实现非结构化道路的检测与障碍物的识别,在光影、照度变化、水渍等不利因素影响较小的情况下,具有较好的鲁棒性。  相似文献   
18.
奶牛反刍行为的智能监测对于奶牛健康及提升现代养殖业的水平具有重要意义。奶牛嘴部区域的自动检测是奶牛反刍行为智能监测的关键,该文提出一种基于Horn-Schunck光流法的多目标奶牛嘴部区域自动检测方法。利用Horn-Schunck光流法模型求取奶牛反刍视频中各时间序列图像的光流场,将各帧序列图像中运动较大的光流数据进行叠加,获取奶牛反刍时的候选嘴部区域,最后运用奶牛嘴部区域检测模型实现反刍奶牛嘴部区域的检测。为了验证算法的有效性,利用不同环境下获取的12段视频进行验证,选取的12段视频的每段时长10 s,每段视频帧数在250~280帧之间,结果表明,对于多目标奶牛,12段视频中有8段视频可以成功检测到反刍奶牛的嘴部区域;根据所定义的真实充盈率指标与检测充盈率指标,分别统计了8段成功检测反刍奶牛嘴部区域的视频检测结果,试验表明,8段视频中最大真实充盈率为96.76%,最小真实充盈率为25.36%,总体平均真实充盈率为63.91%;最大检测充盈率为98.51%,最小检测充盈率为43.80%,总体平均检测充盈率为70.06%。研究结果表明,将Horn-Schunck光流法应用于多目标奶牛嘴部区域的自动检测是可行的,该研究可为奶牛反刍行为的智能监测提供参考。  相似文献   
19.
奶牛呼吸行为的智能检测对于奶牛疾病的自动诊断及奶牛精准养殖具有重要意义。该研究基于Lucas-Kanade稀疏光流算法,提出了一种适合于非结构化养殖环境的无接触式单目标奶牛呼吸行为检测方法。通过在HSV颜色空间完成奶牛目标的提取,然后通过Canny算子和掩模操作完成奶牛所有花斑边界的检测,再利用Lucas-Kanade稀疏光流算法计算提取奶牛花斑边界光流,最后根据视频序列帧中花斑边界平均光流的方向变化规律实现奶牛呼吸行为的检测。为了验证本研究算法的有效性,利用不同环境下获取的105段共计25 200帧数据进行了测试,并与基于整体Lucas-Kanade光流法、整体Horn-Schunck光流法和基于花斑边界的Horn-Schunck光流法进行了对比验证。试验结果表明,该研究算法的帧处理耗时在0.10~0.13 s之间,在试验视频上的平均运行时间为14.14 s。奶牛呼吸行为检测的准确率为83.33%~100%之间,平均准确率为98.58%。平均运行时间较基于整体Lucas-Kanade光流法的呼吸行为检测方法慢1.60 s,较Horn-Schunck整体光流的呼吸行为检测方法快7.30 s,较基于花斑边界的Horn-Schunck光流法快9.16 s。呼吸行为检测的平均准确率分别高于3种方法 1.91、2.36、1.26个百分点。研究结果表明,通过Lucas-Kanade光流法检测奶牛花斑边界平均光流方向变化实现奶牛呼吸行为检测是可行的,该研究可为奶牛热应激行为的自动监测及其他与呼吸相关疾病的远程诊断提供参考。  相似文献   
20.
果实目标深度学习识别技术研究进展   总被引:1,自引:0,他引:1  
机器视觉技术是果实目标识别与定位研究的关键。传统的目标识别算法准确率较低、检测速度较慢,难以满足实际生产的需求。近年来,深度学习方法在果实目标识别与定位任务中表现出了优良的性能。本文从数据集制备与果实目标识别模型两方面进行综述,总结了数据集制备相关的有监督、半监督和无监督3种方法的特点,按照深度学习算法的发展历程,归纳了基于深度学习的果实目标检测和分割技术的常用方法及其实际应用,轻量化模型的研究进展及其应用情况,基于深度学习的果实目标识别技术面临的问题和挑战。最后指出基于深度学习的果实目标识别方法未来发展趋势为:通过弱监督学习来降低模型对数据标签的依赖性,提高轻量化模型的检测速度以实现果实目标的实时准确检测。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号