期刊文献+
共找到8篇文章
< 1 >
每页显示 20 50 100
融合全局上下文注意力的遥感图像检测方法
1
作者 廖欢 朱文球 +1 位作者 雷源毅 徐轲 《兵器装备工程学报》 CAS CSCD 北大核心 2024年第2期278-283,共6页
针对遥感图像场景复杂、目标尺寸不一、且小尺寸目标过多导致的检测精度不佳和出现漏检等问题,提出了一种融合全局上下文注意力的目标检测算法。该算法提出一种全局上下文注意力机制和YOLOv5中C3结构融合的模块,以提升网络捕捉图像全局... 针对遥感图像场景复杂、目标尺寸不一、且小尺寸目标过多导致的检测精度不佳和出现漏检等问题,提出了一种融合全局上下文注意力的目标检测算法。该算法提出一种全局上下文注意力机制和YOLOv5中C3结构融合的模块,以提升网络捕捉图像全局特征的能力;通过Varifocal Loss损失函数来提升对密集、尺寸小的目标的检测性能;采用基于归一化的注意力模块,降低图像中不太显著的特征和权重,使网络能够达到更高的检测准确率;利用动态卷积学习各个维度的信息,让训练得到的模型在降低GFLOPs情况下,同时保持检测精度提升。在NWPU VHR-10数据集上实验结果mAP为96.0%、准确率为98.2%、召回率为94.9%,较原YOLOv5模型分别提升了1.8%、4.7%和2.2%,证明了所改进YOLOv5方法的有效性。 展开更多
关键词 YOLOv5 遥感图像 Varifocal Loss 全局上下文注意力机制 动态卷积
在线阅读 下载PDF
基于多尺度混合注意力的行人重识别模型
2
作者 刘家林 宣士斌 罗俊 《计算机工程与设计》 北大核心 2024年第11期3397-3404,共8页
针对目前行人重识别中复杂背景下人物容易被遮挡物掩盖和人物特征不明显导致模型难以提取重点特征的问题,提出一种基于多尺度混合注意力的行人重识别模型。在特征提取部分,设计一种特征提取模块,即多尺度混合注意力残差块,通过该模块可... 针对目前行人重识别中复杂背景下人物容易被遮挡物掩盖和人物特征不明显导致模型难以提取重点特征的问题,提出一种基于多尺度混合注意力的行人重识别模型。在特征提取部分,设计一种特征提取模块,即多尺度混合注意力残差块,通过该模块可得到丰富上下文关系,在频域范围内获得更丰富的通道特征信息。通过在大型数据集Market1501、DukeMTMC-reID、CUHK03-L、CUHK03-D上的验证,行人重识别的精度得到了有效提升,与目前先进的模型结果对比,mAP精度提升了0.3%、2.1%、0.7%、2.9%,Rank1在DukeMTMC-reID、CUHK03-L数据集提升了0.2%、0.8%。 展开更多
关键词 行人重识别 上下文注意力机制 多谱通道注意力 深度学习 混合注意力机制 多分支网络结构 全尺度特征
在线阅读 下载PDF
基于改进的YOLOv8n海洋动物目标检测算法:DPSC-YOLO
3
作者 梁佳杰 徐慧英 +3 位作者 朱信忠 王舒梦 刘子洋 李琛 《计算机工程与科学》 北大核心 2025年第4期695-705,共11页
在海洋复杂的环境中,由于图像拍摄模糊、背景复杂,导致基于深度学习的目标检测算法存在特征提取困难和目标漏检等问题,因此海洋目标检测算法需要更加高效且性能优越。为此提出了一种基于YOLOv8n改进的海洋动物目标检测算法:DPSC-YOLO。... 在海洋复杂的环境中,由于图像拍摄模糊、背景复杂,导致基于深度学习的目标检测算法存在特征提取困难和目标漏检等问题,因此海洋目标检测算法需要更加高效且性能优越。为此提出了一种基于YOLOv8n改进的海洋动物目标检测算法:DPSC-YOLO。在主干网络中引入DCNv2模块,通过增强空间建模能力来适应对象的几何变化;在主干网络末端引入空间金字塔池化SPPFCSPC,在保持模型感知场不变的同时减少模型的计算量;在颈部网络增加F 2极小目标检测头,结合其余3个尺度,使用4个不同的感受野检测层提高小目标检测精度;在颈部网络的C2f模块中结合CoTAttention注意力机制更好地利用相邻键之间的上下文信息,并根据数据的特点动态调整注意力分配。实验结果表明,DPSC-YOLO目标检测算法与YOLOv8n相比mAP@0.5提升了1.1%,mAP@0.5:0.95提升了4.6%,同时仅有较少的参数量和计算量的增加,证明DPSC-YOLO更适合复杂海洋环境中的目标检测任务。 展开更多
关键词 YOLOv8 DCNv2 SPPFCSPC 上下文注意力机制 小目标检测头
在线阅读 下载PDF
面向复杂背景环境下垃圾检测的YOLOv8n轻量化改进
4
作者 孙世政 何玲玲 +2 位作者 郑帅 徐向阳 陈仁祥 《电子测量与仪器学报》 北大核心 2025年第2期136-146,共11页
垃圾检测与分类对推动绿色经济和实现低碳循环具有重要意义,面向复杂背景环境的垃圾检测模型存在参数量大、计算成本高等问题,限制了模型在资源受限设备上的应用。为解决上述问题,提出一种轻量化的GCAW-YOLOv8n模型,旨在平衡模型轻量化... 垃圾检测与分类对推动绿色经济和实现低碳循环具有重要意义,面向复杂背景环境的垃圾检测模型存在参数量大、计算成本高等问题,限制了模型在资源受限设备上的应用。为解决上述问题,提出一种轻量化的GCAW-YOLOv8n模型,旨在平衡模型轻量化与精度检测。首先,在YOLOv8n骨干网络中引入GhostNet网络中的C3Ghost和GhostConv模块,有效降低模型参数量;其次,添加上下文锚点注意力机制,增强特征提取能力,提升检测精度;然后,在特征融合阶段,构建渐近特征金字塔网络,提升多尺度目标检测能力;接着,采用WIoU v3边界损失函数优化网络边界框回归性能;最后,结合Taco数据集和人工采集数据集进行了模型验证实验。实验结果表明,相比原YOLOv8n模型,改进后的GCAW-YOLOv8n模型在模型参数量Params和计算量FLOPs分别降低了14.3%和33.3%,而精确度和召回率分别提高了4.4%和1.9%,同时mAP@0.5达到了81.3%,提升了0.7%。改进模型更好地平衡了模型轻量化和检测精度,对模型部署与应用至边缘端检测装备具有重要的工程意义。 展开更多
关键词 垃圾检测 轻量化YOLOv8n GhostNet 上下文锚点注意力机制 渐近特征金字塔
在线阅读 下载PDF
不平衡数据下面向包粒度应用层负载的轻量化入侵检测模型
5
作者 杨毅铭 陈世平 《小型微型计算机系统》 北大核心 2025年第2期465-473,共9页
网络入侵检测是一种重要的网络安全方案.目前网络入侵检测模型都有较高精确度,但是模型复杂,参数量和计算量较大.针对该问题,设计了一种新的基于包粒度应用层负载的网络入侵检测一维卷积轻量模型.本文首先对UNSWNB15数据集的原始流量文... 网络入侵检测是一种重要的网络安全方案.目前网络入侵检测模型都有较高精确度,但是模型复杂,参数量和计算量较大.针对该问题,设计了一种新的基于包粒度应用层负载的网络入侵检测一维卷积轻量模型.本文首先对UNSWNB15数据集的原始流量文件进行包粒度应用层负载数据提取,构造一维灰度特征向量.在此基础上,本文提出一种由新的一维深度可分离卷积残差模块组成,融入了全局上下文注意力机制(Global Context Attention Module)的一维卷积轻量模型Fast Payload,并进行了针对性的模型优化和可行性论证.Fast Payload模型在UNSWNB15数据集上的9分类任务中宏平均准确率达到82.433%,加权平均精确率达到90.820%,均高于对比模型;同时,该模型计算量和参数量均低于对比模型.其次本文提出了二阶段类别平衡损失函数GHM2StageLoss,有效解决了数据集的类别不平衡问题,相比其他类别平衡损失函数,效果更好.为方便后续研究的复现,本研究开源部分源代码,网址为https://github.com/sadantange/FastPayload. 展开更多
关键词 入侵检测 一维卷积神经网络 深度可分离卷积 全局上下文注意力机制 类别平衡
在线阅读 下载PDF
基于图神经张量网络的图相似度计算研究
6
作者 刘佳俊 庞慧 严鑫瑜 《河北建筑工程学院学报》 2024年第4期250-254,共5页
以图卷积神经网络为基础结合神经张量网络(NTN)来解决图相似性判断问题,该方法在减轻计算负担的同时也实现了较高的准确率,改进后的方法称为NTNGNN。首先,设计一个可学习的嵌入函数,它将每个图映射到一个嵌入向量,从而提供了一个图的全... 以图卷积神经网络为基础结合神经张量网络(NTN)来解决图相似性判断问题,该方法在减轻计算负担的同时也实现了较高的准确率,改进后的方法称为NTNGNN。首先,设计一个可学习的嵌入函数,它将每个图映射到一个嵌入向量,从而提供了一个图的全局特征;其次,应用了一种改进的全局上下文注意力机制,它强调不同节点对图的全局特征影响不同,从而更好地表示出整个图的全局特征。最后,以计算图编辑距离(GED)为例,在AIDS和LINUX图数据集上进行实验,实验结果体现了该方法的有效性和高效性。通过与一系列的基线模型和近似算法的GED计算结果进行比较,此模型均实现了更高的准确率。 展开更多
关键词 图相似度计算 图神经网络 神经张量网络 全局上下文注意力机制
在线阅读 下载PDF
基于并行对抗与多条件融合的生成式高分辨率图像修复 被引量:11
7
作者 邵杭 王永雄 《模式识别与人工智能》 EI CSCD 北大核心 2020年第4期363-374,共12页
现有的图像修复算法经常会有伪影、语义不准等问题出现,对于缺失较大、分辨率较高的图像,修复效果有限.为此,文中提出基于并行对抗与多条件融合的二阶图像修复网络.首先,利用改进的深度残差网络对缺失图像进行生成式像素填充,并利用第... 现有的图像修复算法经常会有伪影、语义不准等问题出现,对于缺失较大、分辨率较高的图像,修复效果有限.为此,文中提出基于并行对抗与多条件融合的二阶图像修复网络.首先,利用改进的深度残差网络对缺失图像进行生成式像素填充,并利用第一阶对抗网络补全边缘.然后,提取填充图颜色特征,融合补全边缘图,将融合图作为第二阶对抗网络的条件标签.最后,通过带上下文注意力模块的第二阶网络得到修复结果.在多个数据集上的实验表明,文中算法可获得较逼真的修复效果. 展开更多
关键词 深度学习 图像修复 生成对抗网络 多条件融合 上下文注意力机制
在线阅读 下载PDF
SA-FRCNN:An Improved Object Detection Method for Airport Apron Scenes 被引量:2
8
作者 LYU Zonglei CHEN Liyun 《Transactions of Nanjing University of Aeronautics and Astronautics》 EI CSCD 2021年第4期571-586,共16页
The airport apron scene contains rich contextual information about the spatial position relationship.Traditional object detectors only considered visual appearance and ignored the contextual information.In addition,th... The airport apron scene contains rich contextual information about the spatial position relationship.Traditional object detectors only considered visual appearance and ignored the contextual information.In addition,the detection accuracy of some categories in the apron dataset was low.Therefore,an improved object detection method using spatial-aware features in apron scenes called SA-FRCNN is presented.The method uses graph convolutional networks to capture the relative spatial relationship between objects in the apron scene,incorporating this spatial context into feature learning.Moreover,an attention mechanism is introduced into the feature extraction process,with the goal to focus on the spatial position and key features,and distance-IoU loss is used to achieve a more accurate regression.The experimental results show that the mean average precision of the apron object detection based on SAFRCNN can reach 95.75%,and the detection effect of some hard-to-detect categories has been significantly improved.The proposed method effectively improves the detection accuracy on the apron dataset,which has a leading advantage over other methods. 展开更多
关键词 airport apron scene object detection graph convolutional network spatial context attention mechanism
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部