期刊导航
期刊开放获取
唐山市科学技术情报研究..
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
10
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于改进DenseFusion的卫星6D位姿估计方法
1
作者
王金聪
杨海峰
+2 位作者
宋文龙
汤普然
于志超
《激光杂志》
北大核心
2025年第3期161-168,共8页
针对目前在空间环境中光照强烈变化和空间背景复杂多变,以及卫星表面纹理特征稀缺情况下无法准确估计卫星在相机坐标系中的位置和姿态的问题,提出一种结合部分卷积(Partial Convolution,PConv)和大核注意力(large kernel attention,LKA...
针对目前在空间环境中光照强烈变化和空间背景复杂多变,以及卫星表面纹理特征稀缺情况下无法准确估计卫星在相机坐标系中的位置和姿态的问题,提出一种结合部分卷积(Partial Convolution,PConv)和大核注意力(large kernel attention,LKA)的卫星6D位姿估计方法。该方法以DenseFusion网络作为基础框架,首先改进了基于Blender的渲染数据集制作方法并制作了卫星位姿估计仿真数据集;其次,在特征提取网络的编码部分融入部分卷积模块降低对光照变化和背景噪声的敏感性;最后,为了获取不同尺度下纹理特征较弱卫星的特征图,设计一种金字塔场景解析网络LKA-PSPNet(Large Kernel Attention Pyramid Scene Parsing Network)实验结果表明,该算法在LineMod公共数据集和自制卫星仿真数据集上ADD-(S)指标分别达到97.6%和89.2%,与改进前相比,分别提升3.3个百分点和2.9个百分点,验证了改进算法的有效性。
展开更多
关键词
6d位姿估计
航天器智能
深度学习
仿真数据集
空间目标
在线阅读
下载PDF
职称材料
类别级多目标刚体6D位姿估计方法
2
作者
程硕
贾迪
+1 位作者
杨柳
何德堃
《液晶与显示》
北大核心
2025年第3期457-471,共15页
为解决传统方法采用单一对象CNN模型的扩展性差、通用性低及计算成本高的问题,以及优化多目标方法的性能,本文提出一种面向多目标6D位姿估计的单阶段网络架构,设计一种多分支特征提取解码器,有效地捕捉并聚合细节特征。本文提出特征优...
为解决传统方法采用单一对象CNN模型的扩展性差、通用性低及计算成本高的问题,以及优化多目标方法的性能,本文提出一种面向多目标6D位姿估计的单阶段网络架构,设计一种多分支特征提取解码器,有效地捕捉并聚合细节特征。本文提出特征优化与筛选模块,该模块对输入特征进行筛选以提取多尺度特征。以上两者结合,设计一种新的特征金字塔结构,提升网络的整体性能,提升对遮挡情况的位姿估计效果。实验在合成数据集LINEMOD及Occluded LINEMOD上进行。结果显示,本文方法在处理遮挡物体场景时取得了较显著的提升,与PyraPose、SD-Pose和CASAPose等现有最先进方法相比,本文方法在ADD/S-Recall指标上分别提高了43.1%、16.1%和12%。在目标数量较少时表现更佳,目标数量为4个时,性能提升17%。消融实验进一步验证了各模块的有效性。本文提出的单阶段多目标网络架构通过引入多分支特征提取解码器、特征优化与筛选模块以及特征金字塔结构,仅需训练一个网络即可处理任意数量的目标,在合成数据条件下,可以更好地完成6D位姿估计。实验结果验证了本文方法的有效性。
展开更多
关键词
6d位姿估计
多目标单阶段网络
多分支特征提取解码器
特征选择
合成数据
在线阅读
下载PDF
职称材料
基于光场EPI图像栈的6D位姿估计方法
被引量:
2
3
作者
李扬
张旭东
+1 位作者
孙锐
范之国
《电子测量与仪器学报》
CSCD
北大核心
2023年第4期122-130,共9页
光场相机单次拍摄可以同时记录光线的强度与方向信息,相较于RGB相机能够更好地揭示场景的三维结构和几何特征,在目标6D位姿估计领域具有独特优势。针对现有RGB位姿估计方法存在复杂场景下检测精度低、鲁棒性差的问题,本文首次提出了一...
光场相机单次拍摄可以同时记录光线的强度与方向信息,相较于RGB相机能够更好地揭示场景的三维结构和几何特征,在目标6D位姿估计领域具有独特优势。针对现有RGB位姿估计方法存在复杂场景下检测精度低、鲁棒性差的问题,本文首次提出了一种基于光场图像的端到端卷积神经网络目标位姿估计方法。该方法首先利用双路EPI编码模块实现高维光场数据的处理,通过重构出光场EPI图像栈和引入水平和垂直EPI卷积算子,提高对光场空间角度信息关联的建模能力,并由双分支孪生网络进行光场图像的浅层特征提取。其次,设计了带跳跃连接的特征聚合模块,对串联后的水平和垂直方向光场EPI浅层特征进行全局上下文聚合,使网络在逐像素关键点位置预测时有效结合全局和局部特征线索。针对光场数据不足问题,本文使用Lytro Illum光场相机采集真实场景,构建了一个丰富且场景复杂的光场位姿数据集——LF-6Dpose。在光场位姿数据集LF-6Dpose上的实验结果表明,该方法在ADD-S和2D Projection指标下平均位姿检测精度分别为57.61%和91.97%,超越了其他基于RGB的先进方法,能够更好地解决复杂场景下的目标6D位姿估计问题。
展开更多
关键词
光场
6d位姿估计
光场
位
姿
数据集
EPI图像栈
特征聚合模块
关键点
在线阅读
下载PDF
职称材料
基于伪孪生神经网络的低纹理工业零件6D位姿估计
被引量:
1
4
作者
王神龙
雍宇
吴晨睿
《电子学报》
EI
CAS
CSCD
北大核心
2023年第1期192-201,共10页
从单帧RGB图像中获取目标物体的6D位姿信息在机器人抓取、虚拟现实、自动驾驶等领域应用广泛.本文针对低纹理物体位姿估计精度不足的问题,提出一种基于伪孪生神经网络的位姿估计方法 .首先,通过渲染CAD模型的方式,获取不同观察角度下的...
从单帧RGB图像中获取目标物体的6D位姿信息在机器人抓取、虚拟现实、自动驾驶等领域应用广泛.本文针对低纹理物体位姿估计精度不足的问题,提出一种基于伪孪生神经网络的位姿估计方法 .首先,通过渲染CAD模型的方式,获取不同观察角度下的RGB图作为训练样本,解决了深度学习中数据集获取与标注较为繁琐的问题.其次,利用伪孪生神经网络结构学习二维图像特征和物体的三维网格模型特征之间的相似性,即分别采用全卷积网络和三维点云语义分割网络构成伪孪生神经网络,提取二维图像和三维模型的高维深层特征,使用网络推断密集的二维-三维对应关系.最后,通过PnP-RANSAC方法恢复物体的位姿.仿真数据集的实验结果表明,本文提出的方法具有较高的准确性和鲁棒性.
展开更多
关键词
深度学习
6d位姿估计
仿真数据集
伪孪生神经网络
点向密集匹配
在线阅读
下载PDF
职称材料
局部特征表征的6D位姿估计算法
5
作者
王晨露
陈立家
+5 位作者
李珅
范贤博俊
王敏
连晨轩
王赞
刘名果
《计算机应用研究》
CSCD
北大核心
2022年第12期3808-3814,共7页
为解决有纹理模型在遮挡条件下6D位姿估计精确度不高的问题,提出了一种局部特征表征的端到端6D位姿估计算法。首先为了得到准确的定位信息,提出了一个空间—坐标注意力机制(spatial and coordinate attention),通过在YOLOv5网络中加入...
为解决有纹理模型在遮挡条件下6D位姿估计精确度不高的问题,提出了一种局部特征表征的端到端6D位姿估计算法。首先为了得到准确的定位信息,提出了一个空间—坐标注意力机制(spatial and coordinate attention),通过在YOLOv5网络中加入空间—坐标注意力机制和加权双向特征金字塔网络(bidirectional feature pyramid network),YOLOv5-CBE算法的精确度(precision)、召回率(recall)、平均精度均值(mAP@0.5)分别提升了3.6%、2.8%、2.5%,局部特征中心点坐标误差最高提升了25%;然后用YOLOv5-CBE算法检测局部特征关键点,结合3D Harris关键点通过奇异值分解法(singular value decomposition)计算模型的6D位姿,最高遮挡70%的情况下仍然可以保证二维重投影精度(2D reprojection accuracy)和ADD度量精度(ADD accuracy)在95%以上,具有较强的鲁棒性。
展开更多
关键词
局部特征
6d位姿估计
YOLOv5检测网络
空间—坐标注意力机制
加权双向特征金字塔网络
在线阅读
下载PDF
职称材料
基于位置依赖的密集融合的6D位姿估计方法
被引量:
1
6
作者
黄榕彬
《现代信息科技》
2020年第22期16-19,共4页
基于RGBD的6D位姿估计方法的一个关键问题是如何进行彩色特征信息和深度特征信息的融合。先前的工作采用密集融合的方法,主要关注的是局部特征和全连接层提取的全局特征,忽略了远距离像素间的位置依赖关系。文章提出通过捕获像素间的位...
基于RGBD的6D位姿估计方法的一个关键问题是如何进行彩色特征信息和深度特征信息的融合。先前的工作采用密集融合的方法,主要关注的是局部特征和全连接层提取的全局特征,忽略了远距离像素间的位置依赖关系。文章提出通过捕获像素间的位置关系,并将其与彩色特征图和几何特征图进行密集融合,最后逐像素预测物体的6D位姿。实验结果表明,该文的方法相比其他方法在YCB-Video数据集上获得更优的结果。
展开更多
关键词
6d位姿估计
弱纹理
RGB-
d
密集融合
在线阅读
下载PDF
职称材料
结构化约束增强的6D物体位姿估计
7
作者
王立春
杨超
付芳玉
《北京工业大学学报》
北大核心
2025年第2期173-182,共10页
针对基于投票策略的6D物体位姿估计方法忽略了关键点间结构信息的问题,提出结构化约束增强的6D物体位姿估计方法——SC-Pose。该方法定义了一种用于描述物体2D关键点间结构化信息的形状描述符,通过增加关键点结构化损失约束形状描述符...
针对基于投票策略的6D物体位姿估计方法忽略了关键点间结构信息的问题,提出结构化约束增强的6D物体位姿估计方法——SC-Pose。该方法定义了一种用于描述物体2D关键点间结构化信息的形状描述符,通过增加关键点结构化损失约束形状描述符的预测值与真值相近,从而使2D关键点的定位更加准确,提升了6D物体位姿估计的精度。在LINEMOD、OCC-LINEMOD和TruncationLINEMOD数据集上进行了实验,结果表明,SC-Pose可以明显提升6D物体位姿估计的性能。
展开更多
关键词
6
d
物体
位
姿
估计
单
位
向量场
投票策略
结构化损失
抓取交互
深度网络
在线阅读
下载PDF
职称材料
基于关键点置信滤波的弱纹理物体6D姿态估计
8
作者
马永博
《工业控制计算机》
2025年第2期78-80,共3页
物体的6D姿态估计对机器人的操纵非常重要,然而,由于背景杂乱、被检测物体出现遮挡或纹理较弱等情况的出现,该工作将变得更加具有挑战性。为此,提出了一种针对弱纹理物体的关键点置信筛选方法(KCF),实现弱纹理物体处于遮挡情况时的6D姿...
物体的6D姿态估计对机器人的操纵非常重要,然而,由于背景杂乱、被检测物体出现遮挡或纹理较弱等情况的出现,该工作将变得更加具有挑战性。为此,提出了一种针对弱纹理物体的关键点置信筛选方法(KCF),实现弱纹理物体处于遮挡情况时的6D姿态估计。以一种全流双向融合网络为基础,我们使用置信约束,无监督地生成置信度,并用置信度来对显著区域做筛选,从而更好地确定待检测物体。通过平衡物体尺寸对损失函数的约束能力,来加大网络对遮挡物体的权重。实验表明,提出的方法在弱纹理物体上的姿态估计精度有明显提升。
展开更多
关键词
6d位姿估计
关键点
置信度
弱纹理物体
平衡因子
在线阅读
下载PDF
职称材料
基于改进YOLO6D的单目位姿估计算法研究
9
作者
潘江
任德均
+1 位作者
史雨杭
王淋楠
《传感器与微系统》
CSCD
北大核心
2024年第1期44-47,51,共5页
针对当前基于单目RGB图像的杂乱场景中低纹理物体6D位姿估计算法精度不高、实时性不强、模型复杂等问题,提出了一种基于改进YOLO6D的物体位姿估计算法。用纯卷积神经网络ConvNeXt替换原算法的主干网络DarkNet—19,将网络输出经过空间金...
针对当前基于单目RGB图像的杂乱场景中低纹理物体6D位姿估计算法精度不高、实时性不强、模型复杂等问题,提出了一种基于改进YOLO6D的物体位姿估计算法。用纯卷积神经网络ConvNeXt替换原算法的主干网络DarkNet—19,将网络输出经过空间金字塔池化(SPP)处理后上采样,与低层特征图拼接实现特征融合,以提高网络的特征提取能力和多尺度能力。基于Focal Loss改进损失函数以提升网络的学习能力。根据物体的先验尺寸信息和几何特征,推导出更多的2D—3D点对以提高透视投影变换PnP算法的解算精度。在LINEMOD数据集上进行了实验,实验结果表明:以2D重投影5像素阈值为指标,本文算法在12个实验对象上的平均精度达到了95.60%,相较原算法提升了8.14个百分点,耗时约为60ms,性能显著提升。
展开更多
关键词
6d位姿估计
单目视觉
ConvNeXt
PnP算法
在线阅读
下载PDF
职称材料
低质量渲染图像的目标物体6D姿态估计
被引量:
5
10
作者
左国玉
张成威
+1 位作者
刘洪星
龚道雄
《控制与决策》
EI
CSCD
北大核心
2022年第1期135-141,共7页
从图像中获取目标物体的6D位姿信息在机器人操作和虚拟现实等领域有着广泛的应用,然而,基于深度学习的位姿估计方法在训练模型时通常需要大量的训练数据集来提高模型的泛化能力,一般的数据采集方法存在收集成本高同时缺乏3D空间位置信...
从图像中获取目标物体的6D位姿信息在机器人操作和虚拟现实等领域有着广泛的应用,然而,基于深度学习的位姿估计方法在训练模型时通常需要大量的训练数据集来提高模型的泛化能力,一般的数据采集方法存在收集成本高同时缺乏3D空间位置信息等问题.鉴于此,提出一种低质量渲染图像的目标物体6D姿态估计网络框架.该网络中,特征提取部分以单张RGB图像作为输入,用残差网络提取输入图像特征;位姿估计部分的目标物体分类流用于预测目标物体的类别,姿态回归流在3D空间中回归目标物体的旋转角度和平移矢量.另外,采用域随机化方法以低收集成本方式构建大规模低质量渲染、带有物体3D空间位置信息的图像数据集Pose6DDR.在所建立的Pose6DDR数据集和LineMod公共数据集上的测试结果表明了所提出位姿估计方法的优越性以及大规模数据集域随机化生成数据方法的有效性.
展开更多
关键词
6d位姿估计
域随机化
低质量渲染
RGB图像
Pose
6
d
d
R
原文传递
题名
基于改进DenseFusion的卫星6D位姿估计方法
1
作者
王金聪
杨海峰
宋文龙
汤普然
于志超
机构
东北林业大学计算机与控制工程学院
出处
《激光杂志》
北大核心
2025年第3期161-168,共8页
基金
中国博士后基金(No.2021M690573)
中央高校基本科研业务费专项资金项目(No.2572020BF05)。
文摘
针对目前在空间环境中光照强烈变化和空间背景复杂多变,以及卫星表面纹理特征稀缺情况下无法准确估计卫星在相机坐标系中的位置和姿态的问题,提出一种结合部分卷积(Partial Convolution,PConv)和大核注意力(large kernel attention,LKA)的卫星6D位姿估计方法。该方法以DenseFusion网络作为基础框架,首先改进了基于Blender的渲染数据集制作方法并制作了卫星位姿估计仿真数据集;其次,在特征提取网络的编码部分融入部分卷积模块降低对光照变化和背景噪声的敏感性;最后,为了获取不同尺度下纹理特征较弱卫星的特征图,设计一种金字塔场景解析网络LKA-PSPNet(Large Kernel Attention Pyramid Scene Parsing Network)实验结果表明,该算法在LineMod公共数据集和自制卫星仿真数据集上ADD-(S)指标分别达到97.6%和89.2%,与改进前相比,分别提升3.3个百分点和2.9个百分点,验证了改进算法的有效性。
关键词
6d位姿估计
航天器智能
深度学习
仿真数据集
空间目标
Keywords
6
d
posture estimation
spacecraft intelligence
d
eep learning
simulation
d
ataset
space objectives
分类号
TN209 [电子电信—物理电子学]
在线阅读
下载PDF
职称材料
题名
类别级多目标刚体6D位姿估计方法
2
作者
程硕
贾迪
杨柳
何德堃
机构
辽宁工程技术大学电子与信息工程学院
辽宁工程技术大学鄂尔多斯研究院
出处
《液晶与显示》
北大核心
2025年第3期457-471,共15页
基金
国家自然科学基金(No.61601213)
辽宁工程技术大学鄂尔多斯研究院校地科技合作培育项目(No.YJY-XD-2023-003)。
文摘
为解决传统方法采用单一对象CNN模型的扩展性差、通用性低及计算成本高的问题,以及优化多目标方法的性能,本文提出一种面向多目标6D位姿估计的单阶段网络架构,设计一种多分支特征提取解码器,有效地捕捉并聚合细节特征。本文提出特征优化与筛选模块,该模块对输入特征进行筛选以提取多尺度特征。以上两者结合,设计一种新的特征金字塔结构,提升网络的整体性能,提升对遮挡情况的位姿估计效果。实验在合成数据集LINEMOD及Occluded LINEMOD上进行。结果显示,本文方法在处理遮挡物体场景时取得了较显著的提升,与PyraPose、SD-Pose和CASAPose等现有最先进方法相比,本文方法在ADD/S-Recall指标上分别提高了43.1%、16.1%和12%。在目标数量较少时表现更佳,目标数量为4个时,性能提升17%。消融实验进一步验证了各模块的有效性。本文提出的单阶段多目标网络架构通过引入多分支特征提取解码器、特征优化与筛选模块以及特征金字塔结构,仅需训练一个网络即可处理任意数量的目标,在合成数据条件下,可以更好地完成6D位姿估计。实验结果验证了本文方法的有效性。
关键词
6d位姿估计
多目标单阶段网络
多分支特征提取解码器
特征选择
合成数据
Keywords
6
d
pose estimation
multi-objective single-stage network
multi-
d
rop feature extraction layer
feature selection
composite
d
ata
分类号
TP391.4 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于光场EPI图像栈的6D位姿估计方法
被引量:
2
3
作者
李扬
张旭东
孙锐
范之国
机构
合肥工业大学计算机与信息学院
出处
《电子测量与仪器学报》
CSCD
北大核心
2023年第4期122-130,共9页
基金
国家自然科学基金(61876057)
安徽省科技重大专项(202103a06020010)
安徽省自然科学基金(2208085MF158)项目资助。
文摘
光场相机单次拍摄可以同时记录光线的强度与方向信息,相较于RGB相机能够更好地揭示场景的三维结构和几何特征,在目标6D位姿估计领域具有独特优势。针对现有RGB位姿估计方法存在复杂场景下检测精度低、鲁棒性差的问题,本文首次提出了一种基于光场图像的端到端卷积神经网络目标位姿估计方法。该方法首先利用双路EPI编码模块实现高维光场数据的处理,通过重构出光场EPI图像栈和引入水平和垂直EPI卷积算子,提高对光场空间角度信息关联的建模能力,并由双分支孪生网络进行光场图像的浅层特征提取。其次,设计了带跳跃连接的特征聚合模块,对串联后的水平和垂直方向光场EPI浅层特征进行全局上下文聚合,使网络在逐像素关键点位置预测时有效结合全局和局部特征线索。针对光场数据不足问题,本文使用Lytro Illum光场相机采集真实场景,构建了一个丰富且场景复杂的光场位姿数据集——LF-6Dpose。在光场位姿数据集LF-6Dpose上的实验结果表明,该方法在ADD-S和2D Projection指标下平均位姿检测精度分别为57.61%和91.97%,超越了其他基于RGB的先进方法,能够更好地解决复杂场景下的目标6D位姿估计问题。
关键词
光场
6d位姿估计
光场
位
姿
数据集
EPI图像栈
特征聚合模块
关键点
Keywords
light fiel
d
6
d
pose estimation
light fiel
d
pose
d
ataset
EPI image stack
feature aggregation mo
d
ule
key points
分类号
TN91 [电子电信—通信与信息系统]
TP391.41 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于伪孪生神经网络的低纹理工业零件6D位姿估计
被引量:
1
4
作者
王神龙
雍宇
吴晨睿
机构
上海理工大学机械工程学院
出处
《电子学报》
EI
CAS
CSCD
北大核心
2023年第1期192-201,共10页
基金
国家自然科学基金青年项目(No.52105525)
国家自然科学基金面上项目(No.12172226)。
文摘
从单帧RGB图像中获取目标物体的6D位姿信息在机器人抓取、虚拟现实、自动驾驶等领域应用广泛.本文针对低纹理物体位姿估计精度不足的问题,提出一种基于伪孪生神经网络的位姿估计方法 .首先,通过渲染CAD模型的方式,获取不同观察角度下的RGB图作为训练样本,解决了深度学习中数据集获取与标注较为繁琐的问题.其次,利用伪孪生神经网络结构学习二维图像特征和物体的三维网格模型特征之间的相似性,即分别采用全卷积网络和三维点云语义分割网络构成伪孪生神经网络,提取二维图像和三维模型的高维深层特征,使用网络推断密集的二维-三维对应关系.最后,通过PnP-RANSAC方法恢复物体的位姿.仿真数据集的实验结果表明,本文提出的方法具有较高的准确性和鲁棒性.
关键词
深度学习
6d位姿估计
仿真数据集
伪孪生神经网络
点向密集匹配
Keywords
d
eep learning
6
d
pose estimation
simulation
d
ata set
pseu
d
o-siamese neural network
d
ense matching of points
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
局部特征表征的6D位姿估计算法
5
作者
王晨露
陈立家
李珅
范贤博俊
王敏
连晨轩
王赞
刘名果
机构
河南大学物理与电子学院
开封平煤新型炭材料科技有限公司
出处
《计算机应用研究》
CSCD
北大核心
2022年第12期3808-3814,共7页
基金
国家自然科学基金资助项目(61901158)
河南省科技厅重点研发与推广专项资助项目(202102210121)
+3 种基金
河南省科技发展计划资助项目(科技攻关)(212102210500)
开封市重大专项资助项目(20ZD014)
开封市科技项目(2001016)
开封平煤新型炭材料科技有限公司(2021410202000003)。
文摘
为解决有纹理模型在遮挡条件下6D位姿估计精确度不高的问题,提出了一种局部特征表征的端到端6D位姿估计算法。首先为了得到准确的定位信息,提出了一个空间—坐标注意力机制(spatial and coordinate attention),通过在YOLOv5网络中加入空间—坐标注意力机制和加权双向特征金字塔网络(bidirectional feature pyramid network),YOLOv5-CBE算法的精确度(precision)、召回率(recall)、平均精度均值(mAP@0.5)分别提升了3.6%、2.8%、2.5%,局部特征中心点坐标误差最高提升了25%;然后用YOLOv5-CBE算法检测局部特征关键点,结合3D Harris关键点通过奇异值分解法(singular value decomposition)计算模型的6D位姿,最高遮挡70%的情况下仍然可以保证二维重投影精度(2D reprojection accuracy)和ADD度量精度(ADD accuracy)在95%以上,具有较强的鲁棒性。
关键词
局部特征
6d位姿估计
YOLOv5检测网络
空间—坐标注意力机制
加权双向特征金字塔网络
Keywords
local feature
6
d
pose estimation
YOLOv5
d
etection network
spatial an
d
coor
d
inate attention
bi
d
irectional feature pyrami
d
network
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于位置依赖的密集融合的6D位姿估计方法
被引量:
1
6
作者
黄榕彬
机构
广东工业大学
出处
《现代信息科技》
2020年第22期16-19,共4页
文摘
基于RGBD的6D位姿估计方法的一个关键问题是如何进行彩色特征信息和深度特征信息的融合。先前的工作采用密集融合的方法,主要关注的是局部特征和全连接层提取的全局特征,忽略了远距离像素间的位置依赖关系。文章提出通过捕获像素间的位置关系,并将其与彩色特征图和几何特征图进行密集融合,最后逐像素预测物体的6D位姿。实验结果表明,该文的方法相比其他方法在YCB-Video数据集上获得更优的结果。
关键词
6d位姿估计
弱纹理
RGB-
d
密集融合
Keywords
6
d
pose estimation
weak texture
RGB-
d
d
ense fusion
分类号
TP751 [自动化与计算机技术—检测技术与自动化装置]
在线阅读
下载PDF
职称材料
题名
结构化约束增强的6D物体位姿估计
7
作者
王立春
杨超
付芳玉
机构
北京工业大学信息学部
北京工业大学多媒体与智能软件技术北京市重点实验室
出处
《北京工业大学学报》
北大核心
2025年第2期173-182,共10页
基金
国家自然科学基金资助项目(62376014)
中国高校产学研创新基金资助项目(2021JQR023)。
文摘
针对基于投票策略的6D物体位姿估计方法忽略了关键点间结构信息的问题,提出结构化约束增强的6D物体位姿估计方法——SC-Pose。该方法定义了一种用于描述物体2D关键点间结构化信息的形状描述符,通过增加关键点结构化损失约束形状描述符的预测值与真值相近,从而使2D关键点的定位更加准确,提升了6D物体位姿估计的精度。在LINEMOD、OCC-LINEMOD和TruncationLINEMOD数据集上进行了实验,结果表明,SC-Pose可以明显提升6D物体位姿估计的性能。
关键词
6
d
物体
位
姿
估计
单
位
向量场
投票策略
结构化损失
抓取交互
深度网络
Keywords
6
d
object pose estimation
unit vector-fiel
d
voting strategy
structural loss
grasping interaction
d
eep network
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于关键点置信滤波的弱纹理物体6D姿态估计
8
作者
马永博
机构
东南大学自动化学院
出处
《工业控制计算机》
2025年第2期78-80,共3页
文摘
物体的6D姿态估计对机器人的操纵非常重要,然而,由于背景杂乱、被检测物体出现遮挡或纹理较弱等情况的出现,该工作将变得更加具有挑战性。为此,提出了一种针对弱纹理物体的关键点置信筛选方法(KCF),实现弱纹理物体处于遮挡情况时的6D姿态估计。以一种全流双向融合网络为基础,我们使用置信约束,无监督地生成置信度,并用置信度来对显著区域做筛选,从而更好地确定待检测物体。通过平衡物体尺寸对损失函数的约束能力,来加大网络对遮挡物体的权重。实验表明,提出的方法在弱纹理物体上的姿态估计精度有明显提升。
关键词
6d位姿估计
关键点
置信度
弱纹理物体
平衡因子
Keywords
6
d
pose estimation
keypoints
confi
d
ence
texture-less object
balance factor
分类号
TP242 [自动化与计算机技术—检测技术与自动化装置]
TP391.41 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
基于改进YOLO6D的单目位姿估计算法研究
9
作者
潘江
任德均
史雨杭
王淋楠
机构
四川大学机械工程学院
出处
《传感器与微系统》
CSCD
北大核心
2024年第1期44-47,51,共5页
文摘
针对当前基于单目RGB图像的杂乱场景中低纹理物体6D位姿估计算法精度不高、实时性不强、模型复杂等问题,提出了一种基于改进YOLO6D的物体位姿估计算法。用纯卷积神经网络ConvNeXt替换原算法的主干网络DarkNet—19,将网络输出经过空间金字塔池化(SPP)处理后上采样,与低层特征图拼接实现特征融合,以提高网络的特征提取能力和多尺度能力。基于Focal Loss改进损失函数以提升网络的学习能力。根据物体的先验尺寸信息和几何特征,推导出更多的2D—3D点对以提高透视投影变换PnP算法的解算精度。在LINEMOD数据集上进行了实验,实验结果表明:以2D重投影5像素阈值为指标,本文算法在12个实验对象上的平均精度达到了95.60%,相较原算法提升了8.14个百分点,耗时约为60ms,性能显著提升。
关键词
6d位姿估计
单目视觉
ConvNeXt
PnP算法
Keywords
6
d
pose estimation
monocular vision
ConvNeXt
perspective-n-point(PnP)algorithm
分类号
TP391.4 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
低质量渲染图像的目标物体6D姿态估计
被引量:
5
10
作者
左国玉
张成威
刘洪星
龚道雄
机构
北京工业大学信息学部
北京市计算智能与智能系统重点实验室
出处
《控制与决策》
EI
CSCD
北大核心
2022年第1期135-141,共7页
基金
国家重点研发计划项目(2018YFB1307004)
国家自然科学基金项目(61873008)
北京市自然科学基金项目(4182008,4192010)。
文摘
从图像中获取目标物体的6D位姿信息在机器人操作和虚拟现实等领域有着广泛的应用,然而,基于深度学习的位姿估计方法在训练模型时通常需要大量的训练数据集来提高模型的泛化能力,一般的数据采集方法存在收集成本高同时缺乏3D空间位置信息等问题.鉴于此,提出一种低质量渲染图像的目标物体6D姿态估计网络框架.该网络中,特征提取部分以单张RGB图像作为输入,用残差网络提取输入图像特征;位姿估计部分的目标物体分类流用于预测目标物体的类别,姿态回归流在3D空间中回归目标物体的旋转角度和平移矢量.另外,采用域随机化方法以低收集成本方式构建大规模低质量渲染、带有物体3D空间位置信息的图像数据集Pose6DDR.在所建立的Pose6DDR数据集和LineMod公共数据集上的测试结果表明了所提出位姿估计方法的优越性以及大规模数据集域随机化生成数据方法的有效性.
关键词
6d位姿估计
域随机化
低质量渲染
RGB图像
Pose
6
d
d
R
Keywords
6
d
pose estimation
d
omain ran
d
omization
low-quality ren
d
ering
RGB image
Pose
6
d
d
R
分类号
TP273 [自动化与计算机技术—检测技术与自动化装置]
原文传递
题名
作者
出处
发文年
被引量
操作
1
基于改进DenseFusion的卫星6D位姿估计方法
王金聪
杨海峰
宋文龙
汤普然
于志超
《激光杂志》
北大核心
2025
0
在线阅读
下载PDF
职称材料
2
类别级多目标刚体6D位姿估计方法
程硕
贾迪
杨柳
何德堃
《液晶与显示》
北大核心
2025
0
在线阅读
下载PDF
职称材料
3
基于光场EPI图像栈的6D位姿估计方法
李扬
张旭东
孙锐
范之国
《电子测量与仪器学报》
CSCD
北大核心
2023
2
在线阅读
下载PDF
职称材料
4
基于伪孪生神经网络的低纹理工业零件6D位姿估计
王神龙
雍宇
吴晨睿
《电子学报》
EI
CAS
CSCD
北大核心
2023
1
在线阅读
下载PDF
职称材料
5
局部特征表征的6D位姿估计算法
王晨露
陈立家
李珅
范贤博俊
王敏
连晨轩
王赞
刘名果
《计算机应用研究》
CSCD
北大核心
2022
0
在线阅读
下载PDF
职称材料
6
基于位置依赖的密集融合的6D位姿估计方法
黄榕彬
《现代信息科技》
2020
1
在线阅读
下载PDF
职称材料
7
结构化约束增强的6D物体位姿估计
王立春
杨超
付芳玉
《北京工业大学学报》
北大核心
2025
0
在线阅读
下载PDF
职称材料
8
基于关键点置信滤波的弱纹理物体6D姿态估计
马永博
《工业控制计算机》
2025
0
在线阅读
下载PDF
职称材料
9
基于改进YOLO6D的单目位姿估计算法研究
潘江
任德均
史雨杭
王淋楠
《传感器与微系统》
CSCD
北大核心
2024
0
在线阅读
下载PDF
职称材料
10
低质量渲染图像的目标物体6D姿态估计
左国玉
张成威
刘洪星
龚道雄
《控制与决策》
EI
CSCD
北大核心
2022
5
原文传递
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部