针对视觉传感器采集到的图像进行三维人体姿态估计,提出一种双循环Transformer网络模型,有效地从二维关键关节点中提取时空维度高相关性特征,增大感受野,从而提高三维姿态估计的精度。通过在视觉传感器采集得到的公开数据集Human3.6M上...针对视觉传感器采集到的图像进行三维人体姿态估计,提出一种双循环Transformer网络模型,有效地从二维关键关节点中提取时空维度高相关性特征,增大感受野,从而提高三维姿态估计的精度。通过在视觉传感器采集得到的公开数据集Human3.6M上的仿真实验,验证了双循环Transformer算法的性能。分析结果表明,最终估计得到的三维人体关节点的平均关节点位置偏差MPJPE(Mean Per Joint Position Error)为41.6 mm,相比于现有方法有一定提升,可以应用到许多下游相关工作中,有着较强的应用价值。展开更多
现有的基于卷积神经网络的超分辨率重建方法由于感受野限制,难以充分利用遥感图像丰富的上下文信息和自相关性,导致重建效果不佳.针对该问题,本文提出了一种基于多重蒸馏与Transformer的遥感图像超分辨率(remote sensing image super-re...现有的基于卷积神经网络的超分辨率重建方法由于感受野限制,难以充分利用遥感图像丰富的上下文信息和自相关性,导致重建效果不佳.针对该问题,本文提出了一种基于多重蒸馏与Transformer的遥感图像超分辨率(remote sensing image super-resolution based on multi-distillation and Transformer,MDT)重建方法.首先结合多重蒸馏和双注意力机制,逐步提取低分辨率图像中的多尺度特征,以减少特征丢失.接着,构建一种卷积调制Transformer来提取图像的全局信息,恢复更多复杂的纹理细节,从而提升重建图像的视觉效果.最后,在上采样过程中添加全局残差路径,提高特征在网络中的传播效率,有效减少了图像的失真与伪影问题.在AID和UCMerced两个数据集上的进行实验,结果表明,本文方法在放大至4倍超分辨率任务上的峰值信噪比和结构相似度分别最高达到了29.10 dB和0.7807,重建图像质量明显提高,并且在细节保留方面达到了更好的视觉效果.展开更多
文摘针对视觉传感器采集到的图像进行三维人体姿态估计,提出一种双循环Transformer网络模型,有效地从二维关键关节点中提取时空维度高相关性特征,增大感受野,从而提高三维姿态估计的精度。通过在视觉传感器采集得到的公开数据集Human3.6M上的仿真实验,验证了双循环Transformer算法的性能。分析结果表明,最终估计得到的三维人体关节点的平均关节点位置偏差MPJPE(Mean Per Joint Position Error)为41.6 mm,相比于现有方法有一定提升,可以应用到许多下游相关工作中,有着较强的应用价值。
文摘现有的基于卷积神经网络的超分辨率重建方法由于感受野限制,难以充分利用遥感图像丰富的上下文信息和自相关性,导致重建效果不佳.针对该问题,本文提出了一种基于多重蒸馏与Transformer的遥感图像超分辨率(remote sensing image super-resolution based on multi-distillation and Transformer,MDT)重建方法.首先结合多重蒸馏和双注意力机制,逐步提取低分辨率图像中的多尺度特征,以减少特征丢失.接着,构建一种卷积调制Transformer来提取图像的全局信息,恢复更多复杂的纹理细节,从而提升重建图像的视觉效果.最后,在上采样过程中添加全局残差路径,提高特征在网络中的传播效率,有效减少了图像的失真与伪影问题.在AID和UCMerced两个数据集上的进行实验,结果表明,本文方法在放大至4倍超分辨率任务上的峰值信噪比和结构相似度分别最高达到了29.10 dB和0.7807,重建图像质量明显提高,并且在细节保留方面达到了更好的视觉效果.