1 武汉科技大学 信息科学与工程学院,湖北 武汉 430080
2 武汉科技大学 冶金自动化与检测技术教育部工程研究中心,湖北 武汉 430080
针对传统SIFT匹配算法复杂、特征冗余点多、难以满足实时性等问题,本文提出了一种具有局部自适应阈值的SIFT快速图像匹配算法。首先,所提方法在SIFT算法的基础上,对构建的高斯金字塔进行了优化,通过减少金字塔层数来消除冗余特征点以提高检测效率,并根据图像局部对比度来自适应提取FAST算法中的阈值从而实现高质量的特征点检测,筛选出鲁棒性较强的特征点进行更准确的匹配;其次,采用高斯圆形窗口建立32维降维特征向量,提高算法运行效率;最后,根据匹配特征点对之间的几何一致性对特征点进行提纯,有效减少误匹配。实验结果表明,本文方法在匹配精度和运算效率方面的综合表现均优于SIFT算法及其他对比匹配算法,相比传统的SIFT算法,匹配精度提高了约10%,算法运行时间缩短了约49%。在图像发生尺度、旋转以及光照变化的情况下,正确匹配率在93%以上。
SIFT算法 高斯金字塔 自适应阈值 特征描述符 图像匹配 SIFT algorithm Gaussian pyramid adaptive thresholds feature descriptor image matching
1 辽宁工程技术大学 软件学院,辽宁 葫芦岛 125105
2 汕头职业技术学院 计算机系,广东 汕头 515071
现有的层级式文本生成图像的方法在初始图像生成阶段仅使用上采样进行特征提取,上采样过程本质是卷积运算,卷积运算的局限性会造成全局信息被忽略并且远程语义无法交互。虽然已经有方法在模型中加入自注意力机制,但依然存在图像细节缺失、图像结构性错误等问题。针对上述存在的问题,提出一种基于自监督注意和图像特征融合的生成对抗网络模型SAF-GAN。将基于ContNet的自监督模块加入到初始特征生成阶段,利用注意机制进行图像特征之间的自主映射学习,通过特征的上下文关系引导动态注意矩阵,实现上下文挖掘和自注意学习的高度结合,提高低分辨率图像特征的生成效果,后续通过不同阶段网络的交替训练实现高分辨率图像的细化生成。同时加入了特征融合增强模块,通过将模型上一阶段的低分辨率特征与当前阶段的特征进行融合,生成网络可以充分利用低层特征的高语义信息和高层特征的高分辨率信息,更加保证了不同分辨率特征图的语义一致性,从而实现高分辨率的逼真的图像生成。实验结果表明,相较于基准模型(AttnGAN),SAF-GAN模型在IS和FID指标上均有改善,在CUB数据集上的IS分数提升了0.31,FID指标降低了3.45;在COCO数据集上的IS分数提升了2.68,FID指标降低了5.18。SAF-GAN模型能够有效生成更加真实的图像,证明了该方法的有效性。
计算机视觉 生成对抗网络 文本生成图像 CotNet 图像特征融合 computer vision generative adversarial networks text-to-image cotnet image feature fusion
1 北京信息科技大学仪器科学与光电工程学院,北京 102206
2 北京信息科技大学光电测试技术及仪器教育部重点实验室,北京 102206
光学相干层析成像(OCT)是一种高空间分辨率的光学成像方法,可以对生物组织进行非接触、无标记的二维截面和三维体积成像,能为临床疾病的诊断提供具有重要参考价值的影像信息。在传统的台式OCT系统中,扫描探头被固定在工作台上,探头结构较大,灵活性差,不利于深入狭小腔体内部成像或在床旁检测。本团队设计了一种视频引导的手持式高速OCT系统,其手持探头结构紧凑、体积小巧,便于抓取和深入狭小腔体内部;探头内部集成了相机成像功能,可以实时获得成像区域的视频图像,引导OCT成像。该系统的A线扫描速率可以达到200 kHz。为了克服成像过程中的抖动问题,本团队提出了图像自动配准算法,该算法能显著提高图像质量。采用该系统对离体猪眼角膜和离体猪牙齿进行成像,以验证系统的性能。结果显示该系统能够高速获取高分辨的组织图像。
医用光学 光学相干层析成像 手持探头 图像配准
北京航空航天大学 电子信息工程学院 电磁兼容技术研究所,北京 100191
现有的反射面电磁成像系统体积庞大,无法满足机载、车载、无人机等应用平台要求。针对此类问题,研究了龙伯透镜的结构特性和成像特性,设计了大视场龙伯透镜电磁成像系统,利用空不变成像特性进行超分辨图像处理,实现了快速、大视场、宽频带、高分辨电磁辐射源分布成像。计算了口径300 mm带球核分层龙伯透镜参数,仿真了4~18 GHz龙伯透镜焦弧面场强分布,验证了龙伯透镜空不变的成像特性及其超分辨算法的有效性。实验对比了抛物反射面电磁成像系统和本文龙伯透镜电磁成像系统的体积、成像范围、源数目和分辨率,结果证明了本文系统的优越性,同样分辨率下,达到了方位角及俯仰角均为40°的大视场范围。
大视场电磁成像 龙伯透镜 空不变 图像超分辨 large field of view Luneburg lens space invariant super-resolution 强激光与粒子束
2024, 36(4): 043017
1 东南大学 自动化学院,江苏南京20096
2 东南大学 复杂工程系统测量与控制教育部重点实验室,江苏南京10096
3 南京航空航天大学 空间光电探测与感知工业和信息化部重点实验室, 江苏南京211106
为了在严重遮挡以及少纹理等具有挑战性的场景下,准确地估计物体在相机坐标系中的位置和姿态,同时进一步提高网络效率,简化网络结构,本文基于RGB-D数据提出了采用辅助学习的六自由度位姿估计方法。网络以目标物体图像块、对应深度图以及CAD模型作为输入,首先,利用双分支点云配准网络,分别得到模型空间和相机空间下的预测点云;接着,对于辅助学习网络,将目标物体图像块和由深度图得到的Depth-XYZ输入多模态特征提取及融合模块,再进行由粗到细的位姿估计,并将估计结果作为先验用于优化损失计算。最后,在性能评估阶段,舍弃辅助学习分支,仅将双分支点云配准网络的输出利用点对特征匹配进行六自由度位姿估计。实验结果表明:所提方法在YCB-Video数据集上的AUC和ADD-S<2 cm结果分别为95.9%和99.0%;在LineMOD数据集上的平均ADD(-S)结果为99.4%;在LM-O数据集上的平均ADD(-S)结果为71.3%。与现有的其他六自由度位姿估计方法相比,采用辅助学习的方法在模型性能上具有优势,在位姿估计准确率上有较大提升。
六自由度位姿估计 辅助学习 深度图像 三维点云 6-DoF pose estimation auxiliary learning RGB-D image 3D point cloud
张文雪 1,2,3,4罗一涵 1,2,3,4,*刘雅卿 1,2,3夏诗烨 1,2,3赵开元 1,2,3,4
1 中国科学院光场调控科学技术全国重点实验室,四川 成都 610209
2 中国科学院光束控制重点实验室,四川 成都 610209
3 中国科学院光电技术研究所,四川 成都 610209
4 中国科学院大学,北京 100049
![]()
![]()
超分辨率重建 亚像素 图像处理 微扫描 super-resolution reconstruction subpixel image processing micro-scanning