设为首页 加入收藏 English

当前位置: 首页 学术报告 正文

实验室三篇论文在IEEE TIP上发表

作者:时间:2017-11-16点击数:

IEEE Transactions on Image ProcessingIEEE TIP)是Q1区期刊,属于中国计算机学会推荐的计算机图形学与多媒体领域A类期刊,是图像处理及计算机视觉领域公认的国际顶级期刊,侧重图像处理的前沿理论与方法。最新的2016年影响因子为4.8285年影响因子为6.127

陆峰教授和陈小武教授的论文“Appearance-Based Gaze Estimation via Uncalibrate Gaze Pattern Recovery”提出了人类80%的信息交互都通过眼球。基于计算机视觉的人眼眼动跟踪是人机交互技术的前沿,能够以最便捷快速的方式反映用户意图和实现用户操作。文章通过使用流形空间构建和降维的方法,能够直接从输入的人眼视频中计算眼动的轨迹,通过自动解决矫正和多义性问题,将眼动轨迹映射到各类对象上,例如手机、电脑、书本等,实现广泛的应用。

郝爱民教授和陈程立诏博士生的论文“Video Saliency Detection viaSpatial-Temporal Fusion and Low-Rank Coherency Diffusion”提出了一种基于视频时空融合特征低秩扩散分析的显著性检测方法。对于目前的主流视频显著性检测方法而言,其采用的“时空”差异度计算通常都过于局部,因而很容易导致检测结果在时间轴方向上的非连续性。针对这一问题,少数标杆算法利用全局图方法来确保显著性检测结果在时间轴上尽可能的保持一致以提高精测精度。然而,图方法本身的局限性,很容易造成假阳性检测被逐帧累积。因此,该研究提出一种基于时空融合与低秩一致性扩散的视频显著性检测方法。该研究通过对底层视频显著性信息源进行全局低秩时空对齐最优化来确保检测结果在时间轴方向上的平滑性,从而能够对视频段中错误的显著性检测结果进行修正。并且,通过对低秩分析所获得的稀疏矩阵进行时空统计分析,从而对假阳性检测结果起到抑制作用,并最终避免了错误的累积。与此同时,该研究还提出了一系列的视频显著性增强策略来进一步提高最终检测结果的精度。

郝爱民教授和马际洲博士生的论文“UnsupervisedMulti-class Co-segmentation via Joint-Cut over L1-Manifold Hyper-Graph ofDiscriminative Image Regions“提出采用基于图模型流形学习的方法实现对图像集的无监督自动共分割。该方法的核心是通过分析可感知结构的双谐波距离的局部、全局分布,计算出一种更加鲁棒的单图内相似性度量;以此度量为基础,建立具有中级尺度且保留结构信息的图像区域,作为描述图像的基本元素,其计算量小,同一视觉结构中不同图元的相关性高;然后通过L1正则的流形学习方法,在多特征空间,构建包含整个图集的超图,其利用多特征信息的同时,有效控制了跨特征空间计算产生的累计误差;最后在此超图上通过联合图割方法求得分割结果。该研究提出了一种高效率的基于多特征的图像集共分割方法,并为度量、图元、多特征融合这三个基本技术提出了新的方案。

版权所有 2014 北京航空航天大学  京ICP备05004617-3  文保网安备案号1101080018  地址:北京市海淀区学院路37号  邮编:100191  电话:82339909