IT之家 11 月 14 日消息,第 31 届国际多媒体会议(ACM International Conference on Multimedia,ACMMM)于 10 月 29 日至 11 月 2 日在加拿大渥太华举行,中国团队在在本次会议上收获满满。
IT之家注:ACM 国际多媒体会议(ACMMM)自 1993 年首次召开以来,每年召开一次,已经成为多媒体领域顶级会议,也是中国计算机学会推荐的 A 类国际学术。
今年 ACMMM 会议累计收到 3072 篇投稿论文,录用 902 篇,录用率为 29.3%,其中浙江大学团队斩获最佳论文奖(Best Paper Award)、南京航空航天大学团队获得荣誉提名奖(Honorable Mention Award),清华大学团队获得勇敢创意奖(Brave New Idea Award)。
本次最佳论文奖论文标题为《CATR: Combinatorial-Dependence Audio-Queried Transformer for Audio-Visual Video Segmentation》(CATR: 用于视频分割的组合依赖型音频查询转换器)。
论文链接:https://arxiv.org/abs/2309.09709
开源地址:https://github.com/aspirinone/CATR.github.io
作者单位:Zhejiang University;Finvolution Group;
该论文主要介绍了跨模态信息引导的视频分割,论文中提出了一种基于组合依赖和音频查询的视频分割框架(CATR)。
该方案像素级掩码标注视频中的声音对象,并关联声音和发出声音的对象,从而在视频中识别和分割发出声音的人。
RefineTAD: Learning Proposal-free Refinement for Temporal Action Detection
论文链接:https://dl.acm.org/doi/pdf/10.1145/3581783.3611872
作者单位:Nanjing University of Aeronautics and Astronautics;Nanjing University
该论文主要研究时间动作检测(TAD),通过全新的定位优化框架,解耦定位细化过程与传统动作检测方法,在每个时间点生成多尺度的定位细化信息。
Semantics2Hands: Transferring Hand Motion Semantics between Avatars
论文链接:https://arxiv.org/abs/2308.05920
开源地址:https://github.com/abcyzj/Semantics2Hands
作者单位:Tsinghua University;Tsinghua University Beijing National Research Center for Information Science and Technology
该论文主要在动画制作和人机交互中,保持虚拟人物的手部动作语义前提下进行手部动作迁移。
更多信息可以访问:https://www.acmmm2023.org/
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。