AAAI 2025(The 39th Annual AAAI Conference on Artificial Intelligence Conference)将于2025年2月25日至3月4日在美国宾夕法尼亚州费城召开。AAAI是人工智能领域的顶级国际会议之一,涵盖的研究方向包括但不限于机器学习、自然语言处理、计算机视觉、机器人学、智能系统、规划与推理、多智能体系统等。
论文题目:
Collaborative Learning for 3D Hand-Object Reconstruction and Compositional Action Recognition from Egocentric RGB Videos using Superquadrics
作者:Tze Ho Elden Tse, Runyang Feng, Linfang Zheng, Jiho Park, Yixing Gao, Jihie Kim, Ales Leonardis, Hyung Jin Chang
通讯作者:高一星
收录会议:AAAI 2025(CCF-A类)
论文概述:
随着第一视角三维手-物体交互数据集的出现,人们对开发手-物体姿态估计和动作识别的统一模型越来越感兴趣。然而,由于使用3D边界框表示物体形状和运动的限制,现有方法仍然难以识别未见物体上的已知动作。此外,测试时依赖物体模板也限制了对新物体的泛化能力。为了解决这些问题,我们提出用超二次曲面(superquadrics)替代传统边界框进行三维物体表示,并验证了其在无模板物体重建和动作识别中的有效性。同时,我们发现基于纯外观的方法在性能上可能超过统一模型,所以三维几何信息的潜在作用尚需探讨。因此,我们通过考虑一个更具挑战性的任务来研究动作的组合性,即动词和名词的训练组合不与测试组合重叠。我们扩展了 H2O 和 FPHA 数据集,加入了组合分割,并设计了一个新的协作学习框架,能够显式推理手与物体的几何关系。通过大量的实验评估,我们证明了在组合动作识别任务中,该方法较现有技术取得了显著提升。