报告题目:图数据上的可靠机器学习
报告人:谢思泓 教授
香港科技大学(广州)人工智能学院可靠人工智能探索实验室主任
报告摘要:
图数据作为一种有别于语言和图像的数据模态承担着表征复杂关系的角色,为人工智能在具有关系数据,如社交、医疗、金融、机器人等领域的应用提供了基础。图数据上可靠机器学习获得大量关注。本次演讲将深入探讨图数据上的可靠机器学习三个核心组成部分:可解释性、鲁棒性和不确定性估计。首先,可解释性是指机器学习模型的决策过程能够被人类理解,对于建立用户信任、满足监管要求以及促进模型的广泛应用至关重要。我们将定义图数据上的可解释性,并讨论如何解决图模型透明度的多维需求、可扩展性、拓扑结构影响,重点讨论基于流形的动态图数据建模和解释优化,以及图模型可解释性的稳定性。其次,鲁棒性强调模型在面对针对图数据的干扰或分布变化时的稳定性。我们讨论基于强化学习的提高图模型预测鲁棒性的方法,包括对抗训练和对手策略理解,以及它们在谣言检测任务上的的应用。最后,对图模型预测结果的不确定程度进行量化,可以帮助识别潜在的错误,为决策过程提供更为全面的信息。图数据不确定性存在着复杂相互依赖关系,我们展示如何设计一个线性的、可收敛的、具有统计理论支撑的不确定性量化方法。
报告人简介:
谢思泓,香港科技大学(广州)人工智能学域副教授,可靠人工智能探索实验室主任,香港科技大学(广州)-广东联通联合三算实验室执行副主任。谢教授于2016年在伊利诺伊大学芝加哥分校获得博士学位,师从ACM/IEEE Fellow Philip S. Yu教授。此前于美国里海大学担任助理教授并于2023年获终身教职。他主要研究可靠机器学习及其在制造业、医疗健康、金融行业的应用。在顶级期刊和会议上发表论文超70篇,包括NeurIPS, ICLR,KDD,UAI,WWW,AAAI,IJCAI,TKDE等,获得了超过2700次引用(h-index 20)。主持超过100万美元的美国自然科学基金委科研项目,并于2022年获美国自然科学基金委(NSF)CAREER Award,2024年获腾讯微信犀牛鸟专项研究计划资助,获国家、广东省、广州市等青年学者计划资助。曾担任美国自然科学基金委的评审专家。目前担任NeurIPS、ICML、ICLR、KDD、AAAI、ICDM、SIGIR、SDM和TPAMI等会议和期刊担任程序委员会委员,及AAAI,TheWebConf程序委员会高级委员、ACM SIGSPATIAL China、CCF-AI、CCF-BigData等专委会执行委员。
报告时间:2024年11月29日(星期五)上午10:00
报告地点:正新楼3楼人工智能学院报告厅
主办单位:吉林大学人工智能学院