报告人简介:
郭青,新加坡科技研究局(A*STAR)前沿人工智能研究中心(CFAR)高级研究员,新加坡国立大学兼职助理教授,博士生导师,独立PI,入选斯坦福全球Top 2%科学家。2019年加入新加坡南洋理工大学聘为博士后研究员,并于2020年获聘为瓦伦堡-南洋理工大学校长博士后(全球500选5人), 2018年获得ICME最佳论文奖,2020年获得 ACM(天津)优秀博士论文,2022年获得AI Singapore 全球可信媒体战赛第三名,2022年获得ECCV AROW workshop 最佳论文奖,2023年获得新加坡基金委AI鲁棒性挑战基金300万新币资助,2024年获得可信数字中心研究基金137万新币资助,2025年获得新加坡基金委多模态大语言模型基金资助137万新币资助。主要从事计算机视觉及人工智能安全相关方向的研究包括可靠跟踪,数据净化,及对抗样本攻击与防御等,在ICML, NeurIPS, ICLR, CVPR, ICCV, ECCV, IJCV,等A类会议及期刊上发表论文50余篇。目前担任ICML,ICLR,ICCV, IJCAI 领域主席,AAAI 2023/2024 Senior PC,VALSE 2023 执行AC, IEEE Conference on AI (CAI) 2024 联合主席。
报告摘要:近两年,我们见证了在基础模型(Foundation model,FMs)与新商业模式相结合的推动下,在实际应用中实施AI技术带来的巨大变化。一般来说,FM指的是在大量数据上训练的模型,这些模型可以针对各种下游任务进行微调,包括CLIP、SAM、ChatGPT、BLIP和扩散模型。普通人可以利用这些工具生成带有定制提示的个性化内容,这不可避免地会引起重大的安全问题。为了确保基础模型的安全性,我们关注两个关键方向:探索针对FM的对抗性攻击,以发现先进模型中的漏洞,并开发有效的防御机制以增强。在本报告中,我们将从可转移性和效率等不同角度介绍我们最近在攻击FM方面的研究成果,包括视觉语言模型和扩散模型。此外,我们将深入研究我们最近的工作,利用视觉重采样原理来防御潜在的攻击,从而在不改变模型权重的情况下提高FM的可靠性。
报告题目:面向安全基础模型的跨模态攻击和基于视觉重采样的防御机制
报告时间:2025年 2月26日,上午10:00 -11:30
报告地点:三楼报告厅
报告人:郭青
报告人单位:新加坡科技研究局,新加坡国立大学
