人工智能前沿系列讲座(第7期)暨伟德bevictor中文版第十五届博士生论坛-人工智能分论坛——美国宾夕法尼亚州海大学计算机科学与工程系助理教授谢思泓学术报告

发布时间:2022-10-26 点击:

报告题目:负责任的图机器学习

报告摘要

近年来,计算机科学、智能交通、社会网络分析、医疗保健、生物化学、神经科学等领域中广泛存在的图结构数据促进了图模型的应用与发展。报告将讨论图模型的透明度、公平性与鲁棒性这三个负责层面。首先,通过一项问卷调查,揭示了用户对图模型的理解程度与信任程度之间的关系。该研究确定了两种不同且相互冲突的感知模式,即模型的可模拟性和反事实相关性。研究团队提出一种多目标优化方法来搜索帕累托边界上最优解释,以期同时优化上述两种感知模式并提高人类对图模型的信任。其次,稳定的模型解释通常更容易为用户理解并接受,而对输入不敏感的解释则会误导用户。团队研究了图对比学习中模型解释的鲁棒性和敏感性。在不使用领域知识的条件下,利用自学习提取自动解释用于约束解释的鲁棒性,并使用一个primal-dual优化方法自动平衡解释的鲁棒性与敏感性。 最后,图数据上节点度和邻居类别分布的偏差会对产生某些节点多种不公平的情况,设计了线性系统来证明优化目标的公平性,并利用多梯度下降和快速的预测校正算法来有效地识别帕累托前沿。领域专家可以选择帕累托最优解满足不同的公平性。这些工作均可在双层优化框架下统一起来。

主讲人简介:

谢思泓,美国宾夕法尼亚州理海大学计算机科学与工程系助理教授,于2016年在伊利诺伊大学芝加哥分校计算机科学系获得博士学位,师从Philip S. Yu。他的研究兴趣包括可解释图模型、对抗环境中的虚假信息检测,及结构化数据注释中人与机器学习的协作,并在KDD、ICDM、WWW、AAAI、IJCAI、WSDM、SDM、TKDE等大型数据挖掘会议上发表论文60余篇,被引用2000余次,h指数18。他担任NSF评审委员,并在KDD、AAAI、ICLR、ICDM和SIGIR等顶级会议的PC成员,《大数据前沿》的主题编辑,以及KDD 虚假信息检测workshop的组织者。他目前获得了NSF 150万美元的科研资助,包括2022年NSF CAREER奖。

报告时间:2022年11月1日上午8:00至9:30

腾讯会议:564-807-708