计算机科学与技术学院欢迎你 |

新闻通知

  • 重要新闻
  • 综合新闻
  • 讲座通知
  • 学生工作
  • 通知公告

光熙论坛(第44期)自然语言处理的可解释方法研究

来源: 作者:发布时间:2022-11-19阅读:

讲座人:李东方 博士生

题目:自然语言处理的可解释方法研究

时间:2022年11月20日 17:00-18:00

地点:信息楼L1511

讲座内容:

度学习模型的可解释性研究可以在做出决策的同时给出相应的依据,从而更明确自然语言处理(NLP)模型的业务适用场景,整个模型决策过程也是可控可反馈的,这就使得用户和监管人员对人工智能(AI)系统的信赖度得以增加。另一方面,可解释性是衡量人工智能系统性能的重要指标之一。例如在医疗、金融、法律等应用领域中,不可知不可控的AI技术应用会带来争议和质疑。模型的可解释性研究能够提升人们对深度学习技术的可信度,实现更加可知可控的推理决策。本报告旨在叙述关于在自然语言处理模型的可解释方法研究过程中的发现和见解。此次报告首先关注于模型校准和医学自动诊断任务。通过这些工作表明可解释的相关技术还是能够在自然语言处理领域不同任务发挥一定作用。 然后对于领域问答任务的可解释性,此次报告关注于融合知识的模型来解决医学问答, 表明显式和隐式领域知识表示的结合对机器阅读理解的性能改进和可解释性很有帮助。最后对于可解释性与鲁棒性的关联:一方面在自然语言处理模型中,可解释性和对抗性鲁棒性之间存在联系。另一方面,不可靠的解释方法可能是由模型缺乏鲁棒性造成的。


讲座人简介:

李东方是来自哈尔滨工业大学(深圳)计算机学院智能计算研究中心的四年级博士生,研究兴趣为医疗和金融NLP,以及模型鲁棒性和可解释性。在AAAI、EMNLP、COLING 等会议和期刊发表一作论文并担任顶级会议审稿人,其硕士和本科分别毕业于哈尔滨工业大学(深圳)和中国海洋大学计算机系。曾获得腾讯犀牛鸟精英人才和国家奖学金等。个人主页:https://crazyofapple.github.io/


× 学术夏令营 招生信息