自然语言生成的可控性是现代自然语言处理中最基本的问题之一。目前基于神经网络的自然语言生成模型普遍存在可控制性问题,如重复性、上下文不一致、语义逻辑不一致等。本次讲座将重点介绍当前学术界在这一问题上的尝试,并介绍该团队使用词类型信息、知识、计划等进行可控文本生成的初步尝试。

黄民烈

黄民烈,现任清华大学计算机科学与技术系人工智能实验室副主任、副教授。他于2019年获得MSRA合作研究奖,并于2018年获得Hanvon Youngth创新奖。他获得了IJCAI-ECAI 2018杰出论文、NLPCC 2015年度最佳论文、CCL 2018年度最佳演示奖、ACL 2019年度最佳演示候选人。他在情感聊天机器上的工作被麻省理工学院的技术评论、卫报、NVIDIA、Cankao Xiaoxi、新华社等报道。他在总理会议上发表了60篇论文,如ACL、AAAI、IJCAI、EnnLP、WWW、SIGIR,以及高度受影响的期刊,如ACM ToIS、IEEE TASLP、生物信息学,JAMIA等。他曾担任EMNLP 2019、ACL 2016、EMNLP 2014、EMNLP 2011和IJCNLP 2017的区域主席,IJCAI 2017/IJCAI 2018(杰出的特殊目的公司)/AAAI 2019/IJCAI 2019/AAAI 2020的高级PC,以及ACL、EMNLP、NAACL、IJCAI、AAAI的评审员,以及TOIS、TKDE、TPAMI等期刊的评审员,等,先后获得多项国家自然科学基金项目和一项国家自然科学基金重点项目资助。

推荐课程 换一换