继CVPR、AAAI大丰收后,百度又有11篇论文被ACL 2020录用( 三 )


继CVPR、AAAI大丰收后,百度又有11篇论文被ACL 2020录用

----继CVPR、AAAI大丰收后 , 百度又有11篇论文被ACL 2020录用//----

  近年来 , 随着预训练语言模型的快速发展 , 情感分析等多项自然语言理解任务都取得了显著的效果提升 。 然而 , 在通用语言模型预训练中 , 文本中的很多情感相关的知识和信息 , 例如情感词、实体-评论搭配等 , 并没有被模型充分的学习 。 基于此 , 百度提出了一种情感知识增强的语言模型预训练方法 , 在通用预训练的基础上 , 设计了面向情感知识建模的Masking策略和情感多目标学习算法 , 融合了情感词、极性、主体评论关系等多层情感知识 , 首次实现了情感任务统一的文本预训练表示学习 。 该算法在情感分类、观点抽取等情感分析任务中相对主流预训练模型RoBERTa有显著的提升 , 同时刷新了多个情感分析标准测试集的世界最好水平 。

  5、Cross-Lingual Unsupervised Sentiment Classification with Multi-View Transfer Learning

  本文针对无标签资源的目标语言 , 提出了一种无监督的跨语言情感分析模型 。

  三、NLP 文本生成与摘要

  6、Leveraging Graph to Improve Abstractive Multi-Document Summarization


继CVPR、AAAI大丰收后,百度又有11篇论文被ACL 2020录用

----继CVPR、AAAI大丰收后 , 百度又有11篇论文被ACL 2020录用//----


继CVPR、AAAI大丰收后,百度又有11篇论文被ACL 2020录用

----继CVPR、AAAI大丰收后 , 百度又有11篇论文被ACL 2020录用//----

  多文档摘要(Multi-Document Summarization)技术自动为主题相关的文档集生成简洁、连贯的摘要文本 , 具有广阔的应用场景 , 例如热点话题综述、搜索结果摘要、聚合写作等 。 生成式多文档摘要方法的难点之一是如何有效建模文档内及文档间的语义关系 , 从而更好地理解输入的多文档 。 为此 , 本论文提出基于图表示的多文档生成式摘要方法GraphSum , 在神经网络模型中融合多文档语义关系图例如语义相似图、篇章结构图等 , 建模多篇章输入及摘要内容组织过程 , 从而显著提升多文档摘要效果 。 GraphSum 基于端到端编解码框架 , 其中图编码器利用语义关系图对文档集进行编码表示 , 图解码器进一步利用图结构组织摘要内容并解码生成连贯的摘要文本 。 GraphSum 还可以非常容易地与各种通用预训练模型相结合 , 从而进一步提升摘要效果 。 在大规模多文档摘要数据集WikiSum 和MultiNews 上的实验表明 , GraphSum 模型相对于已有的生成式摘要方法具有较大的优越性 , 在自动评价和人工评价两种方式下的结果均有显著提升 。

  7、Exploring Contextual Word-level Style Relevance for Unsupervised Style Transfer


继CVPR、AAAI大丰收后,百度又有11篇论文被ACL 2020录用