WSDM 2023 | 针对长文档场景下的跨语言摘要

2022-11-30 13:10 502 阅读 ID:553
机器学习算法与自然语言处理
机器学习算法与自然语言处理

对于给定源语言编写的文档,跨语言摘要的目的是用不同的目标语言生成相应的摘要。在全球化的背景下,跨语言摘要可以帮助人们从他们不熟悉的语言的文档中获取关键信息,从而提高信息获取的效率。因此,这一任务变得更加重要,并引起了广泛的研究关注。然而,目前的跨语言摘要工作通常集中于短文本场景。

本文构建了第一个针对长文档场景下的跨语言摘要数据集 Perseus,包含 94k 个中文科技论文以及其对应的英文摘要。我们的数据集涉及四大学科,包括工程应用、自然科学、农业科学以及医药科学,文档的平均长度达到 2872.9 个汉字。相关工作已经被 WSDM 2023 接收。

论文标题:

Long-Document Cross-Lingual Summarization

代码链接:

https://github.com/LearnItBoy/Perseus

1.『研究背景』

现有的跨语言摘要数据集文档长度相对来说都比较短,比如常用的数据集 Zh2EnSum [1],它的文档长度平均只有 103.7 个汉字,而相对来说文档长度较长的 En2ZhSum [1],它的平均文档长度也只有 755.0 个单词左右,远无法称为长文档。长文档通常包含上千个字词,比起短文档,它包含更多的信息与细节。构建一个长文档跨语言系统可以帮助人们快速理解长文档的内容,在实际场景中具有重大的意义。然而,由于缺乏相应的数据集,该任务仍未得到充分的探索。

为了跨语言摘要在长文档上的发展,我们构建了第一个长文档跨语言摘要数据集 Perseus。我们通过爬取中文科技论文网站来获取到大量的科技论文资源,然后使用大量的解析方法与清理规则来对这些资源进行处理。最后得到 94k 个<中文文档,中文摘要,英文摘要>三元组。如图 1 所示是数据集的一个例子。除此之外我们根据 SportsSum [2] 这个体育赛事摘要数据集构建了一个科技论文领域外的测试集用来验证在 Perseus 上训练的模型的泛化性。

                                                                ▲ 图1 Perseus的一个例子

表 1 是 Perseus 数据集的基本信息以及其他跨语言摘要数据集的信息的对比。可以看出我们的数据集的文档长度远远超过现有的跨语言摘要数据集,并且目标摘要的长度也大于现有数据集。同时我们的数据集有着最高的压缩率,这意味着对跨语言摘要模型提取精炼内容的能力提出了更高的要求。

                                                                   ▲ 表1 数据集的基本信息

2.『实验与分析』

为了验证我们的数据集是否可行,我们在 Perseus 上进行了大量的实验。我们采用了两种范式来进行实验,summarize-then-translate 的 pipeline 方法以及端到端 (end-to-end) 方法。其中 summarize-then-translate 分成了 extract-then-translate (ext-trans) 和 abstract-then-translate (abs-trans) 两种方法。采用的模型以及结果如表 2。

                                                                         ▲ 表2 实验效果

通过实验我们发现,abs-trans 的方法效果普遍好于 ext-trans 的方法,这是因为 abstractor 可以更灵活地根据文档中的重要句子生成新词或短语,而 extractor 不能对提取的句子进行任何修改。此外,pipeline 的方法中,模型的最后效果的好坏和采用的翻译模型的好坏高度相关。因此翻译模型的性能,特别是在长文档中错误积累倍数增加的情况下,尤为重要。

End-to-end 的方法在几乎所有的指标中都获得了最好的性能,这是由于 mLED [3] 方法以端到端方式进行翻译和摘要训练,不会出现错误传播问题。

3.『错误分析』

我们随机抽取了 mLED 模型在测试集上的两百条结果并分析出主要的错误类型以及比例,如表 3 所示:1)信息缺失;2)信息冗余;3)生成信息不忠于原文;4)生成语义不明。

                                                          ▲ 表3 摘要结果错误类型及比例

长文档跨语言摘要中的信息缺失和冗余的问题十分严重,这是由于随着文档的长度以及文档与摘要的压缩率的增加,文档的关键信息在文档中的分布变得稀疏,模型从文章中提取关键信息的难度就越来越高。

对于生成的信息不忠于原文的问题。例如,一份参考摘要称:“Fifty-eight patients with subaortic stenosis were treated surgically in our center from December 1996 to October 2019。”但生成的摘要是“The clinical data of 13 patients with congenital heart disease were retrospectively analyzed”。错误的引用主要是由远程依赖问题引起的。在生成摘要时,该模型需要跨越长距离地融合信息。然而,随着距离的增加,远程信息变得越来越模糊,导致容易生成错误的信息。

mLED 生成语义不明句子,例如“data mining is an important content of data mining.”“the results provide us with a basis to judge whether the sub-time series of time series with increasing and decreasing is the sub-time series with great increasing and decreasing.” 这些句子让人难以理解,通常涉及语法错误。模型处理长文档时的远程依赖性问题是造成这个错误的原因之一。此外,这个错误也暴露了当前生成模型在生成长文本方面的不足。

4.『总结』

在本文中,我们提出了长文档跨语言摘要任务,并构建了第一个长文档跨语言摘要数据集 Perseus。该数据集具有文档长、摘要长、压缩率高的特点,为跨语言摘要提出了新的挑战。为了评估在我们的数据集上训练的长文档跨语言摘要模型的泛化性,我们还提供了一个体育领域的领域外测试集。

参考文献

[1] Junnan Zhu, Qian Wang, Yining Wang, Yu Zhou, Jiajun Zhang, Shaonan Wang, and Chengqing Zong. 2019. NCLS: Neural Cross-Lingual Summarization. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing. 3054–3064. https://doi.org/10.18653/v1/D19-1302

[2] Jiaan Wang, Zhixu Li, Tingyi Zhang, Duo Zheng, Jianfeng Qu, An Liu, Lei Zhao, and Zhigang Chen. 2022. Knowledge Enhanced Sports Game Summarization. In Proceedings of the Fifteenth ACM International Conference on Web Search and Data Mining. 1045–1053. https://doi.org/10.1145/3488560.3498405

[3] Iz Beltagy, Matthew E Peters, and Arman Cohan. 2020. Longformer: The longdocument transformer. arXiv preprint arXiv:2004.05150 (2020).

免责声明:作者保留权利,不代表本站立场。如想了解更多和作者有关的信息可以查看页面右侧作者信息卡片。
反馈
to-top--btn