Search Results for author: Sisi Liu

Found 5 papers, 0 papers with code

面向机器阅读理解的高质量藏语数据集构建(Construction of High-quality Tibetan Dataset for Machine Reading Comprehension)

no code implementations CCL 2021 Yuan Sun, Sisi Liu, Chaofan Chen, Zhengcuo Dan, Xiaobing Zhao

“机器阅读理解是通过算法让机器根据给定的上下文回答问题, 从而测试机器理解自然语言的程度。其中, 数据集的构建是机器阅读理解的主要任务。目前, 相关算法模型在大多数流行的英语数据集上都取得了显著的成绩, 甚至超过了人类的表现。但对于低资源语言, 由于缺乏相应的数据集, 机器阅读理解研究还处于起步阶段。本文以藏语为例, 人工构建了藏语机器阅读理解数据集(TibetanQA), 其中包含20000个问题答案对和1513篇文章。本数据集的文章均来自云藏网, 涵盖了自然、文化和教育等12个领域的知识, 问题形式多样且具有一定的难度。另外, 该数据集在文章收集、问题构建、答案验证、回答多样性和推理能力等方面, 均采用严格的流程以确保数据的质量, 同时采用基于语言特征消融输入的验证方法说明了数据集的质量。最后, 本文初步探索了三种经典的英语阅读理解模型在TibetanQA数据集上的表现, 其结果难以媲美人类, 这表明在藏语机器阅读理解任务上还需要更进一步的探索。”

Machine Reading Comprehension

Ti-Reader: 基于注意力机制的藏文机器阅读理解端到端网络模型(Ti-Reader: An End-to-End Network Model Based on Attention Mechanisms for Tibetan Machine Reading Comprehension)

no code implementations CCL 2021 Yuan Sun, Chaofan Chen, Sisi Liu, Xiaobing Zhao

“机器阅读理解旨在教会机器去理解一篇文章并且回答与之相关的问题。为了解决低资源语言上机器阅读理解模型性能低的问题, 本文提出了一种基于注意力机制的藏文机器阅读理解端到端网络模型Ti-Reader。首先, 为了编码更细粒度的藏文文本信息, 本文将音节和词相结合进行词表示, 然后采用词级注意力机制去关注文本中的关键词, 采用重读机制去捕捉文章和问题之间的语义信息, 采用自注意力机制去匹配问题与答案的隐变量本身, 为答案预测提供更多的线索。最后, 实验结果表明, Ti-Reader模型提升了藏文机器阅读理解的性能, 并且在英文数据集SQuAD上也有较好的表现。”

Machine Reading Comprehension

TiBERT: Tibetan Pre-trained Language Model

no code implementations15 May 2022 Yuan Sun, Sisi Liu, JUNJIE DENG, Xiaobing Zhao

Then, we train the Tibetan monolingual pre-trained language model named TiBERT on the data and vocabulary.

Language Modelling Question Generation +3

Cannot find the paper you are looking for? You can Submit a new open access paper.