no code implementations • CCL 2021 • Yuan Sun, Jiaya Liang, Andong Chen, Xiaobing Zhao
“知识图谱表示学习是自然语言处理的一项关键技术, 现有的知识图谱表示研究主要集中在英语、汉语等语言, 而低资源语言的知识图谱表示学习研究还处于探索阶段, 例如藏语。本文基于前期构建的藏语知识图谱, 提出了一种联合胶囊神经网络(JCapsR)的藏语知识图谱表示学习模型。首先, 我们使用TransR模型生成藏语知识图谱的结构化信息表示。其次, 采用融合多头注意力和关系注意力的Transformer模型表示藏语实体的文本描述信息。最后, 采用JCapsR进一步提取三元组在知识图谱语义空间中的关系, 将实体文本描述信息和结构化信息融合, 得到藏语知识图谱的表示。实验结果表明, 相比基线系统, 联合胶囊神经网络JCapsR模型提高了藏语知识图谱表示学习的效果, 相关研究为其它低资源语言知识图谱表示学习的拓展优化提供了参考借鉴意义。”