Search Results for author: Linqing Chen

Found 4 papers, 0 papers with code

生成模型在层次结构极限多标签文本分类中的应用(Generation Model for Hierarchical Extreme Multi-label Text Classification)

no code implementations CCL 2022 Linqing Chen, Dawang He, Yansi Xiao, Yilin Liu, Jianping Lu, Weilei Wang

“层次结构极限多标签文本分类是自然语言处理研究领域中一个重要而又具有挑战性的课题。该任务类别标签数量巨大且自成体系, 标签与标签之间还具有不同层级间的依赖关系或同层次间的相关性, 这些特性进一步增加了任务难度。该文提出将层次结构极限多标签文本分类任务视为序列转换问题, 将输出标签视为序列, 从而可以直接从数十万标签中生成与文本相关的类别标签。通过软约束机制和词表复合映射在解码过程中利用标签之间的层次结构与相关信息。实验结果表明, 该文提出的方法与基线模型相比取得了有意义的性能提升。进一步分析表明, 该方法不仅可以捕获利用不同层级标签之间的上下位关系, 还对极限多标签体系自身携带的噪声具有一定容错能力。”

Multi Label Text Classification Multi-Label Text Classification +1

层次化结构全局上下文增强的篇章级神经机器翻译(Hierarchical Global Context Augmented Document-level Neural Machine Translation)

no code implementations CCL 2020 Linqing Chen, Junhui Li, ZhengXian Gong

如何有效利用篇章上下文信息一直是篇章级神经机器翻译研究领域的一大挑战。本文提出利用来源于整个篇章的层次化全局上下文提高篇章级神经机器翻译性能。为了实现该目标, 本文模型分别获取当前句内单词与篇章内所有句子及单词之间的依赖关系, 结合不同层次的依赖关系以获取含有层次化篇章信息的全局上下文。最终源语言当前句子中的每个单词都能获取其独有的综合词和句级别依赖关系的上下文。为了充分利用平行句对语料在训练中的优势本文使用两步训练法, 在句子级语料训练模型的基础上使用含有篇章信息的语料进行二次训练以获得捕获全局上下文的能力。在若干基准语料数据集上的实验表明本文提出的模型与若干强基准模型相比取得了有意义的翻译质量提升。实验进一步表明, 结合层次化篇章信息的上下文比仅使用词级别上下文更具优势。除此之外, 本文尝试通过不同方式将全局上下文与翻译模型结合并观察其对模型性能的影响, 并初步探究篇章翻译中全局上下文在篇章中的分布情况。

Machine Translation

PatentGPT: A Large Language Model for Intellectual Property

no code implementations28 Apr 2024 Zilong Bai, ruiji zhang, Linqing Chen, Qijun Cai, Yuan Zhong, Cong Wang, Yan Fang, Jie Fang, Jing Sun, Weikuan Wang, Lizhi Zhou, Haoran Hua, Tian Qiu, Chaochao Wang, Cheng Sun, Jianping Lu, Yixin Wang, Yubin Xia, Meng Hu, Haowen Liu, Peng Xu, Licong Xu, Fu Bian, Xiaolong Gu, Lisha Zhang, Weilei Wang, Changyang Tu

In recent years, large language models have attracted significant attention due to their exceptional performance across a multitude of natural language process tasks, and have been widely applied in various fields.

Language Modelling Large Language Model

Cannot find the paper you are looking for? You can Submit a new open access paper.