no code implementations • CCL 2021 • Zhanbiao Zhu, Peijie Huang, Yexing Zhang, Shudong Liu, Hualin Zhang, Junyao Huang
“意图识别和槽信息填充的联合模型将口语理解技术(Spoken language understandingSLU)提升到了一个新的水平, 但是目前研究进展的模型通过话语上下文信息判断位置信息, 缺少对槽信息标签之间位置信息的考虑, 导致模型在槽位提取过程中容易发生边界错误, 进而影响最终槽位提取表现。而且在槽信息提取任务中, 槽指称项(Slot mentions)可能与正常表述话语并没有区别, 特别是电影名字、歌曲名字等, 模型容易受到槽指称项话语的干扰, 因而无法在槽位提取中正确识别槽位边界。本文提出了一种面向口语理解的结合边界预测和动态模板的槽填充(Boundary-predictionand Dynamic-template Slot Filling BDSF)模型。该模型提供了一种联合预测边界信息的辅助任务, 将位置信息引入到槽信息填充中, 同时利用动态模版机制对话语句式建模, 能够让模型聚焦于话语中的非槽指称项部分, 避免了模型被槽指称项干扰, 增强模型区分槽位边界的能力。在公共基准语料库CAIS和SMP-ECDT上的实验结果表明, 我们的模型优于比较模型, 特别是能够为槽标签预测模型提供准确的位置信息。”
no code implementations • CCL 2021 • Zhanbiao Zhu, Peijie Huang, Yexing Zhang, Shudong Liu, Hualin Zhang, Junyao Huang
“意图识别和槽信息填充的联合模型将口语理解技术(Spoken Language Understanding)提升到了一个新的水平, 但由于存在出现频率低或未见过的槽指称项(0 shot slot mentions), 模型的序列标注性能受限, 而且这些联合模型往往没有利用输入序列存在的语法知识信息。已有研究表明序列标注任务可以通过引入依赖树结构, 辅助推断序列标注中槽的存在。在中文口语对话理解中, 由于中文话语是一串字序列组成, 输入话语的字和槽信息是一一对应的, 因而槽信息填充模型往往是字特征模型。基于词的依赖树结构无法直接应用于基于字特征的槽填充模型。为了解决字词之间的矛盾, 本文提出了一种基于字模型的依赖引导槽填充模型(dependency guided character-based slot filling model, DCSF), 提供了一种简洁的方法解决将词级依赖树结构引入中文字特征模型的冲突, 同时通过对话语中词汇内部关系进行建模, 保留了词级上下文信息和分词信息。在公共基准语料库当SMP-ECDT和CrossWOZ上的实验结果表明, 我们的模型优于比较模型, 特别是在未见过的槽指称项和低资源情况下有很大的改进。”
no code implementations • CCL 2021 • Chaojie Liang, Peijie Huang, Jiande Ding, Jiankai Zhu, Piyuan Lin
“话语领域分类(utterance domain classification UDC)是口语语言理解(spoken lan-guage understanding SLU)中语义分析的关键步骤。尽管带注意力机制的递归神经网络已经得到了广泛的应用, 并将UDC的研究进展提高到了一个新的水平, 但是对于复杂的话语, 如长度较长的话语或带有逗号的复合句的话语, 有效的UDC仍然是一个挑战。本文提出一种基于堆叠式注意力网络的话语领域分类方法SAN-DC(stacked attention networks-DC)。该模型综合了对口语话语多层次的语言特征的捕捉, 增强对复杂话语的理解。首先在模型底层采用语境化词向量(contextualized word embedding)得到良好的词汇特征表达, 并在词法层采用长短期记忆网络(long short-term memory)将话语编码为上下文向量表示。接着在语法级别上使用自注意力机制(self-attention mechanism)来捕捉特定领域的词依赖, 然后使用词注意力(word-attention)层提取语义信息。最后使用残差连接(residual connection)将低层语言信息传递到高层, 更好地实现多层语言信息的融合。本文在中文话语领域分类基准语料SMP-ECDT上验证所提出的方法的有效性。通过与研究进展的文本分类模型对比, 本文的方法取得了较高的话语领域分类正确率。尤其是对于较为复杂的用户话语, 本文提出的方法较研究进展方法的性能提升更为显著。”
no code implementations • CCL 2020 • Jiande Ding, Peijie Huang, Jiabao Xu, Youming Peng
在人机对话中, 系统需要通过意图分类判断用户意图, 再触发相应的业务类型。由于多轮人机对话具有口语化、长文本和特征稀疏等特点, 现有的文本分类方法在人机对话意图分类上还存在较大困难。本文在层次注意力网络(hierarchical attention networks, HAN)基础上, 提出了一种结合话语伪标签注意力的层次注意力网络模型PLA-HAN (HAN with utterance pseudo label attention)。PLA-HAN通过优选伪标签集、构建单句话语意图识别模型以及设计话语伪标签注意力机制, 识别单句话语意图伪标签, 并计算话语伪标签注意力。进而将单句话语伪标签注意力嵌入到HAN的层级结构中, 与HAN中的句子级别注意力相融合。融合了单句话语意图信息的句子级注意力使模型整体性能得到进一步的提升。我们在中国中文信息学会主办的“客服领域用户意图分类评测比赛”的评测语料上进行实验, 实验结果证明PLA-HAN模型取得了优于HAN等对比方法的意图分类性能。
1 code implementation • Proceedings of the AAAI Conference on Artificial Intelligence 2024 • Shangjian Yin, Peijie Huang, Yuhong Xu
In this work, we present a novel architecture by modeling the multi-intent SLU as a multi-view intent-slot interaction.
1 code implementation • 7 Mar 2024 • Shangjian Yin, Peijie Huang, Yuhong Xu, Haojing Huang, Jiatian Chen
This research signifies a considerable breakthrough in leveraging Large Language Models (LLMs) for multi-intent spoken language understanding (SLU).
1 code implementation • 24 Oct 2022 • Ziwei Fan, Zhiwei Liu, Chen Wang, Peijie Huang, Hao Peng, Philip S. Yu
However, it remains a significant challenge to model auxiliary item relationships in SR. To simultaneously model high-order item-item transitions in sequences and auxiliary item relationships, we propose a Multi-relational Transformer capable of modeling auxiliary item relationships for SR (MT4SR).