admin管理员组文章数量:1130349
Incorporating Hierarchy into Text Encoder: a Contrastive Learning Approach for Hierarchical Text Classification
1、背景
1、作者(第一作者和通讯作者)
王子涵,王厚峰
2、单位
Peking University
3、年份
2022
4、来源
ACL
2、四个问题
1、要解决什么问题?
层次文本分类是多标签分类的一个极具挑战性的子任务,因为它的标签层次结构复杂。解决层次文本分类下的多标签分类任务
2、用了什么方法解决?
提出了层次导引对比学习(HGCLR),将层次结构直接嵌入到文本编码器中。
3、效果如何?
在三个基准数据集上的大量实验验证了HGCLR的有效性。
4、还存在什么问题?
论文笔记
1、INTRODUCTION
Hierarchical Text Classification(HTC)是指文本标签之间存在层次结构文本分类任务。不同的标签之间存在的潜在关联会为分类提供正向指导。一般来说,HTC大致可以分为两类:为每个节点或级别构建分类器的局部方法,仅为整个图构建一个分类器的全局方法。
现有的HTC方法不同程度地引入了层次化信息。最先进的模型分别对文本和标签层次进行编码,并在按混合特征分类之前聚合两个表示。如下图左侧所示,他们的主要目标是在文本和结构之间充分交互,以实现混合表示,这对分类非常有用。但是,由于标签层次结构对于所有文本输入都保持不变,因此无论输入是什么,图形编码器都会提供完全相同的表示。因此,文本表示与恒定的层次表示相互作用,因此这种相互作用似乎是多余的且效率较低。
本文提出一种用于层次文本分类的对比学习方法。Hierarchy guided Contrastive Learning (HGCLR)直接将分层嵌入到文本编码器中而不是单独地创建层次的结构。在训练过程中,HGCLR在标签层次结构的指导下,为输入文本构建正样本。通过将输入文本和它的正样本放在一起,文本编码器可以学习独立地生成支持层次结构的文本表示。具体的结构如下:
上图:引入层次结构信息的两种方式。(a)将以前的工作模型文本和标签分开,并找到混合的表示法。(b)我们的方法将层次信息结合到文本编码器中以获得层次感知的文本表示。
2 Related Work
2.1 Hierarchical Text Classification
HTC现有的工作可以根据它们处理标签层次的方式分为局部方法和全球方法。局部方法为每个节点或级别构建分类器,而全局方法仅为整个图构建一个分类器。早期的方法忽略掉了标签的层次结构,并将问题视为平面多标签分类。
2.2 Contrastive Learning
对比学习最早是在计算机视觉中提出的一种弱监督表征学习方法。对比学习是一种自监督学习方法,用于在没有标签的情况下,通过让模型学习哪些数据点相似或不同来学习数据集的一般特征。
4 Methodology
总体的模型结构如下:
4.1 Text Encoder
首先,本文利用BERT作为文本的编码器:
[CLS]和[SEP]是指示序列的开始和结束的两个特殊标记,输入被送入BERT
得到的不同token的隐状态为:
4.2 Graph Encoder
将图结构构建为一个Directed Acyclic Graph (DAG)无环有向图 G = ( Y ; E ) ,并使用Graphormer对图进行编码。标签作为节点,其初始特征为其编号以及文本的嵌入的加和:
之后,采用基于Transformer的传播方式在标签图上进行特征传播。首先,Graphormer利用两个节点fi,fj之间的一些潜在特征为其生成相似矩阵:
遵从Graphormer,公式中的三个项分别表示节点fi,fj之间的注意力、cij 表示节点之间的边的编码,bϕ则表示两个节点之间的连通性。在这里,还是参照一下Graphormer中的定义:
ϕϕϕ(yi,yj)表示节点之间的最短路径长度,然后bϕ是针对最短路径的值indexed的一个可学习的标量。这个项目很明显用于统计一些静态的图信息,最短路径值值是固定的。
cij则是节点之间路径上的边的特征编码:cij=1N∑n=1Nxen(wnE)Tc_{ij}=\frac{1}{N} {\sum \limits_{n=1}^{N}}x_{e_n}(w^E_n)^Tcij=N
Incorporating Hierarchy into Text Encoder: a Contrastive Learning Approach for Hierarchical Text Classification
1、背景
1、作者(第一作者和通讯作者)
王子涵,王厚峰
2、单位
Peking University
3、年份
2022
4、来源
ACL
2、四个问题
1、要解决什么问题?
层次文本分类是多标签分类的一个极具挑战性的子任务,因为它的标签层次结构复杂。解决层次文本分类下的多标签分类任务
2、用了什么方法解决?
提出了层次导引对比学习(HGCLR),将层次结构直接嵌入到文本编码器中。
3、效果如何?
在三个基准数据集上的大量实验验证了HGCLR的有效性。
4、还存在什么问题?
论文笔记
1、INTRODUCTION
Hierarchical Text Classification(HTC)是指文本标签之间存在层次结构文本分类任务。不同的标签之间存在的潜在关联会为分类提供正向指导。一般来说,HTC大致可以分为两类:为每个节点或级别构建分类器的局部方法,仅为整个图构建一个分类器的全局方法。
现有的HTC方法不同程度地引入了层次化信息。最先进的模型分别对文本和标签层次进行编码,并在按混合特征分类之前聚合两个表示。如下图左侧所示,他们的主要目标是在文本和结构之间充分交互,以实现混合表示,这对分类非常有用。但是,由于标签层次结构对于所有文本输入都保持不变,因此无论输入是什么,图形编码器都会提供完全相同的表示。因此,文本表示与恒定的层次表示相互作用,因此这种相互作用似乎是多余的且效率较低。
本文提出一种用于层次文本分类的对比学习方法。Hierarchy guided Contrastive Learning (HGCLR)直接将分层嵌入到文本编码器中而不是单独地创建层次的结构。在训练过程中,HGCLR在标签层次结构的指导下,为输入文本构建正样本。通过将输入文本和它的正样本放在一起,文本编码器可以学习独立地生成支持层次结构的文本表示。具体的结构如下:
上图:引入层次结构信息的两种方式。(a)将以前的工作模型文本和标签分开,并找到混合的表示法。(b)我们的方法将层次信息结合到文本编码器中以获得层次感知的文本表示。
2 Related Work
2.1 Hierarchical Text Classification
HTC现有的工作可以根据它们处理标签层次的方式分为局部方法和全球方法。局部方法为每个节点或级别构建分类器,而全局方法仅为整个图构建一个分类器。早期的方法忽略掉了标签的层次结构,并将问题视为平面多标签分类。
2.2 Contrastive Learning
对比学习最早是在计算机视觉中提出的一种弱监督表征学习方法。对比学习是一种自监督学习方法,用于在没有标签的情况下,通过让模型学习哪些数据点相似或不同来学习数据集的一般特征。
4 Methodology
总体的模型结构如下:
4.1 Text Encoder
首先,本文利用BERT作为文本的编码器:
[CLS]和[SEP]是指示序列的开始和结束的两个特殊标记,输入被送入BERT
得到的不同token的隐状态为:
4.2 Graph Encoder
将图结构构建为一个Directed Acyclic Graph (DAG)无环有向图 G = ( Y ; E ) ,并使用Graphormer对图进行编码。标签作为节点,其初始特征为其编号以及文本的嵌入的加和:
之后,采用基于Transformer的传播方式在标签图上进行特征传播。首先,Graphormer利用两个节点fi,fj之间的一些潜在特征为其生成相似矩阵:
遵从Graphormer,公式中的三个项分别表示节点fi,fj之间的注意力、cij 表示节点之间的边的编码,bϕ则表示两个节点之间的连通性。在这里,还是参照一下Graphormer中的定义:
ϕϕϕ(yi,yj)表示节点之间的最短路径长度,然后bϕ是针对最短路径的值indexed的一个可学习的标量。这个项目很明显用于统计一些静态的图信息,最短路径值值是固定的。
cij则是节点之间路径上的边的特征编码:cij=1N∑n=1Nxen(wnE)Tc_{ij}=\frac{1}{N} {\sum \limits_{n=1}^{N}}x_{e_n}(w^E_n)^Tcij=N
本文标签: 层级文本标签HierarchyIncorporating
版权声明:本文标题:【层级多标签文本分类】Incorporating Hierarchy into Text Encoder: a Contrastive Learning Approach for Hierarchic 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://it.en369.cn/jiaocheng/1763631304a2949710.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。


发表评论