Skip to content

基于 Transformer 的关系抽取模型

leo edited this page Jun 23, 2022 · 2 revisions

模型使用 Transformer 的encoder 部分编码句子信息。使用 multi-head attention 模块不断的抽取句子中重要的特征,并且使用残差网络的叠加方法,将注意力层得到的输出与输入拼接到一起并正则化。如此方式可以堆叠多层,更好的抽取句子信息。最后将 Transformer 的结果接一层全连接层得到最终的分类效果。

Transformer1

Transformer2

使用方法:

python main.py --model_name Transformer

更多配置见 config.py 文件

参考文献:

  • Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Advances in neural information processing systems. 2017: 5998-6008.