We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
模型使用 Transformer 的encoder 部分编码句子信息。使用 multi-head attention 模块不断的抽取句子中重要的特征,并且使用残差网络的叠加方法,将注意力层得到的输出与输入拼接到一起并正则化。如此方式可以堆叠多层,更好的抽取句子信息。最后将 Transformer 的结果接一层全连接层得到最终的分类效果。
使用方法:
python main.py --model_name Transformer
更多配置见 config.py 文件
config.py
参考文献: