见paper文件夹
原始论文:https://arxiv.org/pdf/1910.11476v6.pdf
在输入文本前加上了实体类型的描述信息,这些实体类型的描述作为先验知识提高了模型抽取的效果,所以BERT-MRC模型在数据量匮乏的场景下,通过在输入文本前面拼接的query获得了一定的先验信息,提升了性能。
BERT-MRC模型是目前实体识别领域的一个SOTA模型,在数据量较小的情况下效果较其他模型要更好,原因是因为BERT-MRC模型可以通过问题加入一些先验知识,减小由于数据量太小带来的问题,在实际实验中,在数据量比较小的情况下,BERT-MRC模型的效果要较其他模型要更好一点。BERT-MRC模型很适合在缺乏标注数据的场景下使用。
参考: 命名实体识别Baseline模型BERT-MRC总结
重新训练 :
nohup python train.py &
直接eval(首先下载已经训练好的模型saved_model文件夹有说明):
nohup python eval1.py &
log文件夹有训练和测试的日志记录