您现在的位置是:首页 > 正文

bert识别计算机语言,基于BERT-IDCNN-CRF的中文命名实体识别方法

2024-02-01 04:35:54阅读 2

摘要:

预训练语言模型能够表达句子丰富的句法和语法信息,并且能够对词的多义性建模,在自然语言处理中有着广泛的应用,BERT(bidirectional encoder representations from transformers)预训练语言模型是其中之一.在基于BERT微调的命名实体识别方法中,存在的问题是训练参数过多,训练时间过长.针对这个问题提出了基于BERT-IDCNN-CRF(BERT-iterated dilated convolutional neural network-conditional random field)的中文命名实体识别方法,该方法通过BERT预训练语言模型得到字的上下文表示,再将字向量序列输入IDCNN-CRF模型中进行训练,训练过程中保持BERT参数不变,只训练IDCNN-CRF部分,在保持多义性的同时减少了训练参数.实验表明,该模型在MSRA语料上F1值能够达到94.41%,在中文命名实体任务上优于目前最好的Lattice-LSTM模型,提高了1.23%;与基于BERT微调的方法相比,该方法的F1值略低但是训练时间大幅度缩短.将该模型应用于信息安全,电网电磁环境舆情等领域的敏感实体识别,速度更快,响应更及时.

展开

网站文章