资源算法bert-chinese-ner

bert-chinese-ner

2020-02-18 | |  34 |   0 |   0

bert-chinese-ner

前言

使用预训练语言模型BERT做中文NER尝试,fine - tune BERT模型

PS: 移步最新albert fine-tune ner模型

代码参考

使用方法

BERT-TF下载bert源代码,存放在路径下bert文件夹中

BERT-Base Chinese下载模型,存放在checkpoint文件夹下

使用BIO数据标注模式,使用人民日报经典数据

train:

python BERT_NER.py --data_dir=data/ --bert_config_file=checkpoint/bert_config.json --init_checkpoint=checkpoint/bert_model.ckpt --vocab_file=vocab.txt --output_dir=./output/result_dir/

结果

经过100个epoch跑出来的结果

eval_f = 0.9662649
eval_precision = 0.9668882
eval_recall = 0.9656949
global_step = 135181
loss = 40.160034

测试结果第一句:

图片.png

上一篇:rsna18-retinanet-starter

下一篇:BERT-CH-NER

用户评价
全部评价

热门资源

  • Keras-ResNeXt

    Keras ResNeXt Implementation of ResNeXt models...

  • seetafaceJNI

    项目介绍 基于中科院seetaface2进行封装的JAVA...

  • spark-corenlp

    This package wraps Stanford CoreNLP annotators ...

  • capsnet-with-caps...

    CapsNet with capsule-wise convolution Project ...

  • inferno-boilerplate

    This is a very basic boilerplate example for pe...