资源算法daguan_ner_Bert_bilstm_crf

daguan_ner_Bert_bilstm_crf

2020-02-18 | |  30 |   0 |   0

daguan_ner_Bert_bilstm_crf

达观算法比赛ner任务,从训练bert到预测。

由于达观比赛数据是脱敏的,所以要使用词向量,需要自己训练。

bert的预训练可以使用 https://github.com/circlePi/Pretraining-Yourself-Bert-From-Scratch 得到,由于达观比赛的数据没有指定上下句,所以预训练时候,代码中只用到了mask任务。

训练好的bert放在,data/my_bert 文件夹下,名为“pytorch_bert.bin"。

整体效果受模型超参和bert本身的训练效果所致,这个模型的最好结果,也还没跑完。

我自己训练的bert可以从以下链接下载 链接:https://pan.baidu.com/s/1aPxmC2pU-lUO_ffOqtDNvA 密码:dw65 后面,训练出更好的bert会继续放出链接。

有问题欢迎交流。


上一篇:keras-bert-ner

下一篇:NER-BERT-CRF

用户评价
全部评价

热门资源

  • Keras-ResNeXt

    Keras ResNeXt Implementation of ResNeXt models...

  • seetafaceJNI

    项目介绍 基于中科院seetaface2进行封装的JAVA...

  • spark-corenlp

    This package wraps Stanford CoreNLP annotators ...

  • capsnet-with-caps...

    CapsNet with capsule-wise convolution Project ...

  • inferno-boilerplate

    This is a very basic boilerplate example for pe...