原标题:Context-Aware Representations for Knowledge Base Relation Extraction论文笔记
原文来自:CSDN 原文链接:https://blog.csdn.net/weixin_40400177/article/details/102894474
**文中提出的非常重要的观点就是 当前 sentence的context中存在的relation会有利于提取当前sentence的relation。
**
在进行预测的时候使用了context representation
主要的核心思想就是使用了LSTM encoder
main contribution就是一个全新的网络框架。
其实应该还有这个context representation的idea
以及
还有应该是open了自己做的distant supervision的数据?
用的是50维的embedding
其中网络中有很特殊的 word token marker 分为三类
entity 1
entity 2
none of above.
当前句子的relation representation是os
oc concate起来做一个classification
一句话中最多有7个relation
position marker在模型中经过简单的测试发现并没有用
问题
免责声明:本文来自互联网新闻客户端自媒体,不代表本网的观点和立场。
合作及投稿邮箱:E-mail:editor@tusaishared.com