请问老师:使用LSTM做NER,实体间关系抽取是同时就做了可以立即得到,还是需要另外再做一套模型?谢谢。

如下序列(假定就是一句话):
 
其它上下文+名词实体A+其它上下文+AB间关系描述+其它上下文+名词实体B+其它上下文 

使用LSTM做NER,那么AB间关系抽取(典型地,“result in”、"lead to"等词但不限制关系表达词汇)是如何得到?
 
还需要另外再做dependency parsing吗?
 
或者需要另外一套NNLM模型才能得到AB间关系抽取?
 
谢谢。

shixing

赞同来自: fish

如果NER已经提取出来。那么对任意可能的NER之间做分类就好了。问题在于取那些feature作为来表示A和B之间的关系。传统的feature是可以包含dependency parsing的结果的。 还有就是使用A和B之间的词作为feature. 或者是使将A和B之间的词用另外一个LSTM encode一遍,得到的最终vector最为feature.    实话说,我没有做过具体的任务,以上只是跟做过的人之前的简短的交流了解到的。建议搜索相关的论文

要回复问题请先登录注册