具有代替和指示作用的代詞,作為實(shí)詞在句法和文本中具有重要作用。代詞令語言簡潔且更富有變化性。
對(duì)于人類來說,識(shí)別代詞指代對(duì)象并不算困難,憑借對(duì)上下文和對(duì)句子的理解就可以找出代詞的指代對(duì)象。然而,對(duì)于人工智能來說,卻并不容易——機(jī)器對(duì)文本的理解通常需要核心性解析。換言之,能否準(zhǔn)確搜索、追蹤、分析代詞與實(shí)體之間的關(guān)聯(lián),對(duì)于人工智能能否準(zhǔn)確理解文本內(nèi)容至關(guān)重要。
這種能力被稱為共指消解(Conference Resolution),是自然語言處理(NLP)領(lǐng)域的重要研究方向,即通過追蹤長句、段落、文章中的代詞,找到其對(duì)應(yīng)的指代對(duì)象或內(nèi)容。
盡管目前有很多體量龐大的眾包數(shù)據(jù)集,但它們主要考察模型理解局部語義以及謂詞參數(shù)結(jié)構(gòu),涉及共指消解的問題很少見。
針對(duì)這一問題,艾倫人工智能研究所的研究團(tuán)隊(duì)最近公布了一個(gè)新的眾包數(shù)據(jù)集,被稱為為QUOREF,里面包含超過2400個(gè)廣度選擇問題,旨在專門考察模型的共指消解能力。這些問題需要在維基百科的4.7K多個(gè)英文段落中分析并找到各個(gè)實(shí)體的指代對(duì)象。
作為專門測(cè)試共指消解能力的數(shù)據(jù)集,QUOREF足以證明目前常見的機(jī)器閱讀理解模型仍有很大的進(jìn)步空間。通過分析錯(cuò)誤答案背后的原因,NLP研究者才能更好地改進(jìn)模型,實(shí)現(xiàn)在復(fù)雜、多元、大跨度的文本內(nèi)容中準(zhǔn)確對(duì)應(yīng)實(shí)體與代詞,做到真正意義上的的語義理解。