Int\'egration de contexte global par amor\ccage pour la d\'etection d'\'ev\'enements (Integrating global context via bootstrapping for event detection)
Les approches neuronales obtiennent depuis plusieurs ann{\'e}es des r{\'e}sultats int{\'e}ressants en extraction d{'}{\'e}v{\'e}nements. Cependant, les approches d{\'e}velopp{\'e}es dans ce cadre se limitent g{\'e}n{\'e}ralement {\`a} un contexte phrastique. Or, si certains types d{'}{\'e}v{\'e}nements sont ais{\'e}ment identifiables {\`a} ce niveau, l{'}exploitation d{'}indices pr{\'e}sents dans d{'}autres phrases est parfois n{\'e}cessaire pour permettre de d{\'e}sambigu{\"\i}ser des {\'e}v{\'e}nements. Dans cet article, nous proposons ainsi l{'}int{\'e}gration d{'}une repr{\'e}sentation d{'}un contexte plus large pour am{\'e}liorer l{'}apprentissage d{'}un r{\'e}seau convolutif. Cette repr{\'e}sentation est obtenue par amor{\c{c}}age en exploitant les r{\'e}sultats d{'}un premier mod{\`e}le convolutif op{\'e}rant au niveau phrastique. Dans le cadre d{'}une {\'e}valuation r{\'e}alis{\'e}e sur les donn{\'e}es de la campagne TAC 2017, nous montrons que ce mod{\`e}le global obtient un gain significatif par rapport au mod{\`e}le local, ces deux mod{\`e}les {\'e}tant eux-m{\^e}mes comp{\'e}titifs par rapport aux r{\'e}sultats de TAC 2017. Nous {\'e}tudions {\'e}galement en d{\'e}tail le gain de performance de notre nouveau mod{\`e}le au travers de plusieurs exp{\'e}riences compl{\'e}mentaires.
PDF Abstract