Title: | Multilingual Coreference Resolution with Harmonized Annotations |
Other Titles: | Vícejazyčné hledání koreferencí s harmonizovanými anotacemi |
Authors: | Pražák, Ondřej Konopík, Miloslav Sido, Jakub |
Citation: | PRAŽÁK, O. KONOPÍK, M. SIDO, J. Multilingual Coreference Resolution with Harmonized Annotations. In Deep Learning for Natural Language Processing Methods and Applications. Shoumen: INCOMA Ltd., 2021. s. 1119-1123. ISBN: 978-954-452-072-4 , ISSN: 1313-8502 |
Issue Date: | 2021 |
Publisher: | INCOMA Ltd. |
Document type: | konferenční příspěvek ConferenceObject |
URI: | 2-s2.0-85123593477 http://hdl.handle.net/11025/47262 |
ISBN: | 978-954-452-072-4 |
ISSN: | 1313-8502 |
Keywords: | Hledání koreferencí;mezijazyčné reprezentace;BERT |
Keywords in different language: | Coreference resolution;cross-lingual representations;BERT |
Abstract: | V tomto článku popisujeme experimentální systém hledání koreferencí s nově vytvořeným vícejazyčným korpusem CorefUD (Nedoluzhko et al., 2021). Zaměřujeme se na tyto jazyky: čeština, ruština, polština, němčina, španělština a katalánština. Kromě jednojazyčných experimentů kombinujeme tréninková data ve vícejazyčných experimentech a trénujeme dva spojené modely: Jeden pro slovanské jazyky a druhý pro všechny jazyky dohromady. Využíváme model hlubokého učení typu end-to-end, který jsme přizpůsobili pro korpus CorefUD. Naše výsledky ukazují, že můžeme těžit z harmonizovaných anotací a používání spojených modelů výrazně pomáhá jazykům s menšími trénovacími daty. |
Abstract in different language: | In this paper, we present coreference resolution experiments with a newly created multi-lingual corpus CorefUD (Nedoluzhko et al.,2021). We focus on the following languages: Czech, Russian, Polish, German, Spanish, and Catalan. In addition to monolingual experiments, we combine the training data in multi-lingual experiments and train two joined models – for Slavic languages and for all the languages together. We rely on an end-to-end deep learning model that we slightly adapted for the CorefUD corpus. Our results show that we can profit from harmonized annotations, and using joined models helps significantly for the languages with smaller training data |
Rights: | © Incoma Ltd. |
Appears in Collections: | Konferenční příspěvky / Conference Papers (KIV) OBD |
Files in This Item:
File | Size | Format | |
---|---|---|---|
Pražák-RANLP proceedings-2021-1.pdf | 177,77 kB | Adobe PDF | View/Open |
Please use this identifier to cite or link to this item:
http://hdl.handle.net/11025/47262
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.