Title: Multilingual Coreference Resolution with Harmonized Annotations
Other Titles: Vícejazyčné hledání koreferencí s harmonizovanými anotacemi
Authors: Pražák, Ondřej
Konopík, Miloslav
Sido, Jakub
Citation: PRAŽÁK, O. KONOPÍK, M. SIDO, J. Multilingual Coreference Resolution with Harmonized Annotations. In Deep Learning for Natural Language Processing Methods and Applications. Shoumen: INCOMA Ltd., 2021. s. 1119-1123. ISBN: 978-954-452-072-4 , ISSN: 1313-8502
Issue Date: 2021
Publisher: INCOMA Ltd.
Document type: konferenční příspěvek
ConferenceObject
URI: 2-s2.0-85123593477
http://hdl.handle.net/11025/47262
ISBN: 978-954-452-072-4
ISSN: 1313-8502
Keywords: Hledání koreferencí;mezijazyčné reprezentace;BERT
Keywords in different language: Coreference resolution;cross-lingual representations;BERT
Abstract: V tomto článku popisujeme experimentální systém hledání koreferencí s nově vytvořeným vícejazyčným korpusem CorefUD (Nedoluzhko et al., 2021). Zaměřujeme se na tyto jazyky: čeština, ruština, polština, němčina, španělština a katalánština. Kromě jednojazyčných experimentů kombinujeme tréninková data ve vícejazyčných experimentech a trénujeme dva spojené modely: Jeden pro slovanské jazyky a druhý pro všechny jazyky dohromady. Využíváme model hlubokého učení typu end-to-end, který jsme přizpůsobili pro korpus CorefUD. Naše výsledky ukazují, že můžeme těžit z harmonizovaných anotací a používání spojených modelů výrazně pomáhá jazykům s menšími trénovacími daty.
Abstract in different language: In this paper, we present coreference resolution experiments with a newly created multi-lingual corpus CorefUD (Nedoluzhko et al.,2021). We focus on the following languages: Czech, Russian, Polish, German, Spanish, and Catalan. In addition to monolingual experiments, we combine the training data in multi-lingual experiments and train two joined models – for Slavic languages and for all the languages together. We rely on an end-to-end deep learning model that we slightly adapted for the CorefUD corpus. Our results show that we can profit from harmonized annotations, and using joined models helps significantly for the languages with smaller training data
Rights: © Incoma Ltd.
Appears in Collections:Konferenční příspěvky / Conference Papers (KIV)
OBD

Files in This Item:
File SizeFormat 
Pražák-RANLP proceedings-2021-1.pdf177,77 kBAdobe PDFView/Open


Please use this identifier to cite or link to this item: http://hdl.handle.net/11025/47262

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

search
navigation
  1. DSpace at University of West Bohemia
  2. Publikační činnost / Publications
  3. OBD