Název: Linear Transformations for Cross-lingual Sentiment Analysis
Další názvy: Lineární trasformace pro mezijazyčnou analýzu sentimentu
Autoři: Přibáň, Pavel
Šmíd, Jakub
Mištera, Adam
Král, Pavel
Citace zdrojového dokumentu: PŘIBÁŇ, P. ŠMÍD, J. MIŠTERA, A. KRÁL, P. Linear Transformations for Cross-lingual Sentiment Analysis. In Text, Speech, and Dialogue, 25th International Conference, TSD 2022, Brno, Czech Republic, September 6–9, 2022, Proceedings. Cham: Springer, 2022. s. 125-137. ISBN: 978-3-031-16269-5 , ISSN: 0302-9743
Datum vydání: 2022
Nakladatel: Springer
Typ dokumentu: konferenční příspěvek
ConferenceObject
URI: 2-s2.0-85139017087
http://hdl.handle.net/11025/50444
ISBN: 978-3-031-16269-5
ISSN: 0302-9743
Klíčová slova: analýza sentimentu;mezijazyčný;lineární transformace;neuronové sítě;transformace sémantického prostoru;klasifikace
Klíčová slova v dalším jazyce: sentiment analysis;cross-lingual;linear transformation;neural networks;semantic space transformation;classification
Abstrakt: Tento článek se zabývá mezijazyčnou analýzou sentimentu pro češtinu, angličtinu a francouzštinu. Provádíme tzv. „ zero-shot“ mezijazyčnou klasifikaci pomocí pěti lineárních transformací v kombinaci s klasifikátory neuronových sítí založených na LSTM a CNN. Porovnáváme výsledky jednotlivých transformací a navíc je porovnáváme s „state-of-the-art“ modely založenými na architektuře Transformers (BERT). Ukazujeme, že předem natrénovaný sémantický prostor z cílové domény je pro zlepšení výsledků mezijazyčné klasifikace klíčový, na rozdíl od monolinguální klasifikace, kde tento efekt není tak výrazný.
Abstrakt v dalším jazyce: This paper deals with cross-lingual sentiment analysis in Czech, English and French languages. We perform zero-shot cross-lingual classification using five linear transformations combined with LSTM and CNN based classifiers. We compare the performance of the individual transformations, and in addition, we confront the transformation-based approach with existing state-of-the-art BERT-like models. We show that the pre-trained embeddings from the target domain are crucial to improving the cross-lingual classification results, unlike in the monolingual classification, where the effect is not so distinctive.
Práva: Plný text je přístupný v rámci univerzity přihlášeným uživatelům.
© Springer
Vyskytuje se v kolekcích:Konferenční příspěvky / Conference papers (NTIS)
Konferenční příspěvky / Conference Papers (KIV)
OBD

Soubory připojené k záznamu:
Soubor VelikostFormát 
Přibáň, Král a kol. paper-TSD.pdf241,53 kBAdobe PDFZobrazit/otevřít  Vyžádat kopii


Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam: http://hdl.handle.net/11025/50444

Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.

hledání
navigace
  1. DSpace at University of West Bohemia
  2. Publikační činnost / Publications
  3. OBD