Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.author | Jůzová, Markéta | |
dc.contributor.author | Tihelka, Daniel | |
dc.contributor.author | Vít, Jakub | |
dc.date.accessioned | 2022-03-14T11:00:20Z | - |
dc.date.available | 2022-03-14T11:00:20Z | - |
dc.date.issued | 2019 | |
dc.identifier.citation | JŮZOVÁ, M. TIHELKA, D. VÍT, J. Unified Language-Independent DNN-Based G2P Converter. In Proceedings of the 20th Annual Conference of the International Speech Communication Association (Interspeech 2019). Red Hook, NY: Curran Associates, Inc., 2019. s. 2085-2089. ISBN: 978-1-5108-9683-3 , ISSN: 2308-457X | cs |
dc.identifier.isbn | 978-1-5108-9683-3 | |
dc.identifier.issn | 2308-457X | |
dc.identifier.uri | 2-s2.0-85098105505 | |
dc.identifier.uri | http://hdl.handle.net/11025/47118 | |
dc.description.abstract | Představujeme jednotný model pro převod grafémů na fonémy založený na hlubokých neuronových sítích. Na rozdíl od obvyklých přístupů, které používají pro trénovaní slovník, používáme celé fráze, což nám umožňuje zachytit různé jazykové vlastnosti, např. spodobu znělosti přes hranici slov, bez nutnosti definovat specifika pro konkrétní jazyk. Vyhodnocení přístupu probíhá na třech různých jazycích - angličtině, češtině a ruštině. Každý z nich vyžaduje řešení specifických vlastností, a proto to obvykle vede k použití odlišných přístupů. První výsledky použití navrhovaného modelu prokazují, že je schopný se specifika jednotlivých jazyků naučit. Považujeme tedy model za jazykově nezávislý pro širokou škálu jazyků. | cs |
dc.format | 5 s. | cs |
dc.format.mimetype | application/pdf | |
dc.language.iso | en | en |
dc.publisher | International Speech Communication Association (ISCA) | en |
dc.relation.ispartofseries | Proceedings of the 20th Annual Conference of the International Speech Communication Association (Interspeech 2019) | en |
dc.rights | Plný text není přístupný. | cs |
dc.rights | © International Speech Communication Association | en |
dc.subject | převod grafémy-fonémy, fonetická transkripce, hluboké neuronové sítě se zpětnou vazbou, syntéza řeči | cs |
dc.title | Unified Language-Independent DNN-Based G2P Converter | en |
dc.title.alternative | Sjednocený jazykově nezávislý model fonetické transkripce založený na hlubokých neuronových sítích | cs |
dc.type | konferenční příspěvek | cs |
dc.type | ConferenceObject | en |
dc.rights.access | closedAccess | en |
dc.type.version | publishedVersion | en |
dc.description.abstract-translated | We introduce a unified Grapheme-to-phoneme conversion framework based on the composition of deep neural networks. In contrary to the usual approaches building the G2P frameworks from the dictionary, we use whole phrases, which allows us to capture various language properties, e.g. cross-word assimilation, without the need for any special care or topology adjustments. The evaluation is carried out on three different languages -- English, Czech and Russian. Each requires dealing with specific properties, stressing the proposed framework in various ways. The very first results show promising performance of the proposed framework, dealing with all the phenomena specific to the tested languages. Thus, we consider the framework to be language-independent for a wide range of languages. | en |
dc.subject.translated | grapheme-to-phoneme, phonetic transcription, recurrent deep neural network, speech synthesis | en |
dc.identifier.doi | 10.21437/Interspeech.2019-2335 | |
dc.type.status | Peer-reviewed | en |
dc.identifier.obd | 43926897 | |
dc.project.ID | GA19-19324S/Plně trénovatelná syntéza české řeči z textu s využitím hlubokých neuronových sítí | cs |
dc.project.ID | SGS-2019-027/Inteligentní metody strojového vnímání a porozumění 4 | cs |
Appears in Collections: | Konferenční příspěvky / Conference Papers (KKY) OBD |
Files in This Item:
File | Size | Format | |
---|---|---|---|
Interspeech_2019_2335_juzova_tihelka_vit.pdf | 209,88 kB | Adobe PDF | View/Open Request a copy |
Please use this identifier to cite or link to this item:
http://hdl.handle.net/11025/47118
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.