Full metadata record
DC poleHodnotaJazyk
dc.contributor.advisorLenc Ladislav, Ing. Ph.D.
dc.contributor.authorZeman, Matěj
dc.contributor.refereePrantl Martin, Ing. Ph.D.
dc.date.accepted2024-6-17
dc.date.accessioned2024-07-12T09:14:32Z-
dc.date.available2023-9-8
dc.date.available2024-07-12T09:14:32Z-
dc.date.issued2024
dc.date.submitted2024-5-16
dc.identifier96727
dc.identifier.urihttp://hdl.handle.net/11025/57235-
dc.description.abstractMultimodální klasifikace emocí zahrnuje rozpoznávání emocí z dat, která zahrnují více modalit. Pro rozpoznání emocí se nabízí hned několik modalit. Pohyb obličeje, text, záznam hlasu, nebo videa mluvčího. Tato práce se zaměřuje především na zvukovou a textovou modalitu pro rozpoznávání emocí. Nejprve je provedena extrakce příznaků ze zvukových dat. Následně jsou tyto příznaky použity pro trénování několika modelů pro rozpoznávání emocí ze zvukových dat. Tyto modely jsou založené na umělých neuronových sítích. Modely jsou následně použity pro vytváření příznaků ze zvukových dat. V multimodálních modelech jsou tyto příznaky spojeny s jejich textovými protějšky a použity pro multimodální predikci emocí. Úspěšnost tohoto systému je vyhodnocována na ECF, RAVDESS a IEMOCAP datasetech.cs
dc.format77 s.
dc.language.isoen
dc.publisherZápadočeská univerzita v Plzni
dc.rightsPlný text práce je přístupný bez omezení
dc.subjectmulti-modální rozpoznání emocícs
dc.subjectstrojové učenícs
dc.subjectbertcs
dc.subjectcnncs
dc.subjectpythoncs
dc.subjectextrakce příznakůcs
dc.titleMulti-modální analýza emocí z textových a zvukových datcs
dc.title.alternativeMulti-modal emotion analysis in textual and audio dataen
dc.typediplomová práce
dc.thesis.degree-nameIng.
dc.thesis.degree-levelNavazující
dc.thesis.degree-grantorZápadočeská univerzita v Plzni. Fakulta aplikovaných věd
dc.thesis.degree-programInženýrská informatika
dc.description.resultObhájeno
dc.description.abstract-translatedMultimodal emotion recognition involves correctly classifying the emotion from data involving multiple modalities. There are several viable modalities when it comes to emotion recognition. Facial movements, text, voice, and video of the speaker. This thesis focuses on audio and textual modalities for emotion recognition. First, feature extraction from audio data is performed. Subsequently, these features are used for training several audio emotion recognition models, that are based on Artificial Neural Networks. These audio emotion recognition models are then used to create audio feature extraction vectors. In the multimodal deep learning models, these audio feature vectors are combined with their textual counterparts for multimodal emotion recognition. The performance of this system is evaluated on ECF, RAVDESS, and IEMOCAP datasets.en
dc.subject.translatedmultimodal emotion recognitionen
dc.subject.translatedmachine learningen
dc.subject.translatedberten
dc.subject.translatedcnnen
dc.subject.translatedpythonen
dc.subject.translatedfeature extractionen
Vyskytuje se v kolekcích:Diplomové práce / Theses (KIV)

Soubory připojené k záznamu:
Soubor Popis VelikostFormát 
A21N0080P_DP.pdfPlný text práce1,66 MBAdobe PDFZobrazit/otevřít
A21N0080Pposudek-op.pdfPosudek oponenta práce1,01 MBAdobe PDFZobrazit/otevřít
A21N0080Phodnoceni-ved.pdfPosudek vedoucího práce28,89 kBAdobe PDFZobrazit/otevřít
A21N0080Pobhajoba.pdfPrůběh obhajoby práce205,06 kBAdobe PDFZobrazit/otevřít


Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam: http://hdl.handle.net/11025/57235

Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.