Full metadata record
DC pole | Hodnota | Jazyk |
---|---|---|
dc.contributor.author | Zita, Aleš | |
dc.contributor.author | Picek, Lukáš | |
dc.contributor.author | Říha, Antonín | |
dc.date.accessioned | 2022-03-28T10:00:25Z | - |
dc.date.available | 2022-03-28T10:00:25Z | - |
dc.date.issued | 2020 | |
dc.identifier.citation | ZITA, A. PICEK, L. ŘÍHA, A. Sketch2Code: Automatic hand-drawn UIelements detection with Faster R-CNN. In CEUR Workshop proceedings - CLEF 2020 Working Notes. Thessaloniki: CEUR-WS, 2020. s. nestránkováno. ISBN: neuvedeno , ISSN: 1613-0073 | cs |
dc.identifier.isbn | neuvedeno | |
dc.identifier.issn | 1613-0073 | |
dc.identifier.uri | 2-s2.0-85113485682 | |
dc.identifier.uri | http://hdl.handle.net/11025/47233 | |
dc.description.abstract | Převod nákresů uživatelského rozhraní do počítače je náročný a opakující se úkol. Především díky tomu, vzrůstá poptávka po systémech, které jsou schopné tento proces automatizovat. V tomto článku popisujeme metodu hlubokého učení pro lokalizaci jednotlivých elementů uživatelského rozhraní, která se umístila na prvním místě v soutěži ImageCLEFdrawnUI, přičemž dosáhla celkové přesnosti rovné 0.9708. Navržená metoda je založena na metodě detekce objektů Faster R-CNN s "backbone" architekturou ResNet-50, trénované pomocí pokročilých regularizačních technik. Pro reprodukční účely byl kód zveřejněn na https://github.com/picekl/ImageCLEF2020-DrawnUI. | cs |
dc.format | 9 s. | cs |
dc.format.mimetype | application/pdf | |
dc.language.iso | en | en |
dc.publisher | CEUR-WS | en |
dc.relation.ispartofseries | CEUR Workshop proceedings - CLEF 2020 Working Notes | en |
dc.rights | © authors | en |
dc.title | Sketch2Code: Automatic hand-drawn UIelements detection with Faster R-CNN | en |
dc.title.alternative | Sketch2Code: Automatická detekce ručně kreslených elementů uživatelského rozhraní pomocí Faster R-CNN | cs |
dc.type | konferenční příspěvek | cs |
dc.type | ConferenceObject | en |
dc.rights.access | openAccess | en |
dc.type.version | publishedVersion | en |
dc.description.abstract-translated | Transcription of User Interface (UI) elements hand drawings to the computer code is a tedious and repetitive task. Therefore, a need arose to create a system capable of automating such process. This paper describes a deep learning-based method for hand-drawn user interface elements detection and localization. The proposed method scored 1st place in the ImageCLEFdrawnUI competition while achieving an overall precision of 0.9708. The final method is based on Faster R-CNN object detector framework with ResNet-50 backbone architecture trained with advanced regularization techniques. The code has been made available at: https://github.com/picekl/ImageCLEF2020-DrawnUI. | en |
dc.subject.translated | Web Design | en |
dc.subject.translated | Object Detection | en |
dc.subject.translated | Convolutional Neural Networks | en |
dc.subject.translated | Machine Learning | en |
dc.subject.translated | Computer Vision | en |
dc.subject.translated | User Interface | en |
dc.subject.translated | Deep Learning | en |
dc.type.status | Peer-reviewed | en |
dc.identifier.obd | 43930882 | |
dc.project.ID | SGS-2019-027/Inteligentní metody strojového vnímání a porozumění 4 | cs |
dc.project.ID | LO1506/PUNTIS - Podpora udržitelnosti centra NTIS - Nové technologie pro informační společnost | cs |
Vyskytuje se v kolekcích: | Konferenční příspěvky / Conference Papers (KKY) OBD |
Soubory připojené k záznamu:
Soubor | Velikost | Formát | |
---|---|---|---|
paper_82.pdf | 2,61 MB | Adobe PDF | Zobrazit/otevřít |
Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam:
http://hdl.handle.net/11025/47233
Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.