Název: Real-time CPU-based View Synthesis for Omnidirectional Video
Autoři: Stankowski, Jakub
Dziembowski, Adrian
Citace zdrojového dokumentu: WSCG 2022: full papers proceedings: 30. International Conference in Central Europe on Computer Graphics, Visualization and Computer Vision, p. 241-247.
Datum vydání: 2022
Nakladatel: Václav Skala - UNION Agency
Typ dokumentu: conferenceObject
URI: http://hdl.handle.net/11025/49600
ISBN: 978-80-86943-33-6
ISSN: 2464-4617
Klíčová slova: syntéza virtuálního pohledu;všesměrové video;pohlcující video systémy;zpracování videa v reálném čase
Klíčová slova v dalším jazyce: virtual view synthesis;omnidirectional video;immersive video systems;real-time video processing
Abstrakt v dalším jazyce: In this paper, the authors describe the real-time CPU-based implementation of the virtual view synthesis algorithm for high-resolution omnidirectional content. The proposed method allows a user of the immersive video virtually navigating within the scene captured by a multiview system comprised of 360-degree or 180-degree cameras. The proposed method does not require using powerful graphic cards as other state-of-the-art real-time synthesis methods. Instead, the emerge of consumer-grade multithreaded CPUs and CPU-based virtual view synthesis, allows further development of cheap, consumer immersive video systems. The proposed method was compared with the state-of-the-art view synthesis algorithm – RVS, both in terms of quality of synthesized views and computational time required for the synthesis, presenting the usefulness of the proposed method.
Práva: © Václav Skala - UNION Agency
Vyskytuje se v kolekcích:WSCG 2022: Full Papers Proceedings

Soubory připojené k záznamu:
Soubor Popis VelikostFormát 
D07-full.pdfPlný text2,05 MBAdobe PDFZobrazit/otevřít


Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam: http://hdl.handle.net/11025/49600

Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.