Název: From Bag of Categories to Tree of Object Recognition
Autoři: Wang, Haijing
Zhang, Tianwen
Li, Peihua
Citace zdrojového dokumentu: WSCG '2008: Full Papers: The 16-th International Conference in Central Europe on Computer Graphics, Visualization and Computer Vision in co-operation with EUROGRAPHICS, University of West Bohemia Plzen, Czech Republic, February 4 - 7, 2008, p. 135-142.
Datum vydání: 2008
Nakladatel: Václav Skala - UNION Agency
Typ dokumentu: konferenční příspěvek
conferenceObject
URI: http://wscg.zcu.cz/wscg2008/Papers_2008/full/!_WSCG2008_Full_final.zip
http://hdl.handle.net/11025/10930
ISBN: 978-80-86943-15-2
Klíčová slova: rozpoznávání objektů;multitřídní objektově rozhodovací strom;AdaBoost
Klíčová slova v dalším jazyce: object recognition;multiclass object recognition tree;AdaBoost
Abstrakt: To recognize different category of objects, multiclass categorization problem is often reduced to multiple binary problems. Traditional approaches require training different classifiers for each category. This can be slow and the performance of learned single classifier is poor for limited training samples. We present a multiclass object recognition tree, in which the leaf node and the non-leaf node correspond to one category and a bag of categories, respectively. Each non-leaf node captures the shared features of a bag of categories. Each node also holds a group of classifiers trained by AdaBoost, to discriminate the categories locating at its left and right child node. Recognition is then a process to find a path from the root to a leaf, which represents a unique category. The very promising result on Caltech 101 dataset shows the robustness of the proposed approach.
Práva: © Václav Skala - UNION Agency
Vyskytuje se v kolekcích:WSCG '2008: Full Papers

Soubory připojené k záznamu:
Soubor Popis VelikostFormát 
Wang.pdfPlný text343,25 kBAdobe PDFZobrazit/otevřít


Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam: http://hdl.handle.net/11025/10930

Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.