Motion annotation in complex video datasets

dc.contributor
Universitat de Girona. Departament d'Arquitectura i Tecnologia de Computadors
dc.contributor.author
Mahmood, Muhammad Habib
dc.date.accessioned
2019-10-04T14:22:13Z
dc.date.available
2019-10-04T14:22:13Z
dc.date.issued
2018-11-16
dc.identifier.uri
http://hdl.handle.net/10803/667583
dc.description.abstract
Motion segmentation refers to the process of separating regions and trajectories from a video sequence into coherent subsets of space and time. In this thesis, we created a new multifaceted motion segmentation dataset enclosing real-life long and short sequences, with different numbers of motions and frames per sequence, and real distortions with missing data. Trajectory- and region-based ground-truth is provided on all the frames of all the sequences. We also proposed a new semi-automatic tool for delineating the trajectories in complex videos, even in videos captured from moving cameras. With a minimal manual annotation of an object mask, the algorithm is able to propagate the label mask in all the frames. Object label correction based on static and moving occluder is performed by applying occluder mask tracking for a given depth ordering. The results show that our cascaded-naive approach provides successful results in a variety of video sequences.
dc.description.abstract
La segmentació del moviment es refereix al procés de separar regions i trajectòries d'una seqüència de vídeo en subconjunts coherents d'espai i de temps. En aquesta tesi hem creat un nou i multifacètic dataset amb seqüències de la vida real que inclou diferent número de moviments i fotogrames per seqüència i distorsions amb dades incomplertes. A més, inclou ground-truth en tots els fotogrames basat en mesures de trajectòria i regió. Hem proposat també una nova eina semiautomàtica per delinear les trajectòries en vídeos complexos, fins i tot en vídeos capturats amb càmeres mòbils. Amb una mínima anotació manual dels objectes, l'algoritme és capaç de propagar-la en tots els fotogrames. Durant les oclusions, la correcció de les etiquetes es realitza aplicant el seguiment de la màscara per a cada ordre de profunditat. Els resultats obtinguts mostren que el nostre enfocament ofereix resultats reeixits en una àmplia varietat de seqüències de vídeo.
dc.format.extent
105 p.
dc.format.mimetype
application/pdf
dc.language.iso
eng
dc.publisher
Universitat de Girona
dc.rights.license
L'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: http://creativecommons.org/licenses/by-nc-sa/4.0/
dc.rights.uri
http://creativecommons.org/licenses/by-nc-sa/4.0/
*
dc.source
TDX (Tesis Doctorals en Xarxa)
dc.subject
Computer vision
dc.subject
Visió per ordinador
dc.subject
Visión por ordenador
dc.subject
Motion segmentation
dc.subject
Segmentació del moviment
dc.subject
Segmentación del movimiento
dc.subject
Image analysis
dc.subject
Anàlisi d'imatges
dc.subject
Análisis de imágenes
dc.subject
Machine learning
dc.subject
Aprenentatge automàtic
dc.subject
Aprendizaje automático
dc.subject
Automated tools
dc.subject
Eines automàtiques
dc.subject
Herarmientas automáticas
dc.subject
Motion datasets
dc.title
Motion annotation in complex video datasets
dc.type
info:eu-repo/semantics/doctoralThesis
dc.type
info:eu-repo/semantics/publishedVersion
dc.subject.udc
68
dc.contributor.director
Oliver i Malagelada, Arnau
dc.embargo.terms
cap
dc.rights.accessLevel
info:eu-repo/semantics/openAccess


Documents

tmhm_20181116.pdf

2.521Mb PDF

This item appears in the following Collection(s)