Toggle navigation
Hlavná stránka
Zoznam záznamov
Rozšírené hľadanie
Hľadať
DDP - Zverejnená diplomová práca
Deep Learning-based Human Pose Estimation from 3D Data
Autor
Škorvánková, Dana
Školiteľ
Madaras, Martin
Oponent
Riečický, Adam
Škola
Univerzita Komenského v Bratislave FMFI FMFI.KAI
Rok odovzdania
2020
Počet strán
61s.
Trvalý odkaz - CRZP
https://opac.crzp.sk/?fn=detailBiblioForm&sid=FD287398550734C849B41ABBBA89
Primárny jazyk
angličtina
Typ práce
Diplomová práca
Študijný odbor
2511 | aplikovaná informatika
Dátum zaslania práce do CRZP
16.05.2020
Dátum vytvorenia protokolu
16.05.2020
Dátum doručenia informácií o licenčnej zmluve
01.07.2020
Práca je zverejniteľná od
01.07.2021
Elektronická verzia
Prehliadať
Abstrakt v primárnom jazyku
The aim of our thesis is to develop a 3D human pose estimation pipeline based on neural network, which takes three-dimensional data (in a form of a point cloud or a depth map) as input and outputs the 3D skeletal joint coordinates. We intend to overcome the limitations associated with high non-linearity of direct regression from 2D image to 3D pose by inferring from 3D input data, and thus increase the estimation accuracy. Our goal is to introduce our own approach, in addition to implementing several well-performing models proposed in existing papers. Next, we aim to evaluate the methods on multiple benchmark datasets, and compare the results to the current state-of-the-art.
Abstrakt v sekundárnom jazyku
Cieľom tejto diplomovej práce je vyvinúť systém na 3D odhad pózy človeka, založený na neurónovej sieti, ktorý má na vstupe trojdimenzionálne dáta (vo forme mračna bodov alebo hĺbkovej mapy) a na výstupe vracia 3D koordináty vrcholov kostry. Máme v záujme prekonať obmedzenia spojené s vysokou nelinearitou priamej regresie 3D pózy z 2D obrazu využitím 3D vstupných dát, a zvýšiť tak presnosť odhadu. Naším zámerom je predstavenie nášho vlastného prístupu, ako aj implementácia niekoľkých existujúcich modelov, vynikajúcich svojimi výsledkami v rámci danej problematiky. Jednotlivé metódy následne evaluujeme na referenčných databázach a porovnáme s doposiaľ najlepšími výsledkami dosiahnutými na uvedených dátach.
1653339